Kursus Pelatihan Pelatihan Praktis Pengantar Proses Aliran
Stream Processing adalah pengolahan data dalam waktu nyata (real-time) dari "data yang sedang bergerak", yakni melaksanakan komputasi pada data saat sedang diterima. Data seperti ini dibaca sebagai aliran kontinu dari sumber data seperti peristiwa sensor, aktivitas pengguna website, transaksi keuangan, swipe kartu kredit, aliran klik, dan sebagainya. Kerangka kerja Stream Processing mampu membaca volume besar data masuk dan memberikan wawasan berharga hampir seketika.
Dalam pelatihan langsung tatap muka atau pelatihan online langsung ini yang dilaksanakan secara bertahap (instructor-led), peserta akan belajar cara menyiapkan dan mengintegrasikan berbagai kerangka kerja Stream Processing dengan sistem penyimpanan data besar yang ada dan aplikasi perangkat lunak terkait serta microservices.
Di akhir pelatihan ini, peserta akan mampu:
- Memasang dan mengkonfigurasi berbagai kerangka kerja Stream Processing, seperti Spark Streaming dan Kafka Streaming.
- Memahami dan memilih kerangka kerja yang paling sesuai untuk pekerjaan.
- Memproses data secara terus-menerus, bersamaan, dan secara catatan-per-catatan.
- Mengintegrasikan solusi Stream Processing dengan basis data, data warehouse, data lake, dan sebagainya yang ada.
- Mengintegrasikan pustaka pengolahan aliran terbaik dengan aplikasi perusahaan dan microservices.
Peserta
- Pengembang
- Arsitek perangkat lunak
Format Kursus
- Bagian kuliah, bagian diskusi, latihan dan banyak praktik langsung
Catatan
- Untuk meminta pelatihan khusus untuk kursus ini, silakan hubungi kami untuk menyiapkan.
Kerangka Materi
Pendahuluan
- Pengolahan aliran vs pengolahan batch
- Pengolahan aliran yang difokuskan pada analisis
Tinjauan Framework dan Bahasa Pemrograman
- Spark Streaming (Scala)
- Kafka Streaming (Java)
- Flink
- Storm
- Perbandingan Fitur dan Kekuatan Setiap Framework
Tinjauan Sumber Data
- Data langsung sebagai serangkaian acara dalam waktu
- Sumber data sejarah
Opsi Penempatan
- Di cloud (AWS, dll.)
- Di lokasi (private cloud, dll.)
Memulai
- Mengatur Lingkungan Pengembangan
- Pemasangan dan Konfigurasi
- Menilai Kebutuhan Analisis Data Anda
Mengoperasikan Framework Stream Processing
- Mengintegrasikan Framework Streaming dengan Alat Big Data
- Event Stream Processing (ESP) vs Complex Event Processing (CEP)
- Mengubah Data Masuk
- Memeriksa Data Keluar
- Mengintegrasikan Framework Stream Processing dengan Aplikasi dan Microservices yang Ada
Penyelesaian Masalah
Ringkasan dan Kesimpulan
Persyaratan
- Pengalaman dalam pemrograman menggunakan bahasa apapun
- Memahami konsep Big Data (Hadoop, dll.)
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Pelatihan Praktis Pengantar Proses Aliran - Booking
Kursus Pelatihan Pelatihan Praktis Pengantar Proses Aliran - Enquiry
Pelatihan Praktis Pengantar Proses Aliran - Permintaan Konsultasi
Permintaan Konsultasi
Testimoni (1)
Sufficient hands on, trainer is knowledgable
Chris Tan
Kursus - A Practical Introduction to Stream Processing
Kursus Mendatang
Kursus Terkait
Kecerdasan Buatan - hal yang paling banyak diterapkan - Data Analysis + AI Terdistribusi + NLP
21 JamKurs ini ditujukan untuk pengembang dan ilmuwan data yang ingin memahami dan menerapkan kecerdasan buatan dalam aplikasi mereka. Fokus khusus diberikan pada analisis data, kecerdasan buatan terdistribusi, dan pemrosesan bahasa alami.
Unified Batch dan Stream Processing dengan Apache Beam
14 JamApache Beam adalah model pemrograman sumber terbuka dan terpadu untuk mendefinisikan dan menjalankan alur pemrosesan data paralel. Kekuatannya terletak pada kemampuannya untuk menjalankan alur batch dan streaming, dengan eksekusi yang dilakukan oleh salah satu back-end pemrosesan terdistribusi yang didukung Beam: Apache Apex, Apache Flink, Apache Spark, dan Google Cloud Dataflow. Apache Beam berguna untuk tugas ETL (Ekstrak, Transformasi, dan Muat) seperti memindahkan data antara media penyimpanan dan sumber data yang berbeda, mengubah data ke dalam format yang lebih diinginkan, dan memuat data ke sistem baru.
Dalam pelatihan langsung yang dipandu instruktur (di tempat atau jarak jauh) ini, peserta akan mempelajari cara mengimplementasikan Apache Beam SDK dalam aplikasi Java atau Python yang mendefinisikan jalur pemrosesan data untuk menguraikan kumpulan data besar menjadi potongan-potongan yang lebih kecil untuk pemrosesan paralel yang independen.
Pada akhir pelatihan ini, peserta akan dapat:
- Instal dan konfigurasikan Apache Beam.
- Gunakan model pemrograman tunggal untuk melakukan pemrosesan batch dan aliran dalam aplikasi Java atau Python mereka.
- Menjalankan jalur pipa di beberapa lingkungan.
Format Kursus
- Sebagian kuliah, sebagian diskusi, latihan dan praktik langsung yang berat
Catatan
- Kursus ini akan tersedia Scala di masa mendatang. Silakan hubungi kami untuk mengaturnya.
Building Kafka Solutions with Confluent
14 JamInstruktur ini akan memberikan pelatihan langsung (daring atau tatap muka) yang ditujukan bagi insinyur yang ingin menggunakan Confluent (sebuah distribusi Kafka) untuk membangun dan mengelola platform pengolahan data real-time untuk aplikasi mereka.
Selesai mengikuti pelatihan ini, peserta akan dapat:
- Instal dan konfigurasi Confluent Platform.
- Menggunakan alat dan layanan manajemen Confluent untuk menjalankan Kafka dengan lebih mudah.
- Menyimpan dan memproses data stream yang masuk.
- Mengeksekusi dan mengelola kluster Kafka secara optimal.
- Menyekuritasi data stream.
Format Kursus
- Pembahasan interaktif dan diskusi.
- Banyak latihan dan praktek.
- Implementasi praktis dalam lingkungan laboratorium langsung.
Opsi Kustomisasi Kursus
- Kursus ini didasarkan pada versi open source Confluent: Confluent Open Source.
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Apache Flink Fundamentals
28 JamPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini memperkenalkan prinsip dan pendekatan di balik pemrosesan data aliran dan batch terdistribusi, dan memandu peserta melalui pembuatan aplikasi streaming data waktu nyata di Apache Flink.
Pada akhir pelatihan ini, peserta akan dapat:
- Siapkan lingkungan untuk mengembangkan aplikasi analisis data.
- Pahami cara kerja pustaka pemrosesan grafik Apache Flink (Gelly).
- Mengemas, menjalankan, dan memantau aplikasi streaming data berbasis Flink yang toleran terhadap kesalahan.
- Kelola beban kerja yang beragam.
- Melakukan analisis tingkat lanjut.
- Siapkan klaster Flink multi-simpul.
- Mengukur dan mengoptimalkan kinerja.
- Integrasikan Flink dengan berbagai sistem Big Data.
- Bandingkan kemampuan Flink dengan kerangka kerja pemrosesan data besar lainnya.
Pengenalan Komputasi Graf
28 JamDalam pelatihan langsung yang dipandu instruktur di Indonesia ini, peserta akan mempelajari tentang penawaran teknologi dan pendekatan implementasi untuk memproses data grafik. Tujuannya adalah untuk mengidentifikasi objek dunia nyata, karakteristik dan hubungannya, kemudian memodelkan hubungan ini dan memprosesnya sebagai data menggunakan pendekatan Graph Computing (juga dikenal sebagai Analisis Grafik). Kami mulai dengan ikhtisar umum dan mempersempitnya pada alat tertentu saat kami melangkah melalui serangkaian studi kasus, latihan langsung, dan penerapan langsung.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami bagaimana data grafik dipertahankan dan dilintasi.
- Pilih kerangka kerja terbaik untuk tugas tertentu (dari basis data grafik hingga kerangka kerja pemrosesan batch.)
- Terapkan Hadoop, Spark, GraphX dan Pregel untuk melakukan komputasi grafik di banyak mesin secara paralel.
- Lihat masalah big data dunia nyata dalam bentuk grafik, proses, dan lintasan.
Apache Kafka untuk Programmer Python
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ditujukan untuk teknisi data, ilmuwan data, dan pemrogram yang ingin menggunakan fitur Apache Kafka dalam streaming data dengan Python.
Di akhir pelatihan ini, peserta akan dapat menggunakan Apache Kafka untuk memantau dan mengelola kondisi aliran data berkelanjutan menggunakan pemrograman Python.
Stream Processing dengan Kafka Streams
7 JamKafka Streams adalah perpustakaan sisi klien untuk membangun aplikasi dan mikroservis yang datanya dijalankan ke dan dari sistem pesan Kafka. Tradisionalnya, Apache Kafka telah bergantung pada Apache Spark atau Apache Storm untuk memproses data antara produsen pesan dan konsumen. Dengan memanggil API Kafka Streams dari dalam aplikasi, data dapat diproses langsung di dalam Kafka, menghindari kebutuhan untuk mengirimkan data ke kluster terpisah untuk diproses.
Dalam pelatihan berorientasi instruktur ini, peserta akan belajar bagaimana mengintegrasikan Kafka Streams ke dalam sejumlah aplikasi contoh Java yang memindahkan data ke dan dari Apache Kafka untuk pemrosesan stream.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti fitur dan keunggulan Kafka Streams dibandingkan kerangka kerja pemrosesan stream lainnya
- Mempersiapkan data stream langsung dalam kluster Kafka
- Menulis aplikasi atau mikroservis Java atau Scala yang terintegrasi dengan Kafka dan Kafka Streams
- Menulis kode singkat yang mengubah topik Kafka input menjadi topik Kafka output
- Membangun, memaketkan, dan mendeploy aplikasi
Audience
- Pengembang
Format kursus
- Berupa ceramah, diskusi, latihan dan praktek langsung yang intensif
Catatan
- Untuk meminta pelatihan kustom untuk kursus ini, silakan hubungi kami untuk mengatur
Confluent KSQL
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di tempat) ini ditujukan untuk pengembang yang ingin menerapkan pemrosesan aliran Apache Kafka tanpa menulis kode.
Pada akhir pelatihan ini, peserta akan dapat:
- Instal dan konfigurasikan Confluent KSQL.
- Siapkan alur pemrosesan aliran hanya menggunakan perintah SQL (tanpa pengkodean Java atau Python).
- Melakukan penyaringan data, transformasi, agregasi, gabungan, windowing, dan sesiisasi sepenuhnya di SQL.
- Rancang dan terapkan kueri interaktif dan berkelanjutan untuk streaming ETL dan analisis waktu nyata.
Apache NiFi for Administrators
21 JamDalam pelatihan langsung yang dipandu instruktur di Indonesia (di tempat atau jarak jauh), peserta akan mempelajari cara menerapkan dan mengelola Apache NiFi di lingkungan lab langsung.
Pada akhir pelatihan ini, peserta akan dapat:
- Instal dan konfigurasikan Apachi NiFi.
- Sumber, transformasi, dan kelola data dari sumber data yang berbeda dan terdistribusi, termasuk basis data dan danau data besar.
- Mengotomatiskan aliran data.
- Aktifkan analitik streaming.
- Terapkan berbagai pendekatan untuk penyerapan data.
- Transformasi Big Data menjadi wawasan bisnis.
Apache NiFi for Developers
7 JamDalam pelatihan langsung yang dipandu instruktur di Indonesia ini, peserta akan mempelajari dasar-dasar pemrograman berbasis aliran saat mereka mengembangkan sejumlah ekstensi demo, komponen, dan prosesor menggunakan Apache NiFi.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami arsitektur NiFi dan konsep aliran data.
- Mengembangkan ekstensi menggunakan NiFi dan API pihak ketiga.
- Mengembangkan prosesor Apache Nifi mereka sendiri.
- Menyerap dan memproses data secara real-time dari berbagai format file dan sumber data yang berbeda dan tidak umum.
Python dan Spark untuk Big Data di Perbankan (PySpark)
14 JamPython adalah bahasa pemrograman tingkat tinggi yang terkenal karena sintaksisnya yang jelas dan keterbacaan kode. Spark adalah mesin pemrosesan data yang digunakan dalam kueri, analisis, dan transformasi data besar. PySpark memungkinkan pengguna untuk menghubungkan Spark dengan Python.
Target Pemirsa: Profesional tingkat menengah di industri perbankan yang familiar dengan Python dan Spark, yang ingin memperdalam keterampilan mereka dalam pemrosesan big data dan pembelajaran mesin.
Python dan Spark untuk Big Data (PySpark)
21 JamDalam pelatihan langsung yang dipimpin instruktur di Indonesia ini, peserta akan mempelajari cara menggunakan Python dan Spark bersama-sama untuk menganalisis data besar saat mereka mengerjakan latihan langsung.
Pada akhir pelatihan ini, peserta akan mampu:
- Pelajari cara menggunakan Spark dengan Python untuk menganalisis Big Data.
- Kerjakan latihan yang meniru kasus dunia nyata.
- Gunakan alat dan teknik yang berbeda untuk analisis data besar menggunakan PySpark.
Spark Streaming dengan Python dan Kafka
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ditujukan untuk teknisi data, ilmuwan data, dan pemrogram yang ingin menggunakan fitur Spark Streaming dalam memproses dan menganalisis data waktu nyata.
Di akhir pelatihan ini, peserta akan dapat menggunakan Spark Streaming untuk memproses aliran data langsung untuk digunakan dalam database, sistem file, dan dasbor langsung.
Apache Spark MLlib
35 JamMLlib adalah pustaka pemrosesan machine learning (ML) Spark. Tujuannya adalah untuk membuat machine learning praktis yang dapat diukur dan mudah. Ini terdiri dari algoritma belajar umum dan utilitas, termasuk klasifikasi, regresi, clustering, filtering kolaboratif, pengurangan dimensi, serta primer optimasi tingkat rendah dan API pipeline tingkat tinggi.
Ia terbagi menjadi dua paket:
-
spark.mllib berisi API asli yang dibangun di atas RDDs.
-
spark.ml menyediakan API tingkat tinggi yang dibangun di atas DataFrames untuk memkonstruksi pipeline ML.
Peserta
Kursus ini ditujukan untuk insinyur dan pengembang yang ingin menggunakan pustaka Machine Learning yang terintegrasi dalam Apache Spark
Stratio: Modul Rocket dan Intelligence dengan PySpark
14 JamStratio adalah platform yang berorientasi data, yang mengintegrasikan big data, AI, dan governance menjadi satu solusi. Modul Rocket dan Intelligence-nya memungkinkan penjelajahan data cepat, transformasi, dan analitik lanjutan dalam lingkungan enterprise.
Pelatihan langsung (daring atau tatap muka) ini ditujukan untuk profesional data tingkat menengah yang ingin menggunakan modul Rocket dan Intelligence di Stratio dengan efektif bersama PySpark, fokus pada struktur pengulangan, fungsi definisi pengguna, dan logika data lanjutan.
Pada akhir pelatihan ini, peserta akan dapat:
- Menavigasi dan bekerja dalam platform Stratio menggunakan modul Rocket dan Intelligence.
- Mengaplikasikan PySpark dalam konteks penyerapan data, transformasi, dan analisis.
- Menggunakan loop dan logika kondisional untuk mengontrol alur kerja data dan tugas pemrosesan fitur.
- Membuat dan mengelola fungsi definisi pengguna (UDFs) untuk operasi data yang dapat didaur ulang dalam PySpark.
Format Kursus
- Diskusi dan kuliah interaktif.
- Banyak latihan dan praktik.
- Implementasi hands-on dalam lingkungan laboratorium langsung.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.