Kursus Pelatihan Pemrograman Aliran Pengolahan Data dalam Praktik
Pengolahan aliran data mengacu pada pengolahan data secara real-time, yaitu melakukan perhitungan pada data saat sedang diterima. Data seperti ini dibaca sebagai aliran yang kontinu dari sumber data seperti peristiwa sensor, aktivitas pengguna situs web, perdagangan keuangan, pengecekan kartu kredit, aliran klik, dan lain-lain. Kerangka kerja Pengolahan Aliran Data mampu membaca volume data masuk yang besar dan memberikan wawasan berharga hampir seketika.
Dalam pelatihan langsung dengan instruktur (tatap muka atau remote), peserta akan belajar cara memasang dan mengintegrasikan berbagai kerangka kerja Pengolahan Aliran Data dengan sistem penyimpanan data besar dan aplikasi perangkat lunak terkait serta mikrolayanan.
Setelah menyelesaikan pelatihan ini, peserta akan mampu:
- Memasang dan mengkonfigurasi berbagai kerangka kerja Pengolahan Aliran Data, seperti Spark Streaming dan Kafka Streaming.
- Memahami dan memilih kerangka kerja yang paling sesuai untuk pekerjaan.
- Proses pengolahan data secara kontinu, bersamaan, dan dengan cara catatan per-catatan.
- Mengintegrasikan solusi Pengolahan Aliran Data dengan basis data, data warehouse, data lake, dan lain-lain yang ada.
- Mengintegrasikan library pengolahan aliran data yang paling sesuai dengan aplikasi perusahaan dan mikrolayanan.
Peserta
- Pembuat program
- Arsitek perangkat lunak
Format Kursus
- Bagian kuliah, bagian diskusi, latihan, dan praktik langsung yang intensif
Catatan
- Untuk meminta pelatihan yang disesuaikan dengan kursus ini, silakan hubungi kami untuk mengatur.
Kerangka Materi
Pendahuluan
- Pemrosesan aliran vs pemrosesan lot (batch)
- Pemrosesan aliran yang berfokus pada analitik
Tinjauan Kerangka Kerja dan Bahasa Pemrograman
- Spark Streaming (Scala)
- Kafka Streaming (Java)
- Flink
- Storm
- Perbandingan Fitur dan Kekuatan Setiap Kerangka Kerja
Tinjauan Sumber Data
- Data langsung sebagai deretan acara (event) dalam waktu
- Sumber data sejarah
Opsi Penempatan (Deployment)
- Di awan (AWS, dll.)
- Di lokasi (private cloud, dll.)
Memulai
- Menyiapkan Lingkungan Pengembangan
- Instalasi dan Konfigurasi
- Menilai Kebutuhan Analisis Data Anda
Mengoperasikan Kerangka Kerja Aliran
- Mengintegrasikan Kerangka Kerja Aliran dengan Big Data Tools
- Event Stream Processing (ESP) vs Complex Event Processing (CEP)
- Mengubah Data Masuk
- Memeriksa Data Keluar
- Mengintegrasikan Kerangka Kerja Pemrosesan Aliran dengan Aplikasi dan Mikroservis yang Ada
Penyelesaian Masalah
Ringkasan dan Kesimpulan
Persyaratan
- Pengalaman pemrograman dalam bahasa apapun
- Pengertian tentang konsep Big Data (Hadoop, dll.)
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Pemrograman Aliran Pengolahan Data dalam Praktik - Pemesanan
Kursus Pelatihan Pemrograman Aliran Pengolahan Data dalam Praktik - Penyelidikan
Pemrograman Aliran Pengolahan Data dalam Praktik - Permintaan Konsultasi
Permintaan Konsultasi
Testimoni (1)
Sufficient hands on, trainer is knowledgable
Chris Tan
Kursus - A Practical Introduction to Stream Processing
Kursus Mendatang
Kursus Terkait
Apache Kafka Connect
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi pengembang yang ingin mengintegrasikan Apache Kafka dengan basis data dan aplikasi yang sudah ada untuk pemrosesan, analisis, dll.
Selesai pelatihan ini, peserta akan dapat:
- Menggunakan Kafka Connect untuk memasukkan jumlah besar data dari basis data ke topik-topik Kafka.
- Memasukkan data log yang dihasilkan oleh server aplikasi ke topik-topik Kafka.
- Make setiap data yang dikumpulkan tersedia untuk pemrosesan stream.
- Mengekspor data dari topik-topik Kafka ke sistem sekunder untuk penyimpanan dan analisis.
Building Kafka Solutions with Confluent
14 JamInstruktur ini akan memberikan pelatihan langsung (daring atau tatap muka) yang ditujukan bagi insinyur yang ingin menggunakan Confluent (sebuah distribusi Kafka) untuk membangun dan mengelola platform pengolahan data real-time untuk aplikasi mereka.
Selesai mengikuti pelatihan ini, peserta akan dapat:
- Instal dan konfigurasi Confluent Platform.
- Menggunakan alat dan layanan manajemen Confluent untuk menjalankan Kafka dengan lebih mudah.
- Menyimpan dan memproses data stream yang masuk.
- Mengeksekusi dan mengelola kluster Kafka secara optimal.
- Menyekuritasi data stream.
Format Kursus
- Pembahasan interaktif dan diskusi.
- Banyak latihan dan praktek.
- Implementasi praktis dalam lingkungan laboratorium langsung.
Opsi Kustomisasi Kursus
- Kursus ini didasarkan pada versi open source Confluent: Confluent Open Source.
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Membangun Data Pipelines dengan Apache Kafka
7 JamApache Kafka adalah platform streaming distribusi. Ini merupakan standar de facto untuk membangun pipa data dan menyelesaikan banyak kasus penggunaan yang berbeda dalam pemrosesan data: dapat digunakan sebagai antrian pesan, log distribusi, prosesor aliran, dll.
Kita akan mulai dengan beberapa teori di balik pipa data secara umum, kemudian melanjutkan dengan konsep-konsep dasar di balik Kafka. Kita juga akan mengeksplorasi komponen-komponen penting seperti Kafka Streams dan Kafka Connect.
Distributed Messaging dengan Apache Kafka
14 JamMata kuliah ini ditujukan untuk arsitek enterprise, pengembang, administrator sistem, dan siapa saja yang ingin memahami dan menggunakan sistem pesan distribusi berkapasitas tinggi. Jika Anda memiliki persyaratan lebih spesifik (misalnya hanya fokus pada sisi administrasi sistem), mata kuliah ini dapat disesuaikan untuk lebih memenuhi kebutuhan Anda.
Kafka untuk Administrator
21 JamPelatihan ini yang dibimbing instruktur secara langsung (online atau tatap muka) ditujukan untuk sysadmins yang ingin mengatur, meluncurkan, mengelola, dan memaksimalkan kluster Kafka tingkat perusahaan.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengatur dan mengelola kluster Kafka.
- Menevaluasi keuntungan dan kerugian dari menyiapkan Kafka di dalam lingkungan atau di cloud.
- Menyebarkan dan memantau Kafka menggunakan berbagai alat lingkungan dalam dan cloud.
Apache Kafka for Developers
21 JamIni adalah pelatihan langsung dengan instruktur (pelatihan online langsung atau pelatihan langsung tatap muka) yang ditujukan untuk pengembang tingkat menengah yang ingin mengembangkan aplikasi big data dengan Apache Kafka.
Pada akhir pelatihan ini, peserta akan dapat:
- Membuat Kafka producers dan consumers untuk mengirim dan membaca data dari Kafka.
- Mengintegrasikan Kafka dengan sistem eksternal menggunakan Kafka Connect.
- Menulis aplikasi streaming dengan Kafka Streams & ksqlDB.
- Mengintegrasikan aplikasi client Kafka dengan Confluent Cloud untuk penempatan Kafka berbasis cloud.
- Mendapatkan pengalaman praktis melalui latihan praktek dan kasus penggunaan dunia nyata.
Apache Kafka untuk Programmer Python
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ditujukan untuk teknisi data, ilmuwan data, dan pemrogram yang ingin menggunakan fitur Apache Kafka dalam streaming data dengan Python.
Di akhir pelatihan ini, peserta akan dapat menggunakan Apache Kafka untuk memantau dan mengelola kondisi aliran data berkelanjutan menggunakan pemrograman Python.
Security for Apache Kafka
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi pengujian perangkat lunak yang ingin mengimplementasikan tindakan keamanan jaringan ke dalam aplikasi Apache Kafka.
Selesai pelatihan ini, peserta akan dapat:
- Mendeploy Apache Kafka ke server berbasis cloud.
- Mengimplementasikan enkripsi SSL untuk mencegah serangan.
- Menambahkan autentikasi ACL untuk melacak dan mengontrol akses pengguna.
- Menjamin klien yang dapat dipercaya memiliki akses ke klaster Kafka dengan autentikasi SSL dan SASL.
Apache Kafka dan Spring Boot
7 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di tempat) ini ditujukan untuk pengembang tingkat menengah yang ingin mempelajari dasar-dasar Kafka dan mengintegrasikannya dengan Spring Boot.
Pada akhir pelatihan ini, peserta akan dapat:
- Pahami Kafka dan arsitekturnya.
- Pelajari cara memasang, mengonfigurasi, dan menyiapkan lingkungan Kafka dasar.
- Integrasikan Kafka dengan Spring Boot.
Stream Processing dengan Kafka Streams
7 JamKafka Streams adalah perpustakaan sisi klien untuk membangun aplikasi dan mikroservis yang datanya dijalankan ke dan dari sistem pesan Kafka. Tradisionalnya, Apache Kafka telah bergantung pada Apache Spark atau Apache Storm untuk memproses data antara produsen pesan dan konsumen. Dengan memanggil API Kafka Streams dari dalam aplikasi, data dapat diproses langsung di dalam Kafka, menghindari kebutuhan untuk mengirimkan data ke kluster terpisah untuk diproses.
Dalam pelatihan berorientasi instruktur ini, peserta akan belajar bagaimana mengintegrasikan Kafka Streams ke dalam sejumlah aplikasi contoh Java yang memindahkan data ke dan dari Apache Kafka untuk pemrosesan stream.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti fitur dan keunggulan Kafka Streams dibandingkan kerangka kerja pemrosesan stream lainnya
- Mempersiapkan data stream langsung dalam kluster Kafka
- Menulis aplikasi atau mikroservis Java atau Scala yang terintegrasi dengan Kafka dan Kafka Streams
- Menulis kode singkat yang mengubah topik Kafka input menjadi topik Kafka output
- Membangun, memaketkan, dan mendeploy aplikasi
Audience
- Pengembang
Format kursus
- Berupa ceramah, diskusi, latihan dan praktek langsung yang intensif
Catatan
- Untuk meminta pelatihan kustom untuk kursus ini, silakan hubungi kami untuk mengatur
Python dan Spark untuk Big Data di Perbankan (PySpark)
14 JamPython adalah bahasa pemrograman tingkat tinggi yang terkenal karena sintaksisnya yang jelas dan keterbacaan kode. Spark adalah mesin pemrosesan data yang digunakan dalam kueri, analisis, dan transformasi data besar. PySpark memungkinkan pengguna untuk menghubungkan Spark dengan Python.
Target Pemirsa: Profesional tingkat menengah di industri perbankan yang familiar dengan Python dan Spark, yang ingin memperdalam keterampilan mereka dalam pemrosesan big data dan pembelajaran mesin.
SMACK Stack untuk Data Science
14 JamPelatihan ini yang dikombinasikan dengan instruktur, baik pelatihan online langsung atau pelatihan langsung tatap muka, ditujukan untuk para ilmuwan data yang ingin menggunakan SMACK stack untuk membangun platform pengolahan data untuk solusi big data.
Di akhir pelatihan ini, peserta akan mampu:
- Menerapkan arsitektur pipeline data untuk mengolah big data.
- Mengembangkan infrastruktur cluster dengan Apache Mesos dan Docker.
- Menganalisis data dengan Spark dan Scala.
- Mengelola data tidak terstruktur dengan Apache Cassandra.
Python dan Spark untuk Big Data (PySpark)
21 JamDalam pelatihan langsung yang dipimpin instruktur di Indonesia ini, peserta akan mempelajari cara menggunakan Python dan Spark bersama-sama untuk menganalisis data besar saat mereka mengerjakan latihan langsung.
Pada akhir pelatihan ini, peserta akan mampu:
- Pelajari cara menggunakan Spark dengan Python untuk menganalisis Big Data.
- Kerjakan latihan yang meniru kasus dunia nyata.
- Gunakan alat dan teknik yang berbeda untuk analisis data besar menggunakan PySpark.
Microservices dengan Spring Cloud dan Kafka
21 JamPelatihan ini, yang dikendalikan instruktur dan dilaksanakan secara langsung (online atau tatap muka), ditujukan untuk para pengembang yang ingin mengubah arsitektur tradisional menjadi arsitektur berbasis mikrolayanan yang sangat paralel menggunakan Spring Cloud, Kafka, Docker, Kubernetes, dan Redis.
Di akhir pelatihan ini, peserta akan mampu untuk:
- Menyusun lingkungan pengembangan yang diperlukan untuk membangun mikrolayanan.
- Mendesain dan mengimplementasikan ekosistem mikrolayanan yang sangat paralel menggunakan Spring Cloud, Kafka, Redis, Docker, dan Kubernetes.
- Mengubah layanan monolitik dan SOA menjadi arsitektur berbasis mikrolayanan.
- Menerapkan pendekatan DevOps dalam mengembangkan, menguji, dan merilis software.
- Memastikan tingkat paralelisme tinggi di antara mikrolayanan dalam produksi.
- Memantau mikrolayanan dan mengimplementasikan strategi pemulihan.
- Melakukan penyesuaian kinerja.
- Belajar tentang tren masa depan dalam arsitektur mikrolayanan.
Stratio: Modul Rocket dan Intelligence dengan PySpark
14 JamStratio adalah platform yang berorientasi data, yang mengintegrasikan big data, AI, dan governance menjadi satu solusi. Modul Rocket dan Intelligence-nya memungkinkan penjelajahan data cepat, transformasi, dan analitik lanjutan dalam lingkungan enterprise.
Pelatihan langsung (daring atau tatap muka) ini ditujukan untuk profesional data tingkat menengah yang ingin menggunakan modul Rocket dan Intelligence di Stratio dengan efektif bersama PySpark, fokus pada struktur pengulangan, fungsi definisi pengguna, dan logika data lanjutan.
Pada akhir pelatihan ini, peserta akan dapat:
- Menavigasi dan bekerja dalam platform Stratio menggunakan modul Rocket dan Intelligence.
- Mengaplikasikan PySpark dalam konteks penyerapan data, transformasi, dan analisis.
- Menggunakan loop dan logika kondisional untuk mengontrol alur kerja data dan tugas pemrosesan fitur.
- Membuat dan mengelola fungsi definisi pengguna (UDFs) untuk operasi data yang dapat didaur ulang dalam PySpark.
Format Kursus
- Diskusi dan kuliah interaktif.
- Banyak latihan dan praktik.
- Implementasi hands-on dalam lingkungan laboratorium langsung.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.