Kursus Pelatihan Talend Big Data Integration
Talend Open Studio for Big Data adalah alat ETL open source untuk memproses big data. Ini mencakup lingkungan pengembangan untuk berinteraksi dengan sumber dan target Big Data, serta menjalankan pekerjaan tanpa harus menulis kode.
Pelatihan langsung ini yang dipandu instruktur (online atau tatap muka) ditujukan bagi orang-orang teknis yang ingin menggunakan Talend Open Studio for Big Data untuk mempermudah proses membaca dan mengolah Big Data.
Pada akhir pelatihan ini, peserta akan dapat:
- Menginstal dan mengonfigurasi Talend Open Studio for Big Data.
- Terhubung dengan sistem Big Data seperti Cloudera, HortonWorks, MapR, Amazon EMR, dan Apache.
- Memahami dan mengatur komponen dan penghubung big data Open Studio.
- Mengonfigurasi parameter untuk secara otomatis menghasilkan kode MapReduce.
- Menggunakan antarmuka seret dan lepas Open Studio untuk menjalankan pekerjaan Hadoop.
- Membuat prototipe pipa big data.
- Mengotomatiskan proyek integrasi big data.
Format Kursus
- Ceramah interaktif dan diskusi.
- Banyak latihan dan praktik.
- Implementasi langsung dalam lingkungan laboratorium hidup.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk membuat jadwal.
Kerangka Materi
Pengenalan
Gambaran Umum Fitur dan Arsitektur "Open Studio for Big Data"
Mengatur Open Studio untuk Big Data
Menavigasi UI
Memahami Komponen dan Penghubung Big Data
Terhubung ke Klaster Hadoop
Membaca dan Menulis Data
Memproses Data dengan Hive dan MapReduce
Menganalisis Hasil
Memperbaiki Kualitas Big Data
Membangun Pipa Big Data
Mengelola Pengguna, Grup, Peran, dan Proyek
Menempatkan Open Studio ke Produksi
Memantau Open Studio
Penyelesaian Masalah
Ringkasan dan Kesimpulan
Persyaratan
- Pemahaman tentang database relasional
- Pemahaman tentang data warehousing
- Pemahaman tentang konsep ETL (Extract, Transform, Load)
Audience
- Profesional kecerdasan bisnis
- Profesional database
- Pengembang SQL
- Pengembang ETL
- Arsitek solusi
- Arsitek data
- Profesional data warehousing
- Administrator sistem dan integrator
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Talend Big Data Integration - Pemesanan
Kursus Pelatihan Talend Big Data Integration - Penyelidikan
Talend Big Data Integration - Permintaan Konsultasi
Testimoni (1)
Latihan praktis. Kelas seharusnya berlangsung selama 5 hari, tetapi 3 hari tersebut membantu mengklarifikasi banyak pertanyaan yang saya miliki dari pengalaman bekerja dengan NiFi.
James - BHG Financial
Kursus - Apache NiFi for Administrators
Diterjemahkan Mesin
Kursus Mendatang
Kursus Terkait
Pelatihan Administrator untuk Apache Hadoop
35 JamAudience:
Kursus ini ditujukan untuk spesialis IT yang mencari solusi untuk menyimpan dan memproses kumpulan data besar dalam lingkungan sistem terdistribusi.
Goal:
Pengetahuan mendalam tentang administrasi kluster Hadoop.
Big Data Analitik dalam Kesehatan
21 JamBig data analytics melibatkan proses pemeriksaan jumlah data besar dan beragam untuk mengungkap korelasi, pola terpendam, dan wawasan lainnya yang berguna.
Industri kesehatan memiliki jumlah data medis dan klinis yang rumit dan heterogen yang sangat besar. Menggunakan analisis big data pada data kesehatan menawarkan potensi besar dalam mendapatkan wawasan untuk meningkatkan pelayanan kesehatan. Namun, kekuatan besar dari dataset ini memunculkan tantangan besar dalam analisis dan aplikasi praktis dalam lingkungan klinis.
Dalam pelatihan online langsung ini, peserta akan belajar melakukan analisis big data dalam kesehatan sambil melewati serangkaian latihan praktis langsung.
Di akhir pelatihan ini, peserta akan dapat:
- Memasang dan mengkonfigurasi alat analisis big data seperti Hadoop MapReduce dan Spark
- Memahami karakteristik data medis
- Menerapkan teknik big data untuk mengatasi data medis
- Mempelajari sistem dan algoritma big data dalam konteks aplikasi kesehatan
Target Peserta
- Pengembang
- Ilmuwan Data
Format Kursus
- Bagian kuliah, bagian diskusi, latihan dan banyak praktik langsung.
Catatan
- Untuk meminta pelatihan kustom untuk kursus ini, silakan hubungi kami untuk mengatur.
Hadoop Untuk Administrator
21 JamApache Hadoop adalah kerangka kerja paling populer untuk memproses Big Data di klaster server. Dalam kursus tiga (opsional empat) hari ini, peserta akan belajar tentang manfaat bisnis dan kasus penggunaan untuk Hadoop dan ekosistemnya, bagaimana merencanakan penempatan dan pertumbuhan klaster, cara menginstal, memelihara, memantau, menangani masalah, dan mengoptimalkan Hadoop. Mereka juga akan berlatih memuat data besar ke klaster, menjadi familiar dengan berbagai distribusi Hadoop, serta berlatih menginstal dan mengelola alat ekosistem Hadoop. Kursus ini berakhir dengan diskusi tentang keamanan klaster menggunakan Kerberos.
“…Materi tersebut sangat baik disiapkan dan ditutup secara menyeluruh. Lab-nya sangat membantu dan terorganisir dengan baik”— Andrew Nguyen, Principal Integration DW Engineer, Microsoft Online Advertising
Audience
Administrator Hadoop
Format
Pengajaran dan laboratorium praktik, keseimbangan sekitar 60% pengajaran, 40% lab.
Hadoop untuk Pengembang (4 hari)
28 JamApache Hadoop adalah kerangka kerja paling populer untuk memproses Big Data di klaster server. Kursus ini akan memperkenalkan pengembang ke berbagai komponen (HDFS, MapReduce, Pig, Hive dan HBase) dalam ekosistem Hadoop.
Hadoop Lanjutan untuk Pengembang
21 JamApache Hadoop adalah salah satu kerangka kerja paling populer untuk memproses Big Data pada klaster server. Kursus ini mendalami manajemen data di HDFS, Pig lanjutan, Hive, dan HBase. Teknik pemrograman lanjutan ini akan bermanfaat bagi pengembang Hadoop yang berpengalaman.
Audience: pengembang
Durasi: tiga hari
Format: ceramah (50%) dan praktikum terstruktur (50%).
Hadoop Administrasi pada MapR
28 JamTarget Pengguna:
Kursus ini dirancang untuk mempermudah teknologi big data/hadoop dan menunjukkan bahwa teknologi tersebut tidak sulit dipahami.
Hadoop dan Spark untuk Administrator
35 JamPelatihan langsung ini di Indonesia (online atau di lokasi) ditujukan bagi administrator sistem yang ingin belajar cara mengatur, mendeploy dan mengelola klaster Hadoop dalam organisasi mereka.
Setelah selesai pelatihan ini, peserta akan dapat:
- Menginstal dan mengkonfigurasi Apache Hadoop.
- Mengerti empat komponen utama dalam ekosistem Hadoop: HDFS, MapReduce, YARN, dan Hadoop Common.
- Menggunakan Sistem File Terdistribusi (HDFS) Hadoop untuk menyelebar klaster hingga ratusan atau ribuan node.
- Mengatur HDFS sebagai mesin penyimpanan untuk pemasangan Spark di lokasi.
- Mengatur Spark untuk mengakses solusi penyimpanan alternatif seperti Amazon S3 dan sistem basis data NoSQL seperti Redis, Elasticsearch, Couchbase, Aerospike, dll.
- Melakukan tugas administratif seperti provisi, pengelolaan, pemantauan dan penyediaan keamanan klaster Apache Hadoop.
HBase untuk Pengembang
21 JamKursus ini memperkenalkan HBase – sebuah toko NoSQL di atas Hadoop. Kursus ini ditujukan untuk pengembang yang akan menggunakan HBase untuk mengembangkan aplikasi, dan administrator yang akan mengelola klaster HBase.
Kami akan membimbing seorang pengembang melalui arsitektur HBase dan pemodelan data serta pengembangan aplikasi di HBase. Kursus ini juga akan mendiskusikan penggunaan MapReduce dengan HBase, dan beberapa topik administratif terkait optimisasi kinerja. Kursus ini sangat praktis dengan banyak latihan laboratorium.
Durasi : 3 hari
Audience : Pengembang & Administrator
Apache NiFi for Administrators
21 JamApache NiFi adalah platform open-source berbasis aliran data yang digunakan untuk integrasi dan pemrosesan peristiwa. Platform ini memungkinkan routing, transformasi, dan mediasi sistem otomatis secara real-time antar sistem yang berbeda, dengan UI berbasis web dan kontrol detail.
Pelatihan langsung yang dipandu instruktur (tatap muka atau online) ini ditujukan untuk administrator dan insinyur tingkat menengah yang ingin mengimplementasikan, mengelola, mengamankan, dan mengoptimalkan aliran data NiFi di lingkungan produksi.
Setelah pelatihan ini, peserta akan dapat:
- Menginstal, mengonfigurasi, dan memelihara klaster Apache NiFi.
- Mendesain dan mengelola aliran data dari berbagai sumber dan tujuan.
- Implementasikan otomatisasi aliran, routing, dan logika transformasi.
- Mengoptimalkan kinerja, memantau operasi, dan menyelesaikan masalah.
Format Kursus
- Kuliah interaktif dengan diskusi arsitektur dunia nyata.
- Laboratorium praktis: membangun, mengeksekusi, dan mengelola aliran data.
- Eksperimen berbasis skenario di lingkungan live-lab.
Pilihan Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Apache NiFi for Developers
7 JamDalam pelatihan langsung yang dipandu instruktur di Indonesia ini, peserta akan mempelajari dasar-dasar pemrograman berbasis aliran saat mereka mengembangkan sejumlah ekstensi demo, komponen, dan prosesor menggunakan Apache NiFi.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami arsitektur NiFi dan konsep aliran data.
- Mengembangkan ekstensi menggunakan NiFi dan API pihak ketiga.
- Mengembangkan prosesor Apache Nifi mereka sendiri.
- Menyerap dan memproses data secara real-time dari berbagai format file dan sumber data yang berbeda dan tidak umum.
Python dan Spark untuk Big Data di Perbankan (PySpark)
14 JamPython adalah bahasa pemrograman tingkat tinggi yang terkenal dengan sintaksnya yang jelas dan keterbacaan kode. Spark adalah mesin pengolahan data yang digunakan dalam pengecekan, analisis, dan transformasi big data. PySpark memungkinkan pengguna untuk mengintegrasikan Spark dengan Python.
Target Audience: Profesional tingkat menengah di industri perbankan yang familiar dengan Python dan Spark, berkeinginan untuk mendalami keterampilan mereka dalam pengolahan big data dan pembelajaran mesin.
PySpark dan Machine Learning
21 JamPelatihan ini memberikan pengantar praktis dalam membangun alur kerja pemrosesan data dan Machine Learning yang dapat diskalakan menggunakan PySpark. Peserta akan mempelajari cara kerja Apache Spark dalam ekosistem Big Data modern serta bagaimana memproses dataset berskala besar secara efisien dengan menerapkan prinsip komputasi terdistribusi.
Python dan Spark untuk Big Data (PySpark)
21 JamDalam pelatihan langsung yang dipimpin instruktur di Indonesia ini, peserta akan mempelajari cara menggunakan Python dan Spark bersama-sama untuk menganalisis data besar saat mereka mengerjakan latihan langsung.
Pada akhir pelatihan ini, peserta akan mampu:
- Pelajari cara menggunakan Spark dengan Python untuk menganalisis Big Data.
- Kerjakan latihan yang meniru kasus dunia nyata.
- Gunakan alat dan teknik yang berbeda untuk analisis data besar menggunakan PySpark.
Python, Spark, dan Hadoop untuk Big Data
21 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ditujukan untuk pengembang yang ingin menggunakan dan mengintegrasikan Spark, Hadoop, dan Python untuk memproses, menganalisis, dan mengubah kumpulan data yang besar dan kompleks.
Pada akhir pelatihan ini, peserta akan mampu:
- Siapkan lingkungan yang diperlukan untuk mulai memproses data besar dengan Spark, Hadoop, dan Python.
- Memahami fitur, komponen inti, dan arsitektur Spark dan Hadoop.
- Pelajari cara mengintegrasikan Spark, Hadoop, dan Python untuk pemrosesan data besar.
- Jelajahi alat di ekosistem Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, dan Flume).
- Bangun sistem rekomendasi pemfilteran kolaboratif yang serupa dengan Netflix, YouTube, Amazon, Spotify, dan Google.
- Gunakan Apache Mahout untuk menskalakan algoritma pembelajaran mesin.
Stratio: Modul Rocket dan Intelligence dengan PySpark
14 JamStratio adalah platform yang berorientasi data, yang mengintegrasikan big data, AI, dan governance menjadi satu solusi. Modul Rocket dan Intelligence-nya memungkinkan penjelajahan data cepat, transformasi, dan analitik lanjutan dalam lingkungan enterprise.
Pelatihan langsung (daring atau tatap muka) ini ditujukan untuk profesional data tingkat menengah yang ingin menggunakan modul Rocket dan Intelligence di Stratio dengan efektif bersama PySpark, fokus pada struktur pengulangan, fungsi definisi pengguna, dan logika data lanjutan.
Pada akhir pelatihan ini, peserta akan dapat:
- Menavigasi dan bekerja dalam platform Stratio menggunakan modul Rocket dan Intelligence.
- Mengaplikasikan PySpark dalam konteks penyerapan data, transformasi, dan analisis.
- Menggunakan loop dan logika kondisional untuk mengontrol alur kerja data dan tugas pemrosesan fitur.
- Membuat dan mengelola fungsi definisi pengguna (UDFs) untuk operasi data yang dapat didaur ulang dalam PySpark.
Format Kursus
- Diskusi dan kuliah interaktif.
- Banyak latihan dan praktik.
- Implementasi hands-on dalam lingkungan laboratorium langsung.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.