Kerangka Materi

Pengantar:

  • Apache Spark di Ecosistem Hadoop
  • Pengantar singkat untuk Python, Scala

Dasar-dasar (teori):

  • Arsitektur
  • RDD
  • Transformasi dan Aksi
  • Tahap, tugas, dan ketergantungan

Memahami dasar-dasar dengan menggunakan lingkungan Databricks (workshop praktis):

  • Latihan menggunakan RDD API
  • Fungsi aksi dan transformasi dasar
  • PairRDD
  • Gabungan
  • Strategi pencatatan
  • Latihan menggunakan DataFrame API
  • SparkSQL
  • DataFrame: pilih, filter, kelompokkan, urutkan
  • UDF (Fungsi Tertentu Pengguna)
  • Menelusuri DataSet API
  • Aliran

Memahami penempatan dengan menggunakan lingkungan AWS (workshop praktis):

  • Dasar-dasar AWS Glue
  • Memahami perbedaan antara AWS EMR dan AWS Glue
  • Contoh tugas di kedua lingkungan
  • Memahami kelebihan dan kekurangan

Tambahan:

  • Pengantar penjadwalan Apache Airflow

Persyaratan

Kemampuan pemrograman (dengan preferensi python, scala)Dasar SQL
 21 Jam

Jumlah Peserta


Biaya per Peserta

Testimoni (3)

Kursus Mendatang

Kategori Terkait