Course Outline

Introduction to Stratio Platform

  • Overview of Stratio architecture and core modules
  • Role of Rocket and Intelligence in the data lifecycle
  • Logging in and navigating the Stratio UI

Working with the Rocket Module

  • Data ingestion and pipeline creation
  • Connecting data sources and configuring transformations
  • Using PySpark for preprocessing tasks in Rocket

PySpark Essentials for Stratio Users

  • PySpark data structures and operations
  • Looping constructs: for, while, if/else usage
  • Writing custom functions with def and applying them

Advanced Usage of Rocket with PySpark

  • Streaming ingestion and transformations
  • Using loops and functions in batch and real-time scenarios
  • Best practices for performance in PySpark pipelines

Exploring the Intelligence Module

  • Overview of data modeling and analysis features
  • Feature selection, transformation, and exploration
  • Role of PySpark in custom analytics and insights

Building Advanced Analytics Workflows

  • Creating user-defined functions (UDFs) in Intelligence
  • Applying conditionals and loops for data logic
  • Use cases: segmentation, aggregation, and prediction

Deployment and Collaboration

  • Saving, exporting, and reusing workflows
  • Collaborating with other team members on Stratio
  • Reviewing output and integrating with downstream tools

Summary and Next Steps

Requirements

  • Pengalaman dengan pemrograman Python
  • Memahami konsep analitik data atau pengolahan big data
  • Pengetahuan dasar tentang Apache Spark dan komputasi terdistribusi

Audience

  • Data engineers yang bekerja pada platform berbasis Stratio
  • Analitik atau pengembang yang menggunakan modul Rocket dan Intelligence
  • Tim teknis yang beralih ke alur kerja PySpark dalam Stratio

Stratio: Modul Rocket dan Intelligence dengan PySpark

Pengenalan Platform Stratio

  • Gambaran umum arsitektur Stratio dan modul inti
  • Peran Rocket dan Intelligence dalam siklus hidup data
  • Masuk dan navigasi antarmuka pengguna (UI) Stratio

Bekerja dengan Modul Rocket

  • Pengambilan data dan pembuatan pipa
  • Menghubungkan sumber data dan mengonfigurasi transformasi
  • Menggunakan PySpark untuk tugas pra-pemrosesan dalam Rocket

Esensial PySpark bagi Pengguna Stratio

  • Struktur data dan operasi PySpark
  • Konstruksi looping: penggunaan for, while, if/else
  • Menulis fungsi kustom dengan def dan mengaplikasikannya

Penggunaan Lanjutan Rocket dengan PySpark

  • Pengambilan data real-time dan transformasi
  • Menggunakan loop dan fungsi dalam skenario batch dan waktu nyata
  • Praktik terbaik untuk kinerja pipa PySpark

Menjelajahi Modul Intelligence

  • Gambaran umum fitur pemodelan data dan analisis
  • Pemilihan fitur, transformasi, dan eksplorasi
  • Peran PySpark dalam analitik kustom dan wawasan

Membangun Alur Kerja Analitik Lanjutan

  • Membuat fungsi pengguna yang didefinisikan (UDFs) di Intelligence
  • Mengaplikasikan kondisional dan loop untuk logika data
  • Contoh kasus: segmentasi, agregasi, dan prediksi

Penerapan dan Collaboration

  • Menyimpan, mengekspor, dan mengulang alur kerja
  • Berkolaborasi dengan anggota tim lainnya di Stratio
  • Memeriksa output dan mengintegrasikan dengan alat turunan

Ringkasan dan Langkah Selanjutnya

Stratio adalah platform yang berfokus pada data yang mengintegrasikan big data, AI, dan pengelolaan menjadi solusi tunggal. Modul Rocket dan Intelligence-nya memungkinkan pengeksplorasian, transformasi, dan analitik lanjutan data dengan cepat dalam lingkungan enterprise.

Pelatihan daring atau di tempat ini, yang dipandu oleh instruktur, ditujukan untuk profesional data level menengah yang ingin menggunakan modul Rocket dan Intelligence di Stratio secara efektif dengan PySpark, fokus pada struktur loop, fungsi pengguna yang didefinisikan, dan logika data lanjutan.

Dengan mengikuti pelatihan ini, peserta akan dapat:

  • Navigasi dan bekerja di dalam platform Stratio menggunakan modul Rocket dan Intelligence.
  • Menerapkan PySpark dalam konteks pengambilan data, transformasi, dan analisis.
  • Menggunakan loop dan logika kondisional untuk mengontrol alur kerja data dan tugas engineering fitur.
  • Membuat dan memanajemen fungsi pengguna yang didefinisikan (UDFs) untuk operasi data berulang di PySpark.

Format Kursus

  • Lecture interaktif dan diskusi.
  • Banyak latihan dan praktik.
  • Implementasi langsung dalam lingkungan lab langsung.

Opsi Personalisasi Kursus

  • Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.

Experience with Python programming

Understanding of data analytics or big data processing concepts

Basic knowledge of Apache Spark and distributed computing

Audience

  • Data engineers working on Stratio-based platforms
  • Analysts or developers using Rocket and Intelligence modules
  • Technical teams transitioning to PySpark workflows within Stratio
 14 Hours

Number of participants


Price per participant

Testimonials (5)

Upcoming Courses (Minimal 5 peserta)

Related Categories