Course Outline
Introduction to Stratio Platform
- Overview of Stratio architecture and core modules
- Role of Rocket and Intelligence in the data lifecycle
- Logging in and navigating the Stratio UI
Working with the Rocket Module
- Data ingestion and pipeline creation
- Connecting data sources and configuring transformations
- Using PySpark for preprocessing tasks in Rocket
PySpark Essentials for Stratio Users
- PySpark data structures and operations
- Looping constructs: for, while, if/else usage
- Writing custom functions with def and applying them
Advanced Usage of Rocket with PySpark
- Streaming ingestion and transformations
- Using loops and functions in batch and real-time scenarios
- Best practices for performance in PySpark pipelines
Exploring the Intelligence Module
- Overview of data modeling and analysis features
- Feature selection, transformation, and exploration
- Role of PySpark in custom analytics and insights
Building Advanced Analytics Workflows
- Creating user-defined functions (UDFs) in Intelligence
- Applying conditionals and loops for data logic
- Use cases: segmentation, aggregation, and prediction
Deployment and Collaboration
- Saving, exporting, and reusing workflows
- Collaborating with other team members on Stratio
- Reviewing output and integrating with downstream tools
Summary and Next Steps
Requirements
- Pengalaman dengan pemrograman Python
- Memahami konsep analitik data atau pengolahan big data
- Pengetahuan dasar tentang Apache Spark dan komputasi terdistribusi
Audience
- Data engineers yang bekerja pada platform berbasis Stratio
- Analitik atau pengembang yang menggunakan modul Rocket dan Intelligence
- Tim teknis yang beralih ke alur kerja PySpark dalam Stratio
Stratio: Modul Rocket dan Intelligence dengan PySpark
Pengenalan Platform Stratio
- Gambaran umum arsitektur Stratio dan modul inti
- Peran Rocket dan Intelligence dalam siklus hidup data
- Masuk dan navigasi antarmuka pengguna (UI) Stratio
Bekerja dengan Modul Rocket
- Pengambilan data dan pembuatan pipa
- Menghubungkan sumber data dan mengonfigurasi transformasi
- Menggunakan PySpark untuk tugas pra-pemrosesan dalam Rocket
Esensial PySpark bagi Pengguna Stratio
- Struktur data dan operasi PySpark
- Konstruksi looping: penggunaan for, while, if/else
- Menulis fungsi kustom dengan def dan mengaplikasikannya
Penggunaan Lanjutan Rocket dengan PySpark
- Pengambilan data real-time dan transformasi
- Menggunakan loop dan fungsi dalam skenario batch dan waktu nyata
- Praktik terbaik untuk kinerja pipa PySpark
Menjelajahi Modul Intelligence
- Gambaran umum fitur pemodelan data dan analisis
- Pemilihan fitur, transformasi, dan eksplorasi
- Peran PySpark dalam analitik kustom dan wawasan
Membangun Alur Kerja Analitik Lanjutan
- Membuat fungsi pengguna yang didefinisikan (UDFs) di Intelligence
- Mengaplikasikan kondisional dan loop untuk logika data
- Contoh kasus: segmentasi, agregasi, dan prediksi
Penerapan dan Collaboration
- Menyimpan, mengekspor, dan mengulang alur kerja
- Berkolaborasi dengan anggota tim lainnya di Stratio
- Memeriksa output dan mengintegrasikan dengan alat turunan
Ringkasan dan Langkah Selanjutnya
Stratio adalah platform yang berfokus pada data yang mengintegrasikan big data, AI, dan pengelolaan menjadi solusi tunggal. Modul Rocket dan Intelligence-nya memungkinkan pengeksplorasian, transformasi, dan analitik lanjutan data dengan cepat dalam lingkungan enterprise.
Pelatihan daring atau di tempat ini, yang dipandu oleh instruktur, ditujukan untuk profesional data level menengah yang ingin menggunakan modul Rocket dan Intelligence di Stratio secara efektif dengan PySpark, fokus pada struktur loop, fungsi pengguna yang didefinisikan, dan logika data lanjutan.
Dengan mengikuti pelatihan ini, peserta akan dapat:
- Navigasi dan bekerja di dalam platform Stratio menggunakan modul Rocket dan Intelligence.
- Menerapkan PySpark dalam konteks pengambilan data, transformasi, dan analisis.
- Menggunakan loop dan logika kondisional untuk mengontrol alur kerja data dan tugas engineering fitur.
- Membuat dan memanajemen fungsi pengguna yang didefinisikan (UDFs) untuk operasi data berulang di PySpark.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktik.
- Implementasi langsung dalam lingkungan lab langsung.
Opsi Personalisasi Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Experience with Python programming
Understanding of data analytics or big data processing concepts
Basic knowledge of Apache Spark and distributed computing
Audience
- Data engineers working on Stratio-based platforms
- Analysts or developers using Rocket and Intelligence modules
- Technical teams transitioning to PySpark workflows within Stratio
Testimonials (5)
Hands-on examples allowed us to get an actual feel for how the program works. Good explanations and integration of theoretical concepts and how they relate to practical applications.
Ian - Archeoworks Inc.
Course - ArcGIS Fundamentals
All the topics which he covered including examples. And also explained how they are helpful in our daily job.
madduri madduri - Boskalis Singapore Pte Ltd
Course - QGIS for Geographic Information System
Saya menyukai gaya Pablo, fakta bahwa ia mencakup banyak subjek mulai dari desain laporan, penyesuaian dengan html hingga penerapan algoritma ML sederhana. Go informasi / latihan teoretis yang seimbang. Pablo benar-benar membahas semua topik yang saya minati dan memberikan jawaban komprehensif atas pertanyaan saya.
Cristian Tudose - SC Automobile Dacia SA
Course - Advanced Data Analysis with TIBCO Spotfire
Machine Translated
The thing I liked the most about the training was the organization and the location
Hamid Tuama - Ability with Innovation General Contracting (DMCC Branch)
Course - ArcGIS for Spatial Analysis
I genuinely enjoyed the lots of labs and practices.