Kursus Pelatihan Big Data Analitik dalam Kesehatan
Big data analytics melibatkan proses pemeriksaan jumlah data besar dan beragam untuk mengungkap korelasi, pola terpendam, dan wawasan lainnya yang berguna.
Industri kesehatan memiliki jumlah data medis dan klinis yang rumit dan heterogen yang sangat besar. Menggunakan analisis big data pada data kesehatan menawarkan potensi besar dalam mendapatkan wawasan untuk meningkatkan pelayanan kesehatan. Namun, kekuatan besar dari dataset ini memunculkan tantangan besar dalam analisis dan aplikasi praktis dalam lingkungan klinis.
Dalam pelatihan online langsung ini, peserta akan belajar melakukan analisis big data dalam kesehatan sambil melewati serangkaian latihan praktis langsung.
Di akhir pelatihan ini, peserta akan dapat:
- Memasang dan mengkonfigurasi alat analisis big data seperti Hadoop MapReduce dan Spark
- Memahami karakteristik data medis
- Menerapkan teknik big data untuk mengatasi data medis
- Mempelajari sistem dan algoritma big data dalam konteks aplikasi kesehatan
Target Peserta
- Pengembang
- Ilmuwan Data
Format Kursus
- Bagian kuliah, bagian diskusi, latihan dan banyak praktik langsung.
Catatan
- Untuk meminta pelatihan kustom untuk kursus ini, silakan hubungi kami untuk mengatur.
Kerangka Materi
Pendahuluan Analisis Big Data di Bidang Kesehatan
Panduan Teknologi Analisis Big Data
- Apache Hadoop MapReduce
- Apache Spark
Memasang dan Mengkonfigurasi Apache Hadoop MapReduce
Memasang dan Mengkonfigurasi Apache Spark
Menggunakan Model Prediktif untuk Data Kesehatan
Menggunakan Apache Hadoop MapReduce untuk Data Kesehatan
Melakukan Fenotiping dan Penganan Klasifikasi pada Data Kesehatan
- Metrik Penilaian Klasifikasi
- Metode Ensambel Klasifikasi
Menggunakan Apache Spark untuk Data Kesehatan
Bekerja dengan Ontologi Medis
Menggunakan Analisis Graf pada Data Kesehatan
Pengurangan Dimensi pada Data Kesehatan
Bekerja dengan Metrik Kesamaan Pasien
Penyelesaian Masalah
Ringkasan dan Kesimpulan
Persyaratan
- Pengertian tentang konsep machine learning dan data mining
- Pengalaman pemrograman tingkat lanjut (Python, Java, Scala)
- Kemampuan dalam proses data dan ETL
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Big Data Analitik dalam Kesehatan - Pemesanan
Kursus Pelatihan Big Data Analitik dalam Kesehatan - Penyelidikan
Big Data Analitik dalam Kesehatan - Permintaan Konsultasi
Permintaan Konsultasi
Testimoni (1)
The VM I liked very much The Teacher was very knowledgeable regarding the topic as well as other topics, he was very nice and friendly I liked the facility in Dubai.
Safar Alqahtani - Elm Information Security
Kursus - Big Data Analytics in Health
Kursus Mendatang
Kursus Terkait
Analisis Data Besar dengan Google Colab dan Apache Spark
14 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk ilmuwan data dan insinyur level menengah yang ingin menggunakan Google Colab dan Apache Spark untuk pengolahan dan analitik big data.
Pada akhir pelatihan ini, peserta akan dapat:
- Mengatur lingkungan big data menggunakan Google Colab dan Spark.
- Memproses dan menganalisis dataset besar dengan efisien menggunakan Apache Spark.
- Visualisasi big data dalam lingkungan kolaboratif.
- Mengintegrasikan Apache Spark dengan alat berbasis cloud.
Hadoop Administrasi
21 JamKursus ini ditujukan untuk spesialis IT yang mencari solusi untuk menyimpan dan memproses set data besar dalam lingkungan sistem distribusi
Tujuan kursus:
Mendapatkan pengetahuan tentang administrasi Hadoop cluster
Hadoop dan Spark untuk Administrator
35 JamPelatihan langsung ini di Indonesia (online atau di lokasi) ditujukan bagi administrator sistem yang ingin belajar cara mengatur, mendeploy dan mengelola klaster Hadoop dalam organisasi mereka.
Setelah selesai pelatihan ini, peserta akan dapat:
- Menginstal dan mengkonfigurasi Apache Hadoop.
- Mengerti empat komponen utama dalam ekosistem Hadoop: HDFS, MapReduce, YARN, dan Hadoop Common.
- Menggunakan Sistem File Terdistribusi (HDFS) Hadoop untuk menyelebar klaster hingga ratusan atau ribuan node.
- Mengatur HDFS sebagai mesin penyimpanan untuk pemasangan Spark di lokasi.
- Mengatur Spark untuk mengakses solusi penyimpanan alternatif seperti Amazon S3 dan sistem basis data NoSQL seperti Redis, Elasticsearch, Couchbase, Aerospike, dll.
- Melakukan tugas administratif seperti provisi, pengelolaan, pemantauan dan penyediaan keamanan klaster Apache Hadoop.
Pemrograman Aliran Pengolahan Data dalam Praktik
21 JamDalam pelatihan langsung ini yang dipimpin instruktur di Indonesia (tatap muka atau jarak jauh), peserta akan belajar cara mengatur dan mengintegrasikan berbagai kerangka Stream Processing dengan sistem penyimpanan data besar yang ada dan aplikasi perangkat lunak serta mikrolayanan terkait.
Di akhir pelatihan ini, peserta akan dapat:
- Memasang dan mengkonfigurasi berbagai kerangka Stream Processing, seperti Spark Streaming dan Kafka Streaming.
- Memahami dan memilih kerangka yang paling sesuai untuk tugas tersebut.
- Mengolah data secara kontinu, bersamaan, dan secara catatan demi catatan.
- Mengintegrasikan solusi Stream Processing dengan database, data warehouse, data lake, dan sebagainya yang ada.
- Mengintegrasikan perpustakaan pengolahan aliran yang paling sesuai dengan aplikasi perusahaan dan mikrolayanan.
Python dan Spark untuk Big Data di Perbankan (PySpark)
14 JamPython adalah bahasa pemrograman tingkat tinggi yang terkenal karena sintaksisnya yang jelas dan keterbacaan kode. Spark adalah mesin pemrosesan data yang digunakan dalam kueri, analisis, dan transformasi data besar. PySpark memungkinkan pengguna untuk menghubungkan Spark dengan Python.
Target Pemirsa: Profesional tingkat menengah di industri perbankan yang familiar dengan Python dan Spark, yang ingin memperdalam keterampilan mereka dalam pemrosesan big data dan pembelajaran mesin.
SMACK Stack untuk Data Science
14 JamPelatihan ini yang dikombinasikan dengan instruktur, baik pelatihan online langsung atau pelatihan langsung tatap muka, ditujukan untuk para ilmuwan data yang ingin menggunakan SMACK stack untuk membangun platform pengolahan data untuk solusi big data.
Di akhir pelatihan ini, peserta akan mampu:
- Menerapkan arsitektur pipeline data untuk mengolah big data.
- Mengembangkan infrastruktur cluster dengan Apache Mesos dan Docker.
- Menganalisis data dengan Spark dan Scala.
- Mengelola data tidak terstruktur dengan Apache Cassandra.
Apache Spark Dasar
21 JamPelatihan ini, yang dipimpin instruktur secara langsung di Indonesia (online atau tatap muka), ditujukan untuk para insinyur yang ingin mengatur dan mendepatkan sistem Apache Spark untuk memproses jumlah data yang sangat besar.
Di akhir pelatihan ini, peserta akan mampu:
- Menginstal dan mengkonfigurasi Apache Spark.
- Membaca dan memproses serta menganalisis data dalam jumlah sangat besar dengan cepat.
- Memahami perbedaan antara Apache Spark dan Hadoop MapReduce serta ketika menggunakan yang mana.
- Mengintegrasikan Apache Spark dengan alat-alat pemrosesan otomatis lainnya.
Pemeliharaan Apache Spark
35 JamIni adalah pelatihan langsung (online atau tatap muka) yang dipimpin instruktur untuk administrator sistem tingkat pemula hingga menengah yang ingin mengimplementasikan, memelihara, dan mengoptimalkan klaster Spark.
Pada akhir pelatihan ini, peserta akan mampu untuk:
- Menginstal dan mengkonfigurasi Apache Spark di berbagai lingkungan.
- Mengelola sumber daya klaster dan memantau aplikasi Spark.
- Mengoptimalkan kinerja klaster Spark.
- Menerapkan langkah-langkah keamanan dan memastikan ketersediaan tinggi.
- Mengidentifikasi dan memecahkan masalah umum Spark.
Apache Spark di Cloud
21 JamKurva pembelajaran Apache Spark meningkat perlahan pada awalnya, memerlukan banyak usaha untuk mendapatkan return pertama. Kursus ini bertujuan untuk melompat melalui bagian pertama yang sulit. Setelah mengikuti kursus ini, peserta akan memahami dasar-dasar Apache Spark, mereka akan dapat membedakan RDD dari DataFrame dengan jelas, mereka akan mempelajari Python dan Scala API, mereka akan memahami eksekutor dan tugas, dll. Selain itu, mengikuti praktik terbaik, kursus ini sangat memfokuskan pada deploymen cloud, Databricks dan AWS. Mahasiswa juga akan memahami perbedaan antara AWS EMR dan AWS Glue, salah satu layanan Spark terbaru dari AWS.
PESERTA:
Data Engineer, DevOps, Data Scientist
Spark untuk Pengembang
21 JamTUJUAN:
Kursus ini akan memperkenalkan Apache Spark. Mahasiswa akan mempelajari bagaimana Spark memasuki ekosistem Big Data, dan bagaimana menggunakan Spark untuk analisis data. Kursus ini mencakup Spark shell untuk analisis data interaktif, internasional Spark, API Spark, Spark SQL, Spark streaming, dan machine learning dan graphX.
AUDIENS:
Pengembang / Analis Data
Skalakan Pipa Data dengan Spark NLP
14 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di tempat) ini ditujukan untuk ilmuwan data dan pengembang yang ingin menggunakan Spark NLP, dibangun di atas Apache Spark, untuk mengembangkan, menerapkan, dan meningkatkan skala model dan jalur pemrosesan teks bahasa alami.
Pada akhir pelatihan ini, peserta akan dapat:
- Siapkan lingkungan pengembangan yang diperlukan untuk mulai membangun jalur NLP dengan Spark NLP.
- Memahami fitur, arsitektur, dan manfaat penggunaan Spark NLP.
- Gunakan model terlatih yang tersedia di Spark NLP untuk mengimplementasikan pemrosesan teks.
- Pelajari cara membangun, melatih, dan menskalakan Spark NLP model untuk proyek tingkat produksi.
- Terapkan klasifikasi, inferensi, dan analisis sentimen pada kasus penggunaan dunia nyata (data klinis, wawasan perilaku pelanggan, dll.).
Python dan Spark untuk Big Data (PySpark)
21 JamDalam pelatihan langsung yang dipimpin instruktur di Indonesia ini, peserta akan mempelajari cara menggunakan Python dan Spark bersama-sama untuk menganalisis data besar saat mereka mengerjakan latihan langsung.
Pada akhir pelatihan ini, peserta akan mampu:
- Pelajari cara menggunakan Spark dengan Python untuk menganalisis Big Data.
- Kerjakan latihan yang meniru kasus dunia nyata.
- Gunakan alat dan teknik yang berbeda untuk analisis data besar menggunakan PySpark.
Python, Spark, dan Hadoop untuk Big Data
21 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ditujukan untuk pengembang yang ingin menggunakan dan mengintegrasikan Spark, Hadoop, dan Python untuk memproses, menganalisis, dan mengubah kumpulan data yang besar dan kompleks.
Pada akhir pelatihan ini, peserta akan mampu:
- Siapkan lingkungan yang diperlukan untuk mulai memproses data besar dengan Spark, Hadoop, dan Python.
- Memahami fitur, komponen inti, dan arsitektur Spark dan Hadoop.
- Pelajari cara mengintegrasikan Spark, Hadoop, dan Python untuk pemrosesan data besar.
- Jelajahi alat di ekosistem Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, dan Flume).
- Bangun sistem rekomendasi pemfilteran kolaboratif yang serupa dengan Netflix, YouTube, Amazon, Spotify, dan Google.
- Gunakan Apache Mahout untuk menskalakan algoritma pembelajaran mesin.
Apache Spark SQL
7 JamApache Spark SQL merupakan modul Spark untuk bekerja dengan data terstruktur dan tidak terstruktur. Spark SQL memberikan informasi tentang struktur data serta perhitungan yang dilakukan. Informasi ini dapat digunakan untuk melakukan optimasi. Dua penggunaan umum untuk Spark SQL adalah:
- untuk menjalankan kueri SQL.
- untuk membaca data dari instalasi Hive yang ada.
Dalam pelatihan langsung (tatap muka atau remote) ini yang dibimbing oleh instruktur, peserta akan belajar cara menganalisis berbagai jenis set data menggunakan Spark SQL.
Di akhir pelatihan ini, peserta akan mampu:
- Menginstal dan mengkonfigurasi Spark SQL.
- Melakukan analisis data menggunakan Spark SQL.
- Menanyakan set data dalam berbagai format.
- Memvisualisasikan data dan hasil kueri.
Format Kursus
- Perkuliahan interaktif dan diskusi.
- Banyak latihan dan praktik.
- Implementasi langsung di lingkungan lab langsung.
Opsi Pengkustoman Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Stratio: Modul Rocket dan Intelligence dengan PySpark
14 JamStratio adalah platform yang berorientasi data, yang mengintegrasikan big data, AI, dan governance menjadi satu solusi. Modul Rocket dan Intelligence-nya memungkinkan penjelajahan data cepat, transformasi, dan analitik lanjutan dalam lingkungan enterprise.
Pelatihan langsung (daring atau tatap muka) ini ditujukan untuk profesional data tingkat menengah yang ingin menggunakan modul Rocket dan Intelligence di Stratio dengan efektif bersama PySpark, fokus pada struktur pengulangan, fungsi definisi pengguna, dan logika data lanjutan.
Pada akhir pelatihan ini, peserta akan dapat:
- Menavigasi dan bekerja dalam platform Stratio menggunakan modul Rocket dan Intelligence.
- Mengaplikasikan PySpark dalam konteks penyerapan data, transformasi, dan analisis.
- Menggunakan loop dan logika kondisional untuk mengontrol alur kerja data dan tugas pemrosesan fitur.
- Membuat dan mengelola fungsi definisi pengguna (UDFs) untuk operasi data yang dapat didaur ulang dalam PySpark.
Format Kursus
- Diskusi dan kuliah interaktif.
- Banyak latihan dan praktik.
- Implementasi hands-on dalam lingkungan laboratorium langsung.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.