Privacy-Preserving Machine Learning Training Course
Pengawetan Privasi Machine Learning adalah bidang yang fokus pada perlindungan data sensitif sambil tetap memungkinkan kemampuan AI canggih di lingkungan terdistribusi atau terbatas.
Pelatihan langsung (online atau offline) ini ditujukan untuk profesional tingkat lanjut yang ingin menerapkan dan mengevaluasi teknik seperti pembelajaran federated, komputasi multiparty aman, enkripsi homomorfik, dan privasi diferensial dalam pipa ML dunia nyata.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti dan membandingkan teknik pengawetan privasi kunci di ML.
- Menerapkan sistem pembelajaran federated menggunakan kerangka sumber terbuka.
- Menggunakan privasi diferensial untuk berbagi data dengan aman dan pelatihan model.
- Menggunakan teknik enkripsi dan komputasi aman untuk melindungi input dan output model.
Format Kursus
- Leksi interaktif dan diskusi.
- Banyak latihan dan praktek.
- Pelaksanaan langsung dalam lingkungan laboratorium hidup.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan khusus untuk kursus ini, silakan hubungi kami untuk mengatur.
Course Outline
Pengantar ke ML yang Menjaga Privasi
- Motivasi dan risiko dalam lingkungan data sensitif
- Ulasan tentang teknik ML yang menjaga privasi
- Model ancaman dan pertimbangan regulasi (misalnya, GDPR, HIPAA)
Federated Learning
- Konsep dan arsitektur pembelajaran federated
- Sinkronisasi dan agregasi klien-server
- Implementasi menggunakan PySyft dan Flower
Differential Privacy (Privasi Diferensial)
- Matematika privasi diferensial
- Menerapkan DP dalam kueri data dan pelatihan model
- Menggunakan Opacus dan TensorFlow Privacy
Secure Multiparty Computation (SMPC)
- Protokol SMPC dan kasus penggunaan
- Metode berbasis enkripsi vs. sharing rahasia
- Kerja komputasi aman dengan CrypTen atau PySyft
Enkripsi Homomorfik
- Enkripsi homomorfik penuh vs. sebagian
- Inferensi terenkripsi untuk beban kerja sensitif
- Menggunakan TenSEAL dan Microsoft SEAL secara praktis
Aplikasi dan Studi Kasus Industri
- Privasi dalam kesehatan: pembelajaran federated untuk AI medis
- Kolaborasi aman di keuangan: model risiko dan keterpatutan
- Kasus penggunaan pertahanan dan pemerintah
Ringkasan dan Langkah Selanjutnya
Requirements
- Pemahaman tentang prinsip pembelajaran mesin
- Pengalaman dengan Python dan perpustakaan ML (mis., PyTorch, TensorFlow)
- Ketahui konsep privasi data atau keamanan siber akan sangat membantu
Audience
- Peneliti AI
- Tim perlindungan dan keterpatuhan privasi data
- Insinyur keamanan yang bekerja di industri teratur
Open Training Courses require 5+ participants.
Privacy-Preserving Machine Learning Training Course - Booking
Privacy-Preserving Machine Learning Training Course - Enquiry
Privacy-Preserving Machine Learning - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses (Minimal 5 peserta)
Related Courses
AI Governance, Compliance, and Security for Enterprise Leaders
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ini ditujukan untuk pemimpin perusahaan tingkat menengah yang ingin memahami bagaimana mengatur dan melindungi sistem AI secara bertanggung jawab dan sesuai dengan kerangka kerja global yang sedang berkembang seperti EU AI Act, GDPR, ISO/IEC 42001, dan Eksekutif Order AS tentang AI.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti risiko hukum, etika, dan regulasi dalam penggunaan AI di berbagai departemen.
- Menerjemahkan dan menerapkan kerangka kerja pengaturan AI utama (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Menetapkan kebijakan keamanan, audit, dan pengawasan untuk pelaksanaan AI di perusahaan.
- Membuat pedoman pembelian dan penggunaan sistem AI pihak ketiga dan internal.
Building Secure and Responsible LLM Applications
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk pengembang AI, arsitek, dan manajer produk tingkat menengah hingga lanjutan yang ingin mengidentifikasi dan memitigasi risiko terkait aplikasi berbasis LLM, termasuk injeksi prompt, kebocoran data, dan output tidak difilter, sambil mengintegrasikan kontrol keamanan seperti validasi input, pengawasan manusia dalam loop, dan batasan output.
Setelah selesai pelatihan ini, peserta akan dapat:
- Mengerti kerentanan inti dari sistem berbasis LLM.
- Menerapkan prinsip desain aman pada arsitektur aplikasi LLM.
- Menggunakan alat seperti Guardrails AI dan LangChain untuk validasi, penyaringan, dan keamanan.
- Mengintegrasikan teknik seperti sandboxing, red teaming, dan tinjauan manusia dalam loop ke pipa produksi kelas tinggi.
Introduction to AI Security and Risk Management
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka global seperti NIST AI RMF dan ISO/IEC 42001.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar yang muncul, pedoman keterpatuan, dan prinsip etika.
Pendahuluan tentang AI Security dan Risk Management
Dasar-dasar AI dan Keamanan
- Apa yang membuat sistem AI unik dari perspektif keamanan
- Ulasan siklus hidup AI: data, pelatihan, inferensi, dan implementasi
- Taksonomi dasar risiko AI: teknis, etika, hukum, dan organisasional
Vektor Ancaman Spesifik AI
- Contoh musuh dan manipulasi model
- Inversi model dan risiko kebocoran data
- Pencemaran data selama fase pelatihan
- Risiko dalam AI generatif (misalnya, penyalahgunaan LLM, injeksi prompt)
Kerangka Kerja Keamanan Risk Management
- Kerangka Kerja NIST AI Risk Management (NIST AI RMF)
- ISO/IEC 42001 dan standar spesifik AI lainnya
- Mengaitkan risiko AI dengan kerangka GRC perusahaan yang ada
Pemerintahan AI Go dan Prinsip Keterpatuan
- Akuntabilitas dan auditabilitas AI
- Transparansi, penjelasan, dan keadilan sebagai sifat yang relevan dengan keamanan
- Sikap diskriminatif, diskriminasi, dan kerugian turunan
Kesiapan Perusahaan dan Kebijakan AI Security
- Menentukan peran dan tanggung jawab dalam program keamanan AI
- Elemen kebijakan: pengembangan, pembelian, penggunaan, dan pemurnian
- Risiko pihak ketiga dan penggunaan alat AI penyedia
Lanskap Regulasi dan Trend Global
- Ulasan tentang EU AI Act dan regulasi internasional lainnya
- Kepres AS tentang AI yang Aman, Aman, dan Dapat Dipercaya
- Rangka kerja nasional baru dan panduan spesifik sektor
Workshop Opsional: Pemetaan Risiko dan Penilaian Sendiri
- Pemetaan kasus penggunaan AI dunia nyata ke fungsi NIST AI RMF
- Melakukan penilaian risiko sendiri dasar untuk AI
- Menentukan celah internal dalam kesiapan keamanan AI
Ringkasan dan Langkah Selanjutnya
AI Security dan Risk Management adalah praktik mengidentifikasi, memitigasi, dan mengatur ancaman keamanan, risiko keterpatuan, dan eksposur operasional dalam sistem dan alir kerja yang didorong oleh AI.
Pelatihan langsung yang dipandu instruktur (daring atau tatap muka) ini ditujukan untuk profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka global seperti NIST AI RMF dan ISO/IEC 42001.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar yang muncul, pedoman keterpatuan, dan prinsip etika.
Format Kursus
- Lektur interaktif dan diskusi.
- Banyak latihan dan praktik.
- Pelaksanaan langsung dalam lingkungan laboratorium hidup.
Opsi Pemaduan Kursus
- Untuk meminta pelatihan yang dipersonalisasi untuk kursus ini, silakan hubungi kami untuk mengatur.
- Pemahaman tentang prinsip keamanan siber dasar
- Pengalaman dengan kerangka kerja pemerintahan IT atau manajemen risiko
- Ketertarikan terhadap konsep AI secara umum adalah bermanfaat tetapi tidak diperlukan
Audience
- Tim keamanan IT
- Pengelola risiko
- Profesional keterpatuan
Pelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka global seperti NIST AI RMF dan ISO/IEC 42001.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar yang muncul, pedoman keterpatuan, dan prinsip etika.
introaisec
Red Teaming AI Systems: Offensive Security for ML Models
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan terhadap sistem AI, mengungkapkan kerentanan, dan meningkatkan ketangguhan model AI yang telah dideploy.
Selesai pelatihan ini, peserta akan dapat:
- Mensimulasikan ancaman dunia nyata terhadap model machine learning.
- Menghasilkan contoh lawan untuk menguji ketangguhan model.
- Menilai permukaan serangan dari API dan pipa AI.
- Merancang strategi red teaming untuk lingkungan deplorasi AI.
Pengantar ke Red Teaming AI
- Mengerti peta ancaman AI
- Peran tim merah dalam keamanan AI
- Konsiderasi etika dan hukum
Adversarial Machine Learning
- Jenis serangan: evasi, penyiraman, ekstraksi, inferensi
- Menghasilkan contoh lawan (misalnya, FGSM, PGD)
- Serangan berorientasi vs tidak berorientasi dan metrik keberhasilan
Uji Ketangguhan Model
- Mengevaluasi ketangguhan di bawah gangguan
- Menggali titik buta model dan mode gagal
- Stres testing model klasifikasi, penglihatan, dan NLP
Red Teaming Pipa AI
- Permukaan serangan pipa AI: data, model, deplorasi
- Memanfaatkan API dan titik akhir model yang tidak aman
- Membalikan rekayasa perilaku dan output model
Simulasi dan Alat
- Memakai Adversarial Robustness Toolbox (ART)
- Red teaming dengan alat seperti TextAttack dan IBM ART
- Alat sandboxing, pemantauan, dan observabilitas
Strategi dan Pertahanan Tim Merah AI Collaboration
- Mengembangkan latihan dan tujuan tim merah
- Berkomunikasi temuan kepada tim biru
- Mengintegrasikan red teaming ke dalam manajemen risiko AI
Ringkasan dan Langkah Selanjutnya
Red Teaming Sistem AI adalah bidang keamanan ofensif yang spesialisasi pada mengidentifikasi kelemahan di model machine learning dan pipa deplorasi melalui pengujian lawan dan simulasi stres.
Pelatihan langsung yang dipimpin instruktur (daring atau tatap muka) ini ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan terhadap sistem AI, mengungkapkan kerentanan, dan meningkatkan ketangguhan model AI yang telah dideploy.
Selesai pelatihan ini, peserta akan dapat:
- Mensimulasikan ancaman dunia nyata terhadap model machine learning.
- Menghasilkan contoh lawan untuk menguji ketangguhan model.
- Menilai permukaan serangan dari API dan pipa AI.
- Merancang strategi red teaming untuk lingkungan deplorasi AI.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktek.
- Pelaksanaan hands-on dalam lingkungan lab langsung.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan khusus untuk kursus ini, silakan hubungi kami untuk mengatur.
Pemahaman tentang arsitektur machine learning dan deep learning
pengalaman dengan Python dan kerangka kerja ML (mis., TensorFlow, PyTorch)
Kenalan dengan konsep keamanan siber atau teknik keamanan ofensif
Audience
- Peneliti keamanan
- Tim keamanan ofensif
- Profesional jaminan AI dan tim merah
Securing Edge AI and Embedded Intelligence
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk insinyur tingkat menengah dan profesional keamanan yang ingin melindungi model AI yang dideploy di edge dari ancaman seperti perusakan, kebocoran data, input musuh, dan serangan fisik.
Selesai pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan menilai risiko keamanan dalam penerapan AI di edge.
- Menerapkan teknik resistensi terhadap perusakan dan inferensi terenkripsi.
- Memperkuat model yang dideploy di edge dan melindungi pipa data.
- Melaksanakan strategi mitigasi ancaman khusus untuk sistem embedded dan terbatas.
Securing AI Models: Threats, Attacks, and Defenses
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional tingkat menengah dalam bidang machine learning dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan robust dan privasi diferensial.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, inversion, dan poisoning.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, penyertaan noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang sadar ancaman di lingkungan produksi.
Pengantar Threat Modeling AI
- Apa yang membuat sistem AI rentan?
- Serangan permukaan AI vs sistem tradisional
- Vektor serangan utama: lapisan data, model, output, dan antarmuka
Serangan Musuh terhadap Model AI
- Mengerti contoh musuh dan teknik perturbasi
- Penyerangan white-box vs black-box
- Metode FGSM, PGD, dan DeepFool
- Visualisasi dan pembuatan sampel musuh
Inversi Model dan Kebocoran Privasi
- Menginfere data pelatihan dari output model
- Serangan inferensi keanggotaan
- Risiko privasi dalam model klasifikasi dan generatif
Pencemaran Data dan Injeksi Backdoor
- Bagaimana data yang dicemari mempengaruhi perilaku model
- Backdoors berbasis pemicu dan serangan Trojan
- Stra tegi deteksi dan sanitasi
Ketangguhan dan Teknik Pertahanan
- Pelatihan musuh dan augmentasi data
- Mengaburkan gradien dan pra-pemrosesan input
- Penyegaran model dan teknik regularisasi
Pertahanan AI yang Memperhatikan Privasi
- Pengantar privasi diferensial
- Penyertaan noise dan anggaran privasi
- Federated learning dan agregasi aman
AI Security dalam Prakteknya
- Evaluasi model yang sadar ancaman dan implementasinya
- Menggunakan ART (Adversarial Robustness Toolbox) di pengaturan terapan
- Studi kasus industri: pelanggaran dunia nyata dan mitigasi
Ringkasan dan Langkah Selanjutnya
Memperkuat Model AI adalah disiplin pertahanan sistem machine learning terhadap ancaman spesifik model seperti input musuh, pencemaran data, serangan inversion, dan kebocoran privasi.
Pelatihan langsung yang dipandu instruktur (daring atau tatap muka) ini ditujukan untuk profesional tingkat menengah dalam bidang machine learning dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan robust dan privasi diferensial.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, inversion, dan poisoning.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, penambahan noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang sadar ancaman di lingkungan produksi.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktek.
- Pelaksanaan langsung dalam lingkungan laboratorium hidup.
Opsi Pemaduan Kursus
- Untuk meminta pelatihan yang dipersonalisasi untuk kursus ini, silakan hubungi kami untuk mengatur.
Persyaratan Praktis
- Kemampuan dalam alur kerja machine learning dan pelatihan model
- Pengalaman dengan Python dan kerangka kerja ML umum seperti PyTorch atau TensorFlow
- Familiaritas dengan konsep keamanan dasar atau modeling ancaman akan membantu
Audience
- Insinyur machine learning
- Analisis keamanan siber
- Peneliti AI dan tim validasi model