Pelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional tingkat menengah dalam bidang machine learning dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan robust dan privasi diferensial.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, inversion, dan poisoning.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, penyertaan noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang sadar ancaman di lingkungan produksi.
Pengantar Threat Modeling AI
- Apa yang membuat sistem AI rentan?
- Serangan permukaan AI vs sistem tradisional
- Vektor serangan utama: lapisan data, model, output, dan antarmuka
Serangan Musuh terhadap Model AI
- Mengerti contoh musuh dan teknik perturbasi
- Penyerangan white-box vs black-box
- Metode FGSM, PGD, dan DeepFool
- Visualisasi dan pembuatan sampel musuh
Inversi Model dan Kebocoran Privasi
- Menginfere data pelatihan dari output model
- Serangan inferensi keanggotaan
- Risiko privasi dalam model klasifikasi dan generatif
Pencemaran Data dan Injeksi Backdoor
- Bagaimana data yang dicemari mempengaruhi perilaku model
- Backdoors berbasis pemicu dan serangan Trojan
- Stra tegi deteksi dan sanitasi
Ketangguhan dan Teknik Pertahanan
- Pelatihan musuh dan augmentasi data
- Mengaburkan gradien dan pra-pemrosesan input
- Penyegaran model dan teknik regularisasi
Pertahanan AI yang Memperhatikan Privasi
- Pengantar privasi diferensial
- Penyertaan noise dan anggaran privasi
- Federated learning dan agregasi aman
AI Security dalam Prakteknya
- Evaluasi model yang sadar ancaman dan implementasinya
- Menggunakan ART (Adversarial Robustness Toolbox) di pengaturan terapan
- Studi kasus industri: pelanggaran dunia nyata dan mitigasi
Ringkasan dan Langkah Selanjutnya
Memperkuat Model AI adalah disiplin pertahanan sistem machine learning terhadap ancaman spesifik model seperti input musuh, pencemaran data, serangan inversion, dan kebocoran privasi.
Pelatihan langsung yang dipandu instruktur (daring atau tatap muka) ini ditujukan untuk profesional tingkat menengah dalam bidang machine learning dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan robust dan privasi diferensial.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, inversion, dan poisoning.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, penambahan noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang sadar ancaman di lingkungan produksi.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktek.
- Pelaksanaan langsung dalam lingkungan laboratorium hidup.
Opsi Pemaduan Kursus
- Untuk meminta pelatihan yang dipersonalisasi untuk kursus ini, silakan hubungi kami untuk mengatur.
Persyaratan Praktis
- Kemampuan dalam alur kerja machine learning dan pelatihan model
- Pengalaman dengan Python dan kerangka kerja ML umum seperti PyTorch atau TensorFlow
- Familiaritas dengan konsep keamanan dasar atau modeling ancaman akan membantu
Audience
- Insinyur machine learning
- Analisis keamanan siber
- Peneliti AI dan tim validasi model
Read more...