Kerangka Materi

Pengenalan ke Pemodelan Ancaman AI

  • Apa yang membuat sistem AI rentan?
  • Permukaan serangan AI vs sistem tradisional
  • Vektor serangan kunci: lapisan data, model, output, dan antarmuka

Serangan Berlawanan pada Model AI

  • Memahami contoh berlawanan (adversarial) dan teknik gangguan
  • Serangan putih-kotak vs hitam-kotak
  • Metode FGSM, PGD, dan DeepFool
  • Visualisasi dan pembuatan sampel berlawanan (adversarial)

Inversi Model dan Kebocoran Privasi

  • Menerka data pelatihan dari output model
  • Serangan inferensi keanggotaan (membership inference)
  • Risiko privasi dalam model klasifikasi dan generatif

Keracunan Data dan Injeksi Backdoor

  • Bagaimana data yang terkontaminasi mempengaruhi perilaku model
  • Backdoor berbasis pemicu (trigger) dan serangan Trojan
  • Strategi deteksi dan sanitasi

Ketahanan dan Teknik Pertahanan

  • Pelatihan berlawanan (adversarial) dan augmentasi data
  • Penyembunyian gradien dan pra-pemrosesan input
  • Teknik penyetabilan dan regulasi model

Pertahanan AI yang Menghargai Privasi

  • Pengenalan ke privasi diferensial
  • Injeksi noise dan anggaran privasi
  • Pembelajaran terfederasi (federated learning) dan agregasi yang aman

Keamanan AI dalam Praktik

  • Evaluasi model yang sadar ancaman dan penyebaran
  • Menggunakan ART (Adversarial Robustness Toolbox) dalam pengaturan terapkan
  • Studi kasus industri: pelanggaran dunia nyata dan mitigasi

Ringkasan dan Langkah Selanjutnya

Persyaratan

  • Pemahaman tentang alur kerja pembelajaran mesin dan pelatihan model
  • Pengalaman dengan Python dan framework ML umum seperti PyTorch atau TensorFlow
  • Familiaritas dengan konsep keamanan dasar atau pemodelan ancaman sangat membantu

Audience

  • Insinyur pembelajaran mesin
  • Analis keamanan siber
  • Peneliti AI dan tim validasi model
 14 Jam

Jumlah Peserta


Harga per Peserta

Testimoni (1)

Kursus Mendatang

Kategori Terkait