Kerangka Materi

Pengenalan ke Red Teaming AI

  • Memahami lanskap ancaman AI
  • Peran tim red dalam keamanan AI
  • Pertimbangan etika dan hukum

Pembelajaran Mesin Bersaingan

  • Jenis serangan: penghindaran, racun, ekstraksi, inferensi
  • Menghasilkan contoh bersaingan (mis., FGSM, PGD)
  • Serangan bertarget vs tidak bertarget dan metrik keberhasilan

Pengujian Kekuatan Model

  • Menilai kekuatan di bawah gangguan
  • Menjelajahi blind spot dan mode gagal model
  • Pengujian stres pada model klasifikasi, visi, dan NLP

Red Teaming Pipeline AI

  • Permukaan serangan pipeline AI: data, model, penyebaran
  • Memanfaatkan API dan titik akhir model yang tidak aman
  • Membalikkan insinyering perilaku dan output model

Simulasi dan Alat Bantu

  • Menggunakan Adversarial Robustness Toolbox (ART)
  • Red teaming dengan alat seperti TextAttack dan IBM ART
  • Alat sandbox, pemantauan, dan observabilitas

Strategi Red Team AI dan Kerja Sama Pertahanan

  • Mengembangkan latihan red team dan tujuan
  • Berkomunikasi temuan kepada tim blue
  • Menyatukan red teaming ke dalam manajemen risiko AI

Ringkasan dan Langkah Selanjutnya

Persyaratan

  • Pemahaman tentang arsitektur pembelajaran mesin dan deep learning
  • Pengalaman dengan Python dan kerangka ML (mis., TensorFlow, PyTorch)
  • Kenalan dengan konsep keamanan siber atau teknik keamanan ofensif

Audience

  • Peneliti keamanan
  • Tim keamanan ofensif
  • Profesional jaminan AI dan red team
 14 Jam

Jumlah Peserta


Biaya per Peserta

Kursus Mendatang

Kategori Terkait