Course Outline

Pengantar Red Teaming pada AI

  • Mengerti peta ancaman AI
  • Peran tim merah dalam keamanan AI
  • Konsiderasi etika dan hukum

Adversarial Machine Learning

  • Jenis serangan: evasi, penyiraman, ekstraksi, inferensi
  • Menghasilkan contoh adversarial (misalnya, FGSM, PGD)
  • Serangan berorientasi vs tidak berorientasi dan metrik keberhasilan

Uji Ketangguhan Model

  • Evaluasi ketangguhan di bawah gangguan
  • Menggali titik buta model dan mode gagal
  • Uji beban klasifikasi, penglihatan, dan model NLP

Red Teaming Pipelines AI

  • Serangan pada pipelien AI: data, model, pelaksanaan
  • Memanfaatkan API model yang tidak aman dan titik akhir
  • Menguraikan perilaku dan output model secara terbalik

Simulasi dan Alat

  • Menggunakan Adversarial Robustness Toolbox (ART)
  • Red teaming dengan alat seperti TextAttack dan IBM ART
  • Alat sandbox, pemantauan, dan observabilitas

Strategi dan Pertahanan Tim Merah AI Collaboration

  • Mengembangkan latihan dan tujuan tim merah
  • Berkomunikasi temuan kepada tim biru
  • Mengintegrasikan red teaming ke dalam manajemen risiko AI

Ringkasan dan Langkah Selanjutnya

Requirements

  • Pemahaman tentang arsitektur machine learning dan deep learning
  • Pengalaman dengan Python dan kerangka kerja ML (mis., TensorFlow, PyTorch)
  • Kenalan dengan konsep keamanan siber atau teknik keamanan ofensif

Audience

  • Peneliti keamanan
  • Tim keamanan ofensif
  • Pemegang jaminan AI dan profesional red team
 14 Hours

Number of participants


Price per participant

Upcoming Courses (Minimal 5 peserta)

Related Categories