Kerangka Materi

Pendahuluan tentang AI Red Teaming

  • Memahami lanskap ancaman AI
  • Peran tim merah dalam keamanan AI
  • Pertimbangan etika dan hukum

Adversarial Machine Learning

  • Jenis serangan: evasi, penyimpangan, ekstraksi, inferensi
  • Menghasilkan contoh adversarial (misalnya, FGSM, PGD)
  • Serangan sasaran vs. tidak berorientasi dan ukuran kesuksesan

Pengujian Ketangkasan Model

  • Menilai ketangkasan di bawah gangguan
  • Meneliti kelemahan dan mode kegagalan model
  • Pengujian stres klasifikasi, visi, dan model NLP

Red Teaming Pipelines AI

  • Permukaan serangan dalam pipelien AI: data, model, deployment
  • Memanfaatkan API model yang tidak aman dan titik akhir
  • Membalik pengkodean perilaku dan output model

Simulasi dan Alat

  • Menggunakan Adversarial Robustness Toolbox (ART)
  • Red teaming dengan alat seperti TextAttack dan IBM ART
  • Sandbox, pemantauan, dan alat observabilitas

Strategi dan Pertahanan Tim Merah AI Collaboration

  • Mengembangkan latihan dan tujuan tim merah
  • Berkomunikasi temuan kepada tim biru
  • Menyatukan red teaming ke dalam pengelolaan risiko AI

Ringkasan dan Langkah Selanjutnya

Persyaratan

  • Pemahaman tentang machine learning dan arsitektur deep learning
  • Pengalaman dengan Python dan kerangka kerja ML (misalnya, TensorFlow, PyTorch)
  • Ketahui konsep keamanan siber atau teknik keamanan ofensif

Audience

  • Peneliti keamanan
  • Tim keamanan ofensif
  • Profesional AI assurance dan red team
 14 Jam

Jumlah Peserta


Biaya per Peserta

Kursus Mendatang

Kategori Terkait