Terima kasih telah mengirimkan pertanyaan Anda! Salah satu anggota tim kami akan segera menghubungi Anda.
Terima kasih telah mengirimkan pemesanan Anda! Salah satu anggota tim kami akan segera menghubungi Anda.
Kerangka Materi
Pendahuluan tentang AI Red Teaming
- Memahami lanskap ancaman AI
- Peran tim merah dalam keamanan AI
- Pertimbangan etika dan hukum
Adversarial Machine Learning
- Jenis serangan: evasi, penyimpangan, ekstraksi, inferensi
- Menghasilkan contoh adversarial (misalnya, FGSM, PGD)
- Serangan sasaran vs. tidak berorientasi dan ukuran kesuksesan
Pengujian Ketangkasan Model
- Menilai ketangkasan di bawah gangguan
- Meneliti kelemahan dan mode kegagalan model
- Pengujian stres klasifikasi, visi, dan model NLP
Red Teaming Pipelines AI
- Permukaan serangan dalam pipelien AI: data, model, deployment
- Memanfaatkan API model yang tidak aman dan titik akhir
- Membalik pengkodean perilaku dan output model
Simulasi dan Alat
- Menggunakan Adversarial Robustness Toolbox (ART)
- Red teaming dengan alat seperti TextAttack dan IBM ART
- Sandbox, pemantauan, dan alat observabilitas
Strategi dan Pertahanan Tim Merah AI Collaboration
- Mengembangkan latihan dan tujuan tim merah
- Berkomunikasi temuan kepada tim biru
- Menyatukan red teaming ke dalam pengelolaan risiko AI
Ringkasan dan Langkah Selanjutnya
Persyaratan
- Pemahaman tentang machine learning dan arsitektur deep learning
- Pengalaman dengan Python dan kerangka kerja ML (misalnya, TensorFlow, PyTorch)
- Ketahui konsep keamanan siber atau teknik keamanan ofensif
Audience
- Peneliti keamanan
- Tim keamanan ofensif
- Profesional AI assurance dan red team
14 Jam