Kursus Pelatihan Securing AI Models: Threats, Attacks, and Defenses
Memastikan Model AI adalah disiplin pertahanan terhadap ancaman spesifik model dalam sistem pembelajaran mesin, seperti serangan musuh, pencemaran data, serangan invensi, dan kebocoran privasi.
Pelatihan yang dipimpin instruktur ini (daring atau tatap muka) ditujukan untuk profesional tingkat menengah di bidang pembelajaran mesin dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan tangguh dan privasi diferensial.
Di akhir pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, invensi, dan pencemaran.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, injeksi noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang menyadari ancaman dalam lingkungan produksi.
Format Kursus
- Diskusi dan ceramah interaktif.
- Banyak latihan dan praktek.
- Implementasi langsung dalam lingkungan laboratorium langsung.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan khusus untuk kursus ini, silakan hubungi kami untuk mengatur.
Kerangka Materi
Pengantar Model Ancaman AI
- Apa yang membuat sistem AI rentan?
- Permukaan serangan AI vs sistem tradisional
- Vektor serangan utama: lapisan data, model, output, dan antarmuka
Serangan Adversarial pada Model AI
- Memahami contoh adversarial dan teknik gangguan
- Serangan white-box vs black-box
- Metode FGSM, PGD, dan DeepFool
- Visualisasi dan pembuatan sampel adversarial
Inversi Model dan Kebocoran Privasi
- Menginfere data pelatihan dari output model
- Serangan inferensi keanggotaan
- Risiko privasi dalam model klasifikasi dan generatif
Pencemaran Data dan Injeksi Backdoor
- Bagaimana data yang tercemar mempengaruhi perilaku model
- Backdoor berbasis trigger dan serangan Trojan
- Strategi deteksi dan penyaringan
Keandalan dan Teknik Pertahanan
- Pelatihan adversarial dan peningkatan data
- Penyembunyian gradien dan pra-pemrosesan input
- Penghalusan model dan teknik regularisasi
Pertahanan AI yang Menjaga Privasi
- Pengantar differential privacy
- Penyisipan kebisingan dan anggaran privasi
- Belajar federated dan agregasi aman
AI Security dalam Praktek
- Evaluasi dan penerapan model yang sadar ancaman
- Menggunakan ART (Adversarial Robustness Toolbox) di pengaturan teraplikasikan
- Studi kasus industri: pelanggaran dunia nyata dan mitigasi
Ringkasan dan Langkah Selanjutnya
Persyaratan
- Pemahaman tentang alur kerja pembelajaran mesin dan pelatihan model
- Pengalaman dengan Python dan kerangka kerja ML umum seperti PyTorch atau TensorFlow
- Ketahui konsep keamanan dasar atau pemodelan ancaman adalah sangat membantu
Audience
- Insinyur pembelajaran mesin
- Analisis keamanan siber
- Peneliti AI dan tim validasi model
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Securing AI Models: Threats, Attacks, and Defenses - Pemesanan
Kursus Pelatihan Securing AI Models: Threats, Attacks, and Defenses - Penyelidikan
Securing AI Models: Threats, Attacks, and Defenses - Permintaan Konsultasi
Permintaan Konsultasi
Kursus Mendatang
Kursus Terkait
AI Governance, Kepatuhan, dan Keamanan untuk Pemimpin Perusahaan
14 JamPelatihan interaktif ini di Indonesia (daring atau tatap muka) ditujukan bagi pemimpin perusahaan tingkat menengah yang ingin memahami bagaimana mengatur dan melindungi sistem AI secara bertanggung jawab sesuai dengan kerangka kerja global baru seperti EU AI Act, GDPR, ISO/IEC 42001, dan Keputusan Eksekutif AS tentang AI.
Setelah pelatihan ini, peserta akan dapat:
- Memahami risiko hukum, etika, dan regulasi dalam penggunaan AI di seluruh departemen.
- Menginterpretasikan dan menerapkan kerangka kerja pengaturan AI utama (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Menetapkan kebijakan keamanan, audit, dan pengawasan untuk implementasi AI di perusahaan.
- Mengembangkan pedoman pembelian dan penggunaan sistem AI pihak ketiga dan internal.
AI Risk Management dan Keamanan di Sektor Publik
7 JamArtificial Intelligence (AI) memperkenalkan dimensi baru dari risiko operasional, tantangan pengelolaan, dan paparan keamanan siber bagi lembaga pemerintah dan departemen.
Pelatihan langsung (daring atau tatap muka) yang dipandu instruktur ini ditujukan untuk profesional IT dan risiko sektor publik dengan pengalaman terbatas dalam AI yang ingin memahami bagaimana mengevaluasi, memantau, dan melindungi sistem AI dalam konteks pemerintahan atau regulasi.
Pada akhir pelatihan ini, peserta akan dapat:
- Menafsirkan konsep risiko kunci terkait sistem AI, termasuk bias, ketidakpastian, dan perubahan model.
- Menerapkan kerangka pengelolaan dan audit spesifik AI seperti NIST AI RMF dan ISO/IEC 42001.
- Mengenali ancaman keamanan siber yang menargetkan model AI dan pipa data.
- Menetapkan rencana pengelolaan risiko lintas departemen dan penyesuaian kebijakan untuk implementasi AI.
Format Kursus
- Ceramah interaktif dan diskusi tentang kasus penggunaan sektor publik.
- Latihan kerangka kerja pengelolaan AI dan pemetaan kebijakan.
- Modelling ancaman berbasis skenario dan evaluasi risiko.
Opsi Kustomisasi Pelatihan
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Pengantar AI Trust, Risiko, dan Security Management (AI TRiSM)
21 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT level pemula hingga menengah yang ingin memahami dan menerapkan AI TRiSM dalam organisasi mereka.
Di akhir pelatihan ini, peserta akan dapat:
- Memahami konsep-konsep kunci dan pentingnya manajemen kepercayaan, risiko, dan keamanan AI.
- Mengidentifikasi dan mengurangi risiko yang terkait dengan sistem AI.
- Menerapkan praktik terbaik keamanan untuk AI.
- Memahami keteraturan regulasi dan pertimbangan etika dalam AI.
- Mengembangkan strategi untuk manajemen dan pengendalian AI yang efektif.
Building Secure and Responsible LLM Applications
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk pengembang AI, arsitek, dan manajer produk tingkat menengah hingga lanjutan yang ingin mengidentifikasi dan memitigasi risiko terkait aplikasi berbasis LLM, termasuk injeksi prompt, kebocoran data, dan output tidak difilter, sambil mengintegrasikan kontrol keamanan seperti validasi input, pengawasan manusia dalam loop, dan batasan output.
Setelah selesai pelatihan ini, peserta akan dapat:
- Mengerti kerentanan inti dari sistem berbasis LLM.
- Menerapkan prinsip desain aman pada arsitektur aplikasi LLM.
- Menggunakan alat seperti Guardrails AI dan LangChain untuk validasi, penyaringan, dan keamanan.
- Mengintegrasikan teknik seperti sandboxing, red teaming, dan tinjauan manusia dalam loop ke pipa produksi kelas tinggi.
Keamanan Siber dalam Sistem AI
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (online atau offline) ini ditujukan untuk profesional AI dan keamanan siber tingkat menengah yang ingin memahami dan mengatasi kerentanan keamanan spesifik pada model dan sistem AI, terutama di industri-regulasi tinggi seperti keuangan, pengelolaan data, dan konsultansi.
Setelah pelatihan ini selesai, peserta akan dapat:
- Memahami jenis serangan musuh yang ditujukan pada sistem AI serta metode untuk melawan mereka.
- Melaksanakan teknik pemadatan model untuk memperkuat pipa machine learning.
- Menjaga keamanan dan integritas data dalam model machine learning.
- Memahami persyaratan kompatibilitas peraturan terkait keamanan AI.
Pengantar ke AI Security dan Risk Management
14 JamPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di tempat) ini ditujukan bagi profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka kerja global seperti NIST AI RMF dan ISO/IEC 42001.
Di akhir pelatihan ini, peserta akan dapat:
- Memahami risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka Kerja NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar berkembang, pedoman keterpatuan, dan prinsip etika.
OWASP GenAI Security
14 JamBerdasarkan panduan terbaru dari Proyek OWASP GenAI Security, peserta akan belajar untuk mengidentifikasi, menilai, dan meredakan ancaman spesifik AI melalui latihan praktis dan skenario dunia nyata.
Privacy-Preserving Machine Learning
14 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi profesional tingkat lanjut yang ingin mengimplementasikan dan mengevaluasi teknik seperti pembelajaran terfederasi, komputasi multiparty aman, enkripsi homomorfik, dan privasi diferensial dalam pipa kerja pembelajaran mesin dunia nyata.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami dan membandingkan teknik kunci pengawetan privasi di ML.
- Mengimplementasikan sistem pembelajaran terfederasi menggunakan kerangka kerja open-source.
- Menerapkan privasi diferensial untuk berbagi data dan melatih model dengan aman.
- Menggunakan teknik enkripsi dan komputasi aman untuk melindungi input dan output model.
Red Teaming AI Systems: Offensive Security for ML Models
14 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan terhadap sistem AI, mengungkapkan kerentanan, dan meningkatkan ketangguhan model AI yang dipasang.
Setelah pelatihan ini selesai, peserta akan dapat:
- Mensimulasikan ancaman dunia nyata terhadap model pembelajaran mesin.
- Menghasilkan contoh lawan untuk menguji ketangguhan model.
- Menilai permukaan serangan dari API AI dan pipa kerja.
- Mendesain strategi red teaming untuk lingkungan pemasangan AI.
Mengamankan Edge AI dan Kecerdasan Terimplis
14 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi insinyur dan profesional keamanan tingkat menengah yang ingin melindungi model AI yang dideploy di pinggiran terhadap ancaman seperti perusakan, kebocoran data, input berbahaya, dan serangan fisik.
Setelah pelatihan ini selesai, peserta akan dapat:
- Mengidentifikasi dan menilai risiko keamanan dalam penempatan AI di pinggiran.
- Menerapkan teknik ketahanan terhadap perusakan dan inferensi yang terenkripsi.
- Memperkuat model yang dideploy di pinggiran dan melindungi pipa data.
- Melaksanakan strategi mitigasi ancaman spesifik untuk sistem embedded dan terbatas.
Keamanan dan Privasi dalam Aplikasi TinyML
21 JamTinyML adalah pendekatan untuk menerapkan model pembelajaran mesin pada perangkat berdaya rendah dan terbatas sumber dayanya yang beroperasi di tepi jaringan.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengamankan pipeline TinyML dan menerapkan teknik privasi-memadai dalam aplikasi AI tepi.
Pada akhir kursus ini, peserta akan dapat:
- Mengidentifikasi risiko keamanan yang unik untuk inferensi TinyML on-device.
- Menerapkan mekanisme privasi-memadai untuk penyebaran AI tepi.
- Mengerasi model TinyML dan sistem tersemat melawan ancaman adversarial.
- Menerapkan praktik terbaik untuk penanganan data yang aman di lingkungan terbatas sumber daya.
Format Kursus
- Kuliah yang menarik didukung oleh diskusi yang dipimpin ahli.
- Latihan praktis yang menekankan skenario ancaman dunia nyata.
- Implementasi langsung menggunakan alat keamanan tersemat dan TinyML.
Pilihan Penyesuaian Kursus
- Organisasi dapat meminta versi disesuaikan dari pelatihan ini untuk sejajar dengan kebutuhan keamanan dan ketaatan mereka yang spesifik.
Safe & Secure Agentic AI: Governance, Identity, and Red-Teaming
21 JamKursus ini mencakup pemerintahan (governance), manajemen identitas, dan pengujian adversarial untuk sistem AI agenik, dengan fokus pada pola penyebaran yang aman bagi perusahaan dan teknik red-teaming praktis.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk praktisi tingkat lanjut yang ingin merancang, mengamankan, dan mengevaluasi sistem AI berbasis agen di lingkungan produksi.
Pada akhir pelatihan ini, peserta akan mampu:
- Mendefinisikan model dan kebijakan pemerintahan untuk penyebaran AI agenik yang aman.
- Merancang alur identitas dan otentikasi non-manusia untuk agen dengan akses hak minimal (least-privilege access).
- Mengimplementasikan kontrol akses, jejak audit, dan observabilitas yang disesuaikan untuk agen otonom.
- Merencanakan dan mengeksekusi latihan red-team untuk menemukan penyalahgunaan, jalur eskalasi, dan risiko ekstraksi data.
- Mengurangi ancaman umum terhadap sistem agenik melalui kebijakan, kontrol teknis, dan pemantauan.
Format Kursus
- Kuliah interaktif dan workshop pemodelan ancaman.
- Laboratorium praktik: penyerahan identitas, penegakan kebijakan, dan simulasi musuh.
- Latihan red-team/blue-team dan evaluasi akhir kursus.
Pilihan Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk menyusun.