AI Risk Management and Security in the Public Sector Training Course
Artificial Intelligence (AI) memperkenalkan dimensi baru risiko operasional, tantangan pengaturan, dan paparan keamanan siber bagi badan pemerintah dan departemen.
Program pelatihan langsung yang dipimpin instruktur (daring atau tatap muka) ini ditujukan untuk profesional IT dan risiko sektor publik dengan pengalaman terbatas dalam AI yang ingin memahami bagaimana mengevaluasi, memantau, dan melindungi sistem AI dalam konteks pemerintahan atau regulasi.
Selesai mengikuti pelatihan ini, peserta akan dapat:
- Menginterpretasikan konsep risiko kunci yang berkaitan dengan sistem AI, termasuk bias, ketidakpastian, dan pergeseran model.
- Menerapkan kerangka kerja pengaturan dan audit spesifik AI seperti Kerangka Manajemen Risiko AI NIST (AI RMF) dan ISO/IEC 42001.
- Mengenali ancaman keamanan siber yang ditargetkan pada model AI dan pipa data.
- Membuat rencana pengelolaan risiko lintas departemen dan sinkronisasi kebijakan untuk implementasi AI.
Format Kursus
- Lektor interaktif dan diskusi tentang kasus penggunaan sektor publik.
- Latihan kerangka kerja pengaturan AI dan pemetaan kebijakan.
- Pemodelan ancaman berbasis skenario dan evaluasi risiko.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan khusus untuk kursus ini, silakan hubungi kami untuk mengatur.
Course Outline
Mengerti Risiko AI Khusus dalam Pengaturan Government
- Cara risiko AI berbeda dari risiko IT dan data tradisional
- Kategori risiko AI: teknis, operasional, reputasi, dan etika
- Akuntabilitas publik dan persepsi risiko dalam pemerintahan
Frameworks AI Risk Management
- NIST AI Risk Management Framework (AI RMF)
- ISO/IEC 42001:2023 — Standar Sistem AI Management
- Panduan sektoral dan internasional lainnya (mis., OECD, UNESCO)
Ancaman Keamanan terhadap Sistem AI
- Input musuh, penyemprotan data, dan inversi model
- Eksposur data pelatihan sensitif
- Risiko rantai pasokan dan model pihak ketiga
Governance, Audit, dan Kontrol
- Mekanisme akuntabilitas manusia-dalam-lintasan
- AI yang dapat diaudit: dokumentasi, versi, dan interpretabilitas
- Kontrol internal, peran pengawasan, dan titik pengecekan kepatuhan
Penilaian Risiko dan Perencanaan Mitigasi
- Membangun daftar risiko untuk kasus penggunaan AI
- Berkolaborasi dengan tim pengadaan, hukum, dan desain layanan
- Melakukan evaluasi pra-distribusi dan pasca-distribusi
Respons Insiden dan Ketahanan Sektor Publik
- Menghadapi insiden dan pelanggaran terkait AI
- Berkomunikasi dengan pemangku kepentingan dan publik
- Menyisipkan praktik risiko AI dalam buku saku keamanan siber
Ringkasan dan Langkah Berikutnya
Requirements
- Pengalaman dalam operasi IT, manajemen risiko, keamanan siber, atau keterpatutaan di lembaga pemerintah
- Ketahui praktik keamanan organisasi dan pengiriman layanan digital
- Tidak diperlukan pengetahuan teknis sebelumnya tentang sistem AI
Audience
- Tim IT pemerintahan yang terlibat dalam layanan digital dan integrasi sistem
- Profesional keamanan siber dan risiko di lembaga publik
- Persyaratan audit, keterpatutaan, dan pengendalian sektor publik
Open Training Courses require 5+ participants.
AI Risk Management and Security in the Public Sector Training Course - Booking
AI Risk Management and Security in the Public Sector Training Course - Enquiry
AI Risk Management and Security in the Public Sector - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses (Minimal 5 peserta)
Related Courses
AI Governance, Compliance, and Security for Enterprise Leaders
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di lokasi) ini ditujukan untuk pemimpin perusahaan tingkat menengah yang ingin memahami bagaimana mengatur dan melindungi sistem AI secara bertanggung jawab dan sesuai dengan kerangka kerja global yang sedang berkembang seperti EU AI Act, GDPR, ISO/IEC 42001, dan Eksekutif Order AS tentang AI.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti risiko hukum, etika, dan regulasi dalam penggunaan AI di berbagai departemen.
- Menerjemahkan dan menerapkan kerangka kerja pengaturan AI utama (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Menetapkan kebijakan keamanan, audit, dan pengawasan untuk pelaksanaan AI di perusahaan.
- Membuat pedoman pembelian dan penggunaan sistem AI pihak ketiga dan internal.
AI Policy and Regulation for Governments
7 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk peserta tingkat pemula / menengah / lanjutan ___ yang ingin menggunakan ___ untuk ___.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Menginstal dan mengonfigurasi ___.
- ___.
- ___.
- ___.
AI-Enhanced Public Service Delivery
7 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan bagi peserta tingkat pemula / menengah / lanjutan ___ yang ingin menggunakan ___ untuk ___.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Menginstal dan mengonfigurasi ___.
- ___.
- ___.
- ___.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk peserta tingkat pemula / menengah / lanjutan ___ yang ingin menggunakan ___ untuk ___.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Menginstal dan mengonfigurasi ___.
- ___.
- ___.
- ___.
Building Secure and Responsible LLM Applications
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk pengembang AI, arsitek, dan manajer produk tingkat menengah hingga lanjutan yang ingin mengidentifikasi dan memitigasi risiko terkait aplikasi berbasis LLM, termasuk injeksi prompt, kebocoran data, dan output tidak difilter, sambil mengintegrasikan kontrol keamanan seperti validasi input, pengawasan manusia dalam loop, dan batasan output.
Setelah selesai pelatihan ini, peserta akan dapat:
- Mengerti kerentanan inti dari sistem berbasis LLM.
- Menerapkan prinsip desain aman pada arsitektur aplikasi LLM.
- Menggunakan alat seperti Guardrails AI dan LangChain untuk validasi, penyaringan, dan keamanan.
- Mengintegrasikan teknik seperti sandboxing, red teaming, dan tinjauan manusia dalam loop ke pipa produksi kelas tinggi.
DeepSeek for Government and Policy-Making
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk para profesional pemerintah tingkat lanjut dan pakar kebijakan yang ingin memanfaatkan DeepSeek untuk tata kelola berbasis data dan inovasi kebijakan.
Pada akhir pelatihan ini, peserta akan dapat:
- Memanfaatkan DeepSeek AI untuk analisis kebijakan dan pengambilan keputusan strategis.
- Otomatisasi laporan pemerintah dan tingkatkan transparansi data.
- Terapkan wawasan berbasis AI untuk inovasi sektor publik.
- Tingkatkan keterlibatan warga melalui solusi bertenaga AI.
Intermediate Gemini AI for Public Sector Professionals
16 HoursThis instructor-led, live training in Indonesia (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 HoursPelatihan langsung oleh instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi peserta tingkat pemula / menengah / lanjutan ___ yang ingin menggunakan ___ untuk ___.
Selesai mengikuti pelatihan ini, peserta akan dapat:
- Menginstal dan mengonfigurasi ___.
- ___.
- ___.
- ___.
Introduction to AI Security and Risk Management
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka global seperti NIST AI RMF dan ISO/IEC 42001.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar yang muncul, pedoman keterpatuan, dan prinsip etika.
Pendahuluan tentang AI Security dan Risk Management
Dasar-dasar AI dan Keamanan
- Apa yang membuat sistem AI unik dari perspektif keamanan
- Ulasan siklus hidup AI: data, pelatihan, inferensi, dan implementasi
- Taksonomi dasar risiko AI: teknis, etika, hukum, dan organisasional
Vektor Ancaman Spesifik AI
- Contoh musuh dan manipulasi model
- Inversi model dan risiko kebocoran data
- Pencemaran data selama fase pelatihan
- Risiko dalam AI generatif (misalnya, penyalahgunaan LLM, injeksi prompt)
Kerangka Kerja Keamanan Risk Management
- Kerangka Kerja NIST AI Risk Management (NIST AI RMF)
- ISO/IEC 42001 dan standar spesifik AI lainnya
- Mengaitkan risiko AI dengan kerangka GRC perusahaan yang ada
Pemerintahan AI Go dan Prinsip Keterpatuan
- Akuntabilitas dan auditabilitas AI
- Transparansi, penjelasan, dan keadilan sebagai sifat yang relevan dengan keamanan
- Sikap diskriminatif, diskriminasi, dan kerugian turunan
Kesiapan Perusahaan dan Kebijakan AI Security
- Menentukan peran dan tanggung jawab dalam program keamanan AI
- Elemen kebijakan: pengembangan, pembelian, penggunaan, dan pemurnian
- Risiko pihak ketiga dan penggunaan alat AI penyedia
Lanskap Regulasi dan Trend Global
- Ulasan tentang EU AI Act dan regulasi internasional lainnya
- Kepres AS tentang AI yang Aman, Aman, dan Dapat Dipercaya
- Rangka kerja nasional baru dan panduan spesifik sektor
Workshop Opsional: Pemetaan Risiko dan Penilaian Sendiri
- Pemetaan kasus penggunaan AI dunia nyata ke fungsi NIST AI RMF
- Melakukan penilaian risiko sendiri dasar untuk AI
- Menentukan celah internal dalam kesiapan keamanan AI
Ringkasan dan Langkah Selanjutnya
AI Security dan Risk Management adalah praktik mengidentifikasi, memitigasi, dan mengatur ancaman keamanan, risiko keterpatuan, dan eksposur operasional dalam sistem dan alir kerja yang didorong oleh AI.
Pelatihan langsung yang dipandu instruktur (daring atau tatap muka) ini ditujukan untuk profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka global seperti NIST AI RMF dan ISO/IEC 42001.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar yang muncul, pedoman keterpatuan, dan prinsip etika.
Format Kursus
- Lektur interaktif dan diskusi.
- Banyak latihan dan praktik.
- Pelaksanaan langsung dalam lingkungan laboratorium hidup.
Opsi Pemaduan Kursus
- Untuk meminta pelatihan yang dipersonalisasi untuk kursus ini, silakan hubungi kami untuk mengatur.
- Pemahaman tentang prinsip keamanan siber dasar
- Pengalaman dengan kerangka kerja pemerintahan IT atau manajemen risiko
- Ketertarikan terhadap konsep AI secara umum adalah bermanfaat tetapi tidak diperlukan
Audience
- Tim keamanan IT
- Pengelola risiko
- Profesional keterpatuan
Pelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT keamanan, risiko, dan keterpatuan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka global seperti NIST AI RMF dan ISO/IEC 42001.
Setelah mengikuti pelatihan ini, peserta akan dapat:
- Mengerti risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan musuh, pencemaran data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka NIST AI Risk Management.
- Menyesuaikan penggunaan AI dengan standar yang muncul, pedoman keterpatuan, dan prinsip etika.
introaisec
Privacy-Preserving Machine Learning
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi profesional tingkat lanjut yang ingin mengimplementasikan dan mengevaluasi teknik seperti pembelajaran federated, komputasi multiparty aman, enkripsi homomorfik, dan privasi diferensial dalam pipa machine learning dunia nyata.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti dan membandingkan teknik pengecegahan kerahasiaan kunci di ML.
- Melaksanakan sistem pembelajaran federated menggunakan kerangka sumber terbuka.
- Menerapkan privasi diferensial untuk berbagi data yang aman dan pelatihan model.
- Menggunakan teknik enkripsi dan komputasi aman untuk melindungi input dan output model.
Red Teaming AI Systems: Offensive Security for ML Models
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan terhadap sistem AI, mengungkapkan kerentanan, dan meningkatkan ketangguhan model AI yang telah dideploy.
Selesai pelatihan ini, peserta akan dapat:
- Mensimulasikan ancaman dunia nyata terhadap model machine learning.
- Menghasilkan contoh lawan untuk menguji ketangguhan model.
- Menilai permukaan serangan dari API dan pipa AI.
- Merancang strategi red teaming untuk lingkungan deplorasi AI.
Pengantar ke Red Teaming AI
- Mengerti peta ancaman AI
- Peran tim merah dalam keamanan AI
- Konsiderasi etika dan hukum
Adversarial Machine Learning
- Jenis serangan: evasi, penyiraman, ekstraksi, inferensi
- Menghasilkan contoh lawan (misalnya, FGSM, PGD)
- Serangan berorientasi vs tidak berorientasi dan metrik keberhasilan
Uji Ketangguhan Model
- Mengevaluasi ketangguhan di bawah gangguan
- Menggali titik buta model dan mode gagal
- Stres testing model klasifikasi, penglihatan, dan NLP
Red Teaming Pipa AI
- Permukaan serangan pipa AI: data, model, deplorasi
- Memanfaatkan API dan titik akhir model yang tidak aman
- Membalikan rekayasa perilaku dan output model
Simulasi dan Alat
- Memakai Adversarial Robustness Toolbox (ART)
- Red teaming dengan alat seperti TextAttack dan IBM ART
- Alat sandboxing, pemantauan, dan observabilitas
Strategi dan Pertahanan Tim Merah AI Collaboration
- Mengembangkan latihan dan tujuan tim merah
- Berkomunikasi temuan kepada tim biru
- Mengintegrasikan red teaming ke dalam manajemen risiko AI
Ringkasan dan Langkah Selanjutnya
Red Teaming Sistem AI adalah bidang keamanan ofensif yang spesialisasi pada mengidentifikasi kelemahan di model machine learning dan pipa deplorasi melalui pengujian lawan dan simulasi stres.
Pelatihan langsung yang dipimpin instruktur (daring atau tatap muka) ini ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan terhadap sistem AI, mengungkapkan kerentanan, dan meningkatkan ketangguhan model AI yang telah dideploy.
Selesai pelatihan ini, peserta akan dapat:
- Mensimulasikan ancaman dunia nyata terhadap model machine learning.
- Menghasilkan contoh lawan untuk menguji ketangguhan model.
- Menilai permukaan serangan dari API dan pipa AI.
- Merancang strategi red teaming untuk lingkungan deplorasi AI.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktek.
- Pelaksanaan hands-on dalam lingkungan lab langsung.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan khusus untuk kursus ini, silakan hubungi kami untuk mengatur.
Pemahaman tentang arsitektur machine learning dan deep learning
pengalaman dengan Python dan kerangka kerja ML (mis., TensorFlow, PyTorch)
Kenalan dengan konsep keamanan siber atau teknik keamanan ofensif
Audience
- Peneliti keamanan
- Tim keamanan ofensif
- Profesional jaminan AI dan tim merah
Securing Edge AI and Embedded Intelligence
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk insinyur tingkat menengah dan profesional keamanan yang ingin melindungi model AI yang dideploy di edge dari ancaman seperti perusakan, kebocoran data, input musuh, dan serangan fisik.
Selesai pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan menilai risiko keamanan dalam penerapan AI di edge.
- Menerapkan teknik resistensi terhadap perusakan dan inferensi terenkripsi.
- Memperkuat model yang dideploy di edge dan melindungi pipa data.
- Melaksanakan strategi mitigasi ancaman khusus untuk sistem embedded dan terbatas.
Securing AI Models: Threats, Attacks, and Defenses
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional tingkat menengah dalam bidang machine learning dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan robust dan privasi diferensial.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, inversion, dan poisoning.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, penyertaan noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang sadar ancaman di lingkungan produksi.
Pengantar Threat Modeling AI
- Apa yang membuat sistem AI rentan?
- Serangan permukaan AI vs sistem tradisional
- Vektor serangan utama: lapisan data, model, output, dan antarmuka
Serangan Musuh terhadap Model AI
- Mengerti contoh musuh dan teknik perturbasi
- Penyerangan white-box vs black-box
- Metode FGSM, PGD, dan DeepFool
- Visualisasi dan pembuatan sampel musuh
Inversi Model dan Kebocoran Privasi
- Menginfere data pelatihan dari output model
- Serangan inferensi keanggotaan
- Risiko privasi dalam model klasifikasi dan generatif
Pencemaran Data dan Injeksi Backdoor
- Bagaimana data yang dicemari mempengaruhi perilaku model
- Backdoors berbasis pemicu dan serangan Trojan
- Stra tegi deteksi dan sanitasi
Ketangguhan dan Teknik Pertahanan
- Pelatihan musuh dan augmentasi data
- Mengaburkan gradien dan pra-pemrosesan input
- Penyegaran model dan teknik regularisasi
Pertahanan AI yang Memperhatikan Privasi
- Pengantar privasi diferensial
- Penyertaan noise dan anggaran privasi
- Federated learning dan agregasi aman
AI Security dalam Prakteknya
- Evaluasi model yang sadar ancaman dan implementasinya
- Menggunakan ART (Adversarial Robustness Toolbox) di pengaturan terapan
- Studi kasus industri: pelanggaran dunia nyata dan mitigasi
Ringkasan dan Langkah Selanjutnya
Memperkuat Model AI adalah disiplin pertahanan sistem machine learning terhadap ancaman spesifik model seperti input musuh, pencemaran data, serangan inversion, dan kebocoran privasi.
Pelatihan langsung yang dipandu instruktur (daring atau tatap muka) ini ditujukan untuk profesional tingkat menengah dalam bidang machine learning dan keamanan siber yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan kerangka konseptual serta pertahanan praktis seperti pelatihan robust dan privasi diferensial.
Setelah menyelesaikan pelatihan ini, peserta akan dapat:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan musuh, inversion, dan poisoning.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan musuh, penambahan noise, dan teknik yang mempertahankan privasi.
- Merancang strategi evaluasi model yang sadar ancaman di lingkungan produksi.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktek.
- Pelaksanaan langsung dalam lingkungan laboratorium hidup.
Opsi Pemaduan Kursus
- Untuk meminta pelatihan yang dipersonalisasi untuk kursus ini, silakan hubungi kami untuk mengatur.
Persyaratan Praktis
- Kemampuan dalam alur kerja machine learning dan pelatihan model
- Pengalaman dengan Python dan kerangka kerja ML umum seperti PyTorch atau TensorFlow
- Familiaritas dengan konsep keamanan dasar atau modeling ancaman akan membantu
Audience
- Insinyur machine learning
- Analisis keamanan siber
- Peneliti AI dan tim validasi model