Kursus Pelatihan Keamanan Siber dalam Sistem AI
Mengamankan sistem AI menghadirkan tantangan unik yang berbeda dari pendekatan keamanan siber tradisional. Sistem AI rentan terhadap serangan adversarial, peracunan data, dan pencurian model, yang semuanya dapat secara signifikan memengaruhi operasi bisnis dan integritas data. Kursus ini mengeksplorasi praktik keamanan siber utama untuk sistem AI, mencakup pembelajaran mesin adversarial, keamanan data dalam alur kerja pembelajaran mesin, serta persyaratan kepatuhan untuk penerapan AI yang kokoh.
Pelatihan online langsung atau tatap muka langsung yang dipimpin oleh instruktur ini ditujukan bagi profesional AI dan keamanan siber tingkat menengah yang ingin memahami dan mengatasi kerentanan keamanan yang spesifik terhadap model dan sistem AI, khususnya di industri yang sangat teregulasi seperti keuangan, tata kelola data, dan konsultasi.
Pada akhir pelatihan ini, peserta akan mampu:
- Memahami jenis-jenis serangan adversarial yang menargetkan sistem AI serta metode untuk membelanya.
- Menerapkan teknik penguatan model untuk mengamankan alur kerja pembelajaran mesin.
- Menjamin keamanan dan integritas data dalam model pembelajaran mesin.
- Mengelola persyaratan kepatuhan regulasi yang berkaitan dengan keamanan AI.
Bentuk Kursus
- Kuliah interaktif dan diskusi.
- Banyak latihan dan praktik.
- Implementasi langsung di lingkungan lab langsung.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Kerangka Materi
Pengenalan Tantangan Keamanan AI
- Memahami risiko keamanan yang unik bagi sistem AI
- Membandingkan keamanan siber tradisional versus keamanan siber AI
- Ikhtisar permukaan serangan dalam model AI
Pembelajaran Mesin Adversarial
- Jenis-jenis serangan adversarial: pengelakan, peracunan, dan ekstraksi
- Menerapkan pertahanan dan langkah penanggulangan adversarial
- Kajian kasus serangan adversarial di berbagai industri
Teknik Penguatan Model
- Pengenalan ketangguhan dan penguatan model
- Teknik untuk mengurangi kerentanan model terhadap serangan
- Implementasi langsung terhadap distilasi defensif dan metode penguatan lainnya
Keamanan Data dalam Pembelajaran Mesin
- Mengamankan alur kerja data untuk pelatihan dan inferensi
- Mencegah kebocoran data dan serangan inversi model
- Praktik terbaik untuk mengelola data sensitif dalam sistem AI
Kepatuhan dan Persyaratan Regulasi Keamanan AI
- Memahami peraturan seputar AI dan keamanan data
- Kepatuhan terhadap GDPR, CCPA, dan undang-undang perlindungan data lainnya
- Mengembangkan model AI yang aman dan patuh
Pemantauan dan Pemeliharaan Keamanan Sistem AI
- Menerapkan pemantauan berkelanjutan untuk sistem AI
- Pencatatan dan audit untuk keamanan dalam pembelajaran mesin
- Merespons insiden dan pelanggaran keamanan AI
Tren Masa Depan dalam Keamanan Siber AI
- Teknik yang muncul dalam pengamanan AI dan pembelajaran mesin
- Peluang inovasi dalam keamanan siber AI
- Mempersiapkan diri menghadapi tantangan keamanan AI di masa depan
Ringkasan dan Langkah Selanjutnya
Persyaratan
- Pengetahuan dasar tentang konsep pembelajaran mesin dan AI
- Kesadaran dengan prinsip dan praktik keamanan siber
Target Peserta
- Insinyur AI dan pembelajaran mesin yang ingin meningkatkan keamanan dalam sistem AI
- Profesional keamanan siber yang berfokus pada perlindungan model AI
- Profesional kepatuhan dan manajemen risiko dalam tata kelola dan keamanan data
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Keamanan Siber dalam Sistem AI - Pemesanan
Kursus Pelatihan Keamanan Siber dalam Sistem AI - Penyelidikan
Keamanan Siber dalam Sistem AI - Permintaan Konsultasi
Testimoni (1)
Pengetahuan profesional dan cara dia menyajikannya kepada kami
Miroslav Nachev - PUBLIC COURSE
Kursus - Cybersecurity in AI Systems
Diterjemahkan Mesin
Kursus Mendatang
Kursus Terkait
ISACA Advanced in AI Security Management (AAISM)
21 JamAAISM adalah kerangka kerja lanjutan untuk menilai, mengatur, dan mengelola risiko keamanan dalam sistem kecerdasan buatan.
Pelatihan langsung yang dipandu instruktur (online atau tatap muka) ini ditujukan bagi profesional tingkat lanjut yang ingin menerapkan kontrol keamanan dan praktik pemerintahan efektif untuk lingkungan AI perusahaan.
Pada akhir program ini, peserta akan siap untuk:
- Menilai risiko keamanan AI menggunakan metodologi yang diakui industri.
- Menerapkan model pemerintahan untuk penyebaran AI yang bertanggung jawab.
- Menyelaraskan kebijakan keamanan AI dengan tujuan organisasi dan harapan peraturan.
- Meningkatkan ketahanan dan akuntabilitas dalam operasi berbasis AI.
Format Kursus
- Kuliah yang didukung analisis ahli.
- Bekerja praktis dan kegiatan berbasis penilaian.
- Latihan terapan menggunakan skenario pemerintahan AI dunia nyata.
Pilihan Penyesuaian Kursus
- Untuk pelatihan yang disesuaikan sesuai dengan strategi AI organisasi Anda, silakan hubungi kami untuk menyesuaikan kursus.
Pemerintahan, Kepatuhan, dan Keamanan AI untuk Pemimpin Perusahaan
14 JamPelatihan langsung yang dipandu instruktur ini di Indonesia (online atau tatap muka) ditujukan untuk pemimpin perusahaan tingkat menengah yang ingin memahami bagaimana mengelola dan mengamankan sistem AI secara bertanggung jawab dan sesuai dengan kerangka kerja global yang sedang berkembang seperti UU AI EU, GDPR, ISO/IEC 42001, dan Perintah Eksekutif AS tentang AI.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami risiko hukum, etika, dan regulasi dari penggunaan AI di berbagai departemen.
- Menafsirkan dan menerapkan kerangka kerja pemerintahan AI utama (UU AI EU, NIST AI RMF, ISO/IEC 42001).
- Membuat kebijakan keamanan, audit, dan pengawasan untuk penyebaran AI di perusahaan.
- Mengembangkan pedoman pengadaan dan penggunaan untuk sistem AI pihak ketiga dan in-house.
Manajemen Risiko dan Keamanan AI di Sektor Publik
7 JamKecerdasan Buatan (AI) memperkenalkan dimensi risiko operasional baru, tantangan tata kelola, dan paparan keamanan siber bagi agensi dan departemen pemerintah.
Pelatihan ini yang dipandu instruktur (dilakukan secara online atau tatap muka) ditujukan kepada profesional IT dan manajemen risiko sektor publik dengan pengalaman terbatas dalam AI, yang ingin memahami bagaimana mengevaluasi, memantau, dan mengamankan sistem AI dalam konteks pemerintahan atau regulasi.
Pada akhir pelatihan ini, peserta akan dapat:
- Menafsirkan konsep risiko utama terkait sistem AI, termasuk bias, ketidakdeterminan, dan drift model.
- Menerapkan kerangka tata kelola dan audit spesifik AI seperti NIST AI RMF dan ISO/IEC 42001.
- Mengenali ancaman keamanan siber yang menargetkan model AI dan pipa data.
- Menetapkan rencana manajemen risiko lintas departemen dan konsistensi kebijakan untuk penyebaran AI.
Format Kursus
- Ceramah interaktif dan diskusi kasus penggunaan sektor publik.
- Latihan kerangka tata kelola AI dan pemetaan kebijakan.
- Penyusunan model ancaman berbasis skenario dan evaluasi risiko.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Pengantar Manajemen Kepercayaan, Risiko, dan Keamanan AI (AI TRiSM)
21 JamPelatihan ini dipandu oleh instruktur secara langsung (online atau tatap muka) ditujukan untuk profesional IT tingkat pemula hingga menengah yang ingin memahami dan mengimplementasikan AI TRiSM di organisasi mereka.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami konsep-konsep utama dan pentingnya manajemen kepercayaan, risiko, dan keamanan AI.
- Mengidentifikasi dan mengurangi risiko yang terkait dengan sistem AI.
- Menerapkan praktik keamanan terbaik untuk AI.
- Memahami ketaatan peraturan dan pertimbangan etika untuk AI.
- Mengembangkan strategi untuk manajemen dan tata kelola AI yang efektif.
Building Secure and Responsible LLM Applications
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk pengembang AI, arsitek, dan manajer produk tingkat menengah hingga lanjutan yang ingin mengidentifikasi dan memitigasi risiko terkait aplikasi berbasis LLM, termasuk injeksi prompt, kebocoran data, dan output tidak difilter, sambil mengintegrasikan kontrol keamanan seperti validasi input, pengawasan manusia dalam loop, dan batasan output.
Setelah selesai pelatihan ini, peserta akan dapat:
- Mengerti kerentanan inti dari sistem berbasis LLM.
- Menerapkan prinsip desain aman pada arsitektur aplikasi LLM.
- Menggunakan alat seperti Guardrails AI dan LangChain untuk validasi, penyaringan, dan keamanan.
- Mengintegrasikan teknik seperti sandboxing, red teaming, dan tinjauan manusia dalam loop ke pipa produksi kelas tinggi.
Keamanan dan Tata Kelola EXO: Pengelolaan Model Offline
14 JamPelatihan langsung yang dibawakan oleh instruktur dalam Indonesia (online live training atau onsite live training) ini ditujukan bagi rekayasa keamanan dan petugas kepatuhan yang ingin memperkuat penerapan EXO, mengendalikan akses model, serta mengatur beban kerja AI yang berjalan sepenuhnya di lingkungan sendiri (on-premise).
Pengenalan ke Keamanan dan Manajemen Risiko AI
14 JamPelatihan ini yang dipandu instruktur (online atau tatap muka) ditujukan untuk profesional keamanan IT, risiko, dan kepatuhan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka kerja global seperti NIST AI RMF dan ISO/IEC 42001.
Pada akhir pelatihan ini, peserta akan mampu:
- Memahami risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan berlawanan, keracunan data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka Manajemen Risiko AI NIST.
- Menyelaraskan penggunaan AI dengan standar, panduan kepatuhan, dan prinsip etika yang muncul.
OWASP GenAI Security
14 JamBerdasarkan panduan terbaru dari Proyek OWASP GenAI Security, peserta akan belajar untuk mengidentifikasi, menilai, dan meredakan ancaman spesifik AI melalui latihan praktis dan skenario dunia nyata.
Pembelajaran Mesin yang Menjaga Privasi
14 JamPelatihan langsung ini (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengimplementasikan dan mengevaluasi teknik-teknik seperti pembelajaran federated, perhitungan multiparty aman, enkripsi homomorfik, dan privasi diferensial dalam pipeline pembelajaran mesin nyata.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami dan membandingkan teknik-teknik kunci dalam ML yang menjaga privasi.
- Mengimplementasikan sistem pembelajaran federated menggunakan kerangka kerja open-source.
- Menerapkan privasi diferensial untuk berbagi data dan pelatihan model yang aman.
- Menggunakan enkripsi dan teknik perhitungan aman untuk melindungi input dan output model.
Red Teaming Sistem AI: Keamanan Ofensif untuk Model ML
14 JamPelatihan ini dipandu instruktur, pelatihan langsung di Indonesia (online atau tatap muka), ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan pada sistem AI, mengungkapkan kerentanan, dan meningkatkan kekuatan model AI yang telah diterapkan.
Pada akhir pelatihan ini, peserta akan mampu:
- Mensimulasikan ancaman dunia nyata terhadap model pembelajaran mesin.
- Menghasilkan contoh bersaingan untuk menguji kekuatan model.
- Menilai permukaan serangan API AI dan pipeline.
- Mendesain strategi red teaming untuk lingkungan penyebaran AI.
Mengamankan Edge AI dan Kecerdasan Tersemat
14 JamPelatihan ini dipandu oleh instruktur (pelatihan online langsung atau pelatihan langsung tatap muka) ditujukan untuk insinyur dan profesional keamanan tingkat menengah yang ingin mengamankan model AI yang diterapkan di edge terhadap ancaman seperti penyadapan, kebocoran data, input berlawanan, dan serangan fisik.
Pada akhir pelatihan ini, peserta akan mampu:
- Mengidentifikasi dan menilai risiko keamanan dalam penyebaran AI di edge.
- Menerapkan teknik resistensi penyadapan dan inferensi terenkripsi.
- Mengerasi model yang diterapkan di edge dan mengamankan pipa data.
- Melaksanakan strategi mitigasi ancaman spesifik untuk sistem tersemat dan terbatas.
Pengamanan Model AI: Ancaman, Serangan, dan Pertahanan
14 JamPelatihan langsung yang dipandu instruktur ini di Indonesia (online atau tatap muka) ditujukan untuk profesional pembelajaran mesin dan keamanan siber tingkat menengah yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan baik kerangka konseptual maupun pertahanan praktis seperti pelatihan yang kuat dan privasi diferensial.
Pada akhir pelatihan ini, peserta akan mampu:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan berlawanan (adversarial), inversi, dan keracunan.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan berlawanan, injeksi noise, dan teknik penyimpanan privasi.
- Mendesain strategi evaluasi model yang sadar ancaman dalam lingkungan produksi.
Keamanan dan Privasi dalam Aplikasi TinyML
21 JamTinyML adalah pendekatan untuk menerapkan model pembelajaran mesin pada perangkat berdaya rendah dan terbatas sumber dayanya yang beroperasi di tepi jaringan.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengamankan pipeline TinyML dan menerapkan teknik privasi-memadai dalam aplikasi AI tepi.
Pada akhir kursus ini, peserta akan dapat:
- Mengidentifikasi risiko keamanan yang unik untuk inferensi TinyML on-device.
- Menerapkan mekanisme privasi-memadai untuk penyebaran AI tepi.
- Mengerasi model TinyML dan sistem tersemat melawan ancaman adversarial.
- Menerapkan praktik terbaik untuk penanganan data yang aman di lingkungan terbatas sumber daya.
Format Kursus
- Kuliah yang menarik didukung oleh diskusi yang dipimpin ahli.
- Latihan praktis yang menekankan skenario ancaman dunia nyata.
- Implementasi langsung menggunakan alat keamanan tersemat dan TinyML.
Pilihan Penyesuaian Kursus
- Organisasi dapat meminta versi disesuaikan dari pelatihan ini untuk sejajar dengan kebutuhan keamanan dan ketaatan mereka yang spesifik.
Safe & Secure Agentic AI: Governance, Identity, and Red-Teaming
21 JamKursus ini mencakup pemerintahan (governance), manajemen identitas, dan pengujian adversarial untuk sistem AI agenik, dengan fokus pada pola penyebaran yang aman bagi perusahaan dan teknik red-teaming praktis.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk praktisi tingkat lanjut yang ingin merancang, mengamankan, dan mengevaluasi sistem AI berbasis agen di lingkungan produksi.
Pada akhir pelatihan ini, peserta akan mampu:
- Mendefinisikan model dan kebijakan pemerintahan untuk penyebaran AI agenik yang aman.
- Merancang alur identitas dan otentikasi non-manusia untuk agen dengan akses hak minimal (least-privilege access).
- Mengimplementasikan kontrol akses, jejak audit, dan observabilitas yang disesuaikan untuk agen otonom.
- Merencanakan dan mengeksekusi latihan red-team untuk menemukan penyalahgunaan, jalur eskalasi, dan risiko ekstraksi data.
- Mengurangi ancaman umum terhadap sistem agenik melalui kebijakan, kontrol teknis, dan pemantauan.
Format Kursus
- Kuliah interaktif dan workshop pemodelan ancaman.
- Laboratorium praktik: penyerahan identitas, penegakan kebijakan, dan simulasi musuh.
- Latihan red-team/blue-team dan evaluasi akhir kursus.
Pilihan Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk menyusun.