Kursus Pelatihan Mengamankan Edge AI dan Kecerdasan Tersemat
Mengamankan Edge AI dan Kecerdasan Tersemat adalah praktik melindungi model pembelajaran mesin dan data di lingkungan yang terbatas, sering kali secara fisik terpapar seperti drone, sensor, kamera pintar, dan sistem otonom.
Pelatihan ini dipandu oleh instruktur (pelatihan online langsung atau pelatihan langsung tatap muka) ditujukan untuk insinyur dan profesional keamanan tingkat menengah yang ingin mengamankan model AI yang diterapkan di edge terhadap ancaman seperti penyadapan, kebocoran data, input berlawanan, dan serangan fisik.
Pada akhir pelatihan ini, peserta akan mampu:
- Mengidentifikasi dan menilai risiko keamanan dalam penyebaran AI di edge.
- Menerapkan teknik resistensi penyadapan dan inferensi terenkripsi.
- Mengerasi model yang diterapkan di edge dan mengamankan pipa data.
- Melaksanakan strategi mitigasi ancaman spesifik untuk sistem tersemat dan terbatas.
Format Kursus
- Ceramah interaktif dan diskusi.
- Banyak latihan dan praktik.
- Implementasi langsung dalam lingkungan lab hidup.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk melakukan penjadwalan.
Kerangka Materi
Pengenalan ke Edge AI dan Sistem Tersemat
- Apa itu Edge AI? Kasus penggunaan dan keterbatasan
- Platform perangkat keras dan tumpukan perangkat lunak edge
- Tantangan keamanan di lingkungan tersemat dan terdesentralisasi
Lanskap Ancaman untuk Edge AI
- Risiko akses fisik dan penyadapan
- Contoh berlawanan dan manipulasi model
- Kebocoran data dan ancaman inversi model
Mengamankan Model
- Strategi penguatan dan kuantisasi model
- Penanda air dan pemetaan model
- Distilasi pertahanan dan pruning
Inferensi Terenkripsi dan Eksekusi Aman
- Lingkungan eksekusi terpercaya (TEEs) untuk AI
- Enklave aman dan komputasi rahasia
- Inferensi terenkripsi menggunakan enkripsi homomorfik atau SMPC
Deteksi Penyadapan dan Kontrol Tingkat Perangkat
- Boot aman dan pemeriksaan integritas firmware
- Validasi sensor dan deteksi anomali
- Atestasi jarak jauh dan pemantauan kesehatan perangkat
Integrasi Keamanan Edge-ke-Awan
- Transmisi data aman dan manajemen kunci
- Enkripsi ujung ke ujung dan perlindungan siklus hidup data
- Orkestrasi AI awan dengan kendala keamanan edge
Praktik Terbaik dan Strategi Mitigasi Risiko
- Pemodelan ancaman untuk sistem AI di edge
- Prinsip desain keamanan untuk kecerdasan tersemat
- Respons insiden dan manajemen pembaruan firmware
Ringkasan dan Langkah Selanjutnya
Persyaratan
- Pemahaman tentang sistem tersemat atau lingkungan penyebaran AI di edge
- Pengalaman dengan Python dan framework ML (mis., TensorFlow Lite, PyTorch Mobile)
- Kenalan dasar dengan keamanan siber atau model ancaman IoT
Audience
- Pengembang AI tersemat
- Spesialis keamanan IoT
- Insinyur yang menyebar model ML di edge atau perangkat terbatas
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Mengamankan Edge AI dan Kecerdasan Tersemat - Pemesanan
Kursus Pelatihan Mengamankan Edge AI dan Kecerdasan Tersemat - Penyelidikan
Mengamankan Edge AI dan Kecerdasan Tersemat - Permintaan Konsultasi
Permintaan Konsultasi
Kursus Mendatang
Kursus Terkait
ISACA Advanced in AI Security Management (AAISM)
21 JamAAISM adalah kerangka kerja lanjutan untuk menilai, mengatur, dan mengelola risiko keamanan dalam sistem kecerdasan buatan.
Pelatihan langsung yang dipandu instruktur (online atau tatap muka) ini ditujukan bagi profesional tingkat lanjut yang ingin menerapkan kontrol keamanan dan praktik pemerintahan efektif untuk lingkungan AI perusahaan.
Pada akhir program ini, peserta akan siap untuk:
- Menilai risiko keamanan AI menggunakan metodologi yang diakui industri.
- Menerapkan model pemerintahan untuk penyebaran AI yang bertanggung jawab.
- Menyelaraskan kebijakan keamanan AI dengan tujuan organisasi dan harapan peraturan.
- Meningkatkan ketahanan dan akuntabilitas dalam operasi berbasis AI.
Format Kursus
- Kuliah yang didukung analisis ahli.
- Bekerja praktis dan kegiatan berbasis penilaian.
- Latihan terapan menggunakan skenario pemerintahan AI dunia nyata.
Pilihan Penyesuaian Kursus
- Untuk pelatihan yang disesuaikan sesuai dengan strategi AI organisasi Anda, silakan hubungi kami untuk menyesuaikan kursus.
Pemerintahan, Kepatuhan, dan Keamanan AI untuk Pemimpin Perusahaan
14 JamPelatihan langsung yang dipandu instruktur ini di Indonesia (online atau tatap muka) ditujukan untuk pemimpin perusahaan tingkat menengah yang ingin memahami bagaimana mengelola dan mengamankan sistem AI secara bertanggung jawab dan sesuai dengan kerangka kerja global yang sedang berkembang seperti UU AI EU, GDPR, ISO/IEC 42001, dan Perintah Eksekutif AS tentang AI.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami risiko hukum, etika, dan regulasi dari penggunaan AI di berbagai departemen.
- Menafsirkan dan menerapkan kerangka kerja pemerintahan AI utama (UU AI EU, NIST AI RMF, ISO/IEC 42001).
- Membuat kebijakan keamanan, audit, dan pengawasan untuk penyebaran AI di perusahaan.
- Mengembangkan pedoman pengadaan dan penggunaan untuk sistem AI pihak ketiga dan in-house.
Manajemen Risiko dan Keamanan AI di Sektor Publik
7 JamKecerdasan Buatan (AI) memperkenalkan dimensi risiko operasional baru, tantangan tata kelola, dan paparan keamanan siber bagi agensi dan departemen pemerintah.
Pelatihan ini yang dipandu instruktur (dilakukan secara online atau tatap muka) ditujukan kepada profesional IT dan manajemen risiko sektor publik dengan pengalaman terbatas dalam AI, yang ingin memahami bagaimana mengevaluasi, memantau, dan mengamankan sistem AI dalam konteks pemerintahan atau regulasi.
Pada akhir pelatihan ini, peserta akan dapat:
- Menafsirkan konsep risiko utama terkait sistem AI, termasuk bias, ketidakdeterminan, dan drift model.
- Menerapkan kerangka tata kelola dan audit spesifik AI seperti NIST AI RMF dan ISO/IEC 42001.
- Mengenali ancaman keamanan siber yang menargetkan model AI dan pipa data.
- Menetapkan rencana manajemen risiko lintas departemen dan konsistensi kebijakan untuk penyebaran AI.
Format Kursus
- Ceramah interaktif dan diskusi kasus penggunaan sektor publik.
- Latihan kerangka tata kelola AI dan pemetaan kebijakan.
- Penyusunan model ancaman berbasis skenario dan evaluasi risiko.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Pengantar AI Trust, Risiko, dan Security Management (AI TRiSM)
21 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT level pemula hingga menengah yang ingin memahami dan menerapkan AI TRiSM dalam organisasi mereka.
Di akhir pelatihan ini, peserta akan dapat:
- Memahami konsep-konsep kunci dan pentingnya manajemen kepercayaan, risiko, dan keamanan AI.
- Mengidentifikasi dan mengurangi risiko yang terkait dengan sistem AI.
- Menerapkan praktik terbaik keamanan untuk AI.
- Memahami keteraturan regulasi dan pertimbangan etika dalam AI.
- Mengembangkan strategi untuk manajemen dan pengendalian AI yang efektif.
Building Secure and Responsible LLM Applications
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk pengembang AI, arsitek, dan manajer produk tingkat menengah hingga lanjutan yang ingin mengidentifikasi dan memitigasi risiko terkait aplikasi berbasis LLM, termasuk injeksi prompt, kebocoran data, dan output tidak difilter, sambil mengintegrasikan kontrol keamanan seperti validasi input, pengawasan manusia dalam loop, dan batasan output.
Setelah selesai pelatihan ini, peserta akan dapat:
- Mengerti kerentanan inti dari sistem berbasis LLM.
- Menerapkan prinsip desain aman pada arsitektur aplikasi LLM.
- Menggunakan alat seperti Guardrails AI dan LangChain untuk validasi, penyaringan, dan keamanan.
- Mengintegrasikan teknik seperti sandboxing, red teaming, dan tinjauan manusia dalam loop ke pipa produksi kelas tinggi.
Keamanan Siber dalam Sistem AI
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (online atau offline) ini ditujukan untuk profesional AI dan keamanan siber tingkat menengah yang ingin memahami dan mengatasi kerentanan keamanan spesifik pada model dan sistem AI, terutama di industri-regulasi tinggi seperti keuangan, pengelolaan data, dan konsultansi.
Setelah pelatihan ini selesai, peserta akan dapat:
- Memahami jenis serangan musuh yang ditujukan pada sistem AI serta metode untuk melawan mereka.
- Melaksanakan teknik pemadatan model untuk memperkuat pipa machine learning.
- Menjaga keamanan dan integritas data dalam model machine learning.
- Memahami persyaratan kompatibilitas peraturan terkait keamanan AI.
Pengenalan ke Keamanan dan Manajemen Risiko AI
14 JamPelatihan ini yang dipandu instruktur (online atau tatap muka) ditujukan untuk profesional keamanan IT, risiko, dan kepatuhan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka kerja global seperti NIST AI RMF dan ISO/IEC 42001.
Pada akhir pelatihan ini, peserta akan mampu:
- Memahami risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan berlawanan, keracunan data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka Manajemen Risiko AI NIST.
- Menyelaraskan penggunaan AI dengan standar, panduan kepatuhan, dan prinsip etika yang muncul.
OWASP GenAI Security
14 JamBerdasarkan panduan terbaru dari Proyek OWASP GenAI Security, peserta akan belajar untuk mengidentifikasi, menilai, dan meredakan ancaman spesifik AI melalui latihan praktis dan skenario dunia nyata.
Pembelajaran Mesin yang Menjaga Privasi
14 JamPelatihan langsung ini (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengimplementasikan dan mengevaluasi teknik-teknik seperti pembelajaran federated, perhitungan multiparty aman, enkripsi homomorfik, dan privasi diferensial dalam pipeline pembelajaran mesin nyata.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami dan membandingkan teknik-teknik kunci dalam ML yang menjaga privasi.
- Mengimplementasikan sistem pembelajaran federated menggunakan kerangka kerja open-source.
- Menerapkan privasi diferensial untuk berbagi data dan pelatihan model yang aman.
- Menggunakan enkripsi dan teknik perhitungan aman untuk melindungi input dan output model.
Red Teaming Sistem AI: Keamanan Ofensif untuk Model ML
14 JamPelatihan ini dipandu instruktur, pelatihan langsung di Indonesia (online atau tatap muka), ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan pada sistem AI, mengungkapkan kerentanan, dan meningkatkan kekuatan model AI yang telah diterapkan.
Pada akhir pelatihan ini, peserta akan mampu:
- Mensimulasikan ancaman dunia nyata terhadap model pembelajaran mesin.
- Menghasilkan contoh bersaingan untuk menguji kekuatan model.
- Menilai permukaan serangan API AI dan pipeline.
- Mendesain strategi red teaming untuk lingkungan penyebaran AI.
Pengamanan Model AI: Ancaman, Serangan, dan Pertahanan
14 JamPelatihan langsung yang dipandu instruktur ini di Indonesia (online atau tatap muka) ditujukan untuk profesional pembelajaran mesin dan keamanan siber tingkat menengah yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan baik kerangka konseptual maupun pertahanan praktis seperti pelatihan yang kuat dan privasi diferensial.
Pada akhir pelatihan ini, peserta akan mampu:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan berlawanan (adversarial), inversi, dan keracunan.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan berlawanan, injeksi noise, dan teknik penyimpanan privasi.
- Mendesain strategi evaluasi model yang sadar ancaman dalam lingkungan produksi.
Keamanan dan Privasi dalam Aplikasi TinyML
21 JamTinyML adalah pendekatan untuk menerapkan model pembelajaran mesin pada perangkat berdaya rendah dan terbatas sumber dayanya yang beroperasi di tepi jaringan.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengamankan pipeline TinyML dan menerapkan teknik privasi-memadai dalam aplikasi AI tepi.
Pada akhir kursus ini, peserta akan dapat:
- Mengidentifikasi risiko keamanan yang unik untuk inferensi TinyML on-device.
- Menerapkan mekanisme privasi-memadai untuk penyebaran AI tepi.
- Mengerasi model TinyML dan sistem tersemat melawan ancaman adversarial.
- Menerapkan praktik terbaik untuk penanganan data yang aman di lingkungan terbatas sumber daya.
Format Kursus
- Kuliah yang menarik didukung oleh diskusi yang dipimpin ahli.
- Latihan praktis yang menekankan skenario ancaman dunia nyata.
- Implementasi langsung menggunakan alat keamanan tersemat dan TinyML.
Pilihan Penyesuaian Kursus
- Organisasi dapat meminta versi disesuaikan dari pelatihan ini untuk sejajar dengan kebutuhan keamanan dan ketaatan mereka yang spesifik.
Safe & Secure Agentic AI: Governance, Identity, and Red-Teaming
21 JamKursus ini mencakup pemerintahan (governance), manajemen identitas, dan pengujian adversarial untuk sistem AI agenik, dengan fokus pada pola penyebaran yang aman bagi perusahaan dan teknik red-teaming praktis.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk praktisi tingkat lanjut yang ingin merancang, mengamankan, dan mengevaluasi sistem AI berbasis agen di lingkungan produksi.
Pada akhir pelatihan ini, peserta akan mampu:
- Mendefinisikan model dan kebijakan pemerintahan untuk penyebaran AI agenik yang aman.
- Merancang alur identitas dan otentikasi non-manusia untuk agen dengan akses hak minimal (least-privilege access).
- Mengimplementasikan kontrol akses, jejak audit, dan observabilitas yang disesuaikan untuk agen otonom.
- Merencanakan dan mengeksekusi latihan red-team untuk menemukan penyalahgunaan, jalur eskalasi, dan risiko ekstraksi data.
- Mengurangi ancaman umum terhadap sistem agenik melalui kebijakan, kontrol teknis, dan pemantauan.
Format Kursus
- Kuliah interaktif dan workshop pemodelan ancaman.
- Laboratorium praktik: penyerahan identitas, penegakan kebijakan, dan simulasi musuh.
- Latihan red-team/blue-team dan evaluasi akhir kursus.
Pilihan Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk menyusun.