Kursus Pelatihan Pembelajaran Mesin yang Menjaga Privasi
Pembelajaran Mesin yang Menjaga Privasi adalah bidang yang berfokus pada perlindungan data sensitif sambil tetap memungkinkan kemampuan AI lanjutan di lingkungan terdesentralisasi atau terbatas.
Pelatihan langsung ini (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengimplementasikan dan mengevaluasi teknik-teknik seperti pembelajaran federated, perhitungan multiparty aman, enkripsi homomorfik, dan privasi diferensial dalam pipeline pembelajaran mesin nyata.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami dan membandingkan teknik-teknik kunci dalam ML yang menjaga privasi.
- Mengimplementasikan sistem pembelajaran federated menggunakan kerangka kerja open-source.
- Menerapkan privasi diferensial untuk berbagi data dan pelatihan model yang aman.
- Menggunakan enkripsi dan teknik perhitungan aman untuk melindungi input dan output model.
Format Kursus
- Diskusi interaktif dan presentasi.
- Banyak latihan dan praktik.
- Implementasi langsung dalam lingkungan live-lab.
Opsi Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Kerangka Materi
Pengenalan ke ML yang Menjaga Privasi
- Motivasi dan risiko dalam lingkungan data sensitif
- Ikhtisar teknik-teknik ML yang menjaga privasi
- Model ancaman dan pertimbangan regulasi (mis., GDPR, HIPAA)
Pembelajaran Federated
- Konsep dan arsitektur pembelajaran federated
- Sinkronisasi dan agregasi klien-server
- Implementasi menggunakan PySyft dan Flower
Privasi Diferensial
- Matematika privasi diferensial
- Menerapkan DP dalam kueri data dan pelatihan model
- Menggunakan Opacus dan TensorFlow Privacy
Perhitungan Multiparty Aman (SMPC)
- Protokol SMPC dan kasus penggunaan
- Pendekatan berbasis enkripsi vs pembagian rahasia
- Alur kerja perhitungan aman dengan CrypTen atau PySyft
Enkripsi Homomorfik
- Fully vs partially homomorphic encryption
- Inferensi terenkripsi untuk beban kerja sensitif
- Hands-on dengan TenSEAL dan Microsoft SEAL
Aplikasi dan Studi Kasus Industri
- Privasi di bidang kesehatan: pembelajaran federated untuk AI medis
- Kerja sama aman di keuangan: model risiko dan kepatuhan
- Kasus penggunaan di pertahanan dan pemerintah
Ringkasan dan Langkah Selanjutnya
Persyaratan
- Pemahaman tentang prinsip-prinsip pembelajaran mesin
- Pengalaman dengan Python dan perpustakaan ML (mis., PyTorch, TensorFlow)
- Kebiasaan dengan konsep privasi data atau keamanan siber sangat membantu
Audience
- Peneliti AI
- Tim perlindungan data dan kepatuhan privasi
- Insinyur keamanan yang bekerja di industri teratur
Kursus Pelatihan Terbuka membutuhkan minimal 5 peserta.
Kursus Pelatihan Pembelajaran Mesin yang Menjaga Privasi - Pemesanan
Kursus Pelatihan Pembelajaran Mesin yang Menjaga Privasi - Penyelidikan
Pembelajaran Mesin yang Menjaga Privasi - Permintaan Konsultasi
Permintaan Konsultasi
Kursus Mendatang
Kursus Terkait
ISACA Advanced in AI Security Management (AAISM)
21 JamAAISM adalah kerangka kerja lanjutan untuk menilai, mengatur, dan mengelola risiko keamanan dalam sistem kecerdasan buatan.
Pelatihan langsung yang dipandu instruktur (online atau tatap muka) ini ditujukan bagi profesional tingkat lanjut yang ingin menerapkan kontrol keamanan dan praktik pemerintahan efektif untuk lingkungan AI perusahaan.
Pada akhir program ini, peserta akan siap untuk:
- Menilai risiko keamanan AI menggunakan metodologi yang diakui industri.
- Menerapkan model pemerintahan untuk penyebaran AI yang bertanggung jawab.
- Menyelaraskan kebijakan keamanan AI dengan tujuan organisasi dan harapan peraturan.
- Meningkatkan ketahanan dan akuntabilitas dalam operasi berbasis AI.
Format Kursus
- Kuliah yang didukung analisis ahli.
- Bekerja praktis dan kegiatan berbasis penilaian.
- Latihan terapan menggunakan skenario pemerintahan AI dunia nyata.
Pilihan Penyesuaian Kursus
- Untuk pelatihan yang disesuaikan sesuai dengan strategi AI organisasi Anda, silakan hubungi kami untuk menyesuaikan kursus.
Pemerintahan, Kepatuhan, dan Keamanan AI untuk Pemimpin Perusahaan
14 JamPelatihan langsung yang dipandu instruktur ini di Indonesia (online atau tatap muka) ditujukan untuk pemimpin perusahaan tingkat menengah yang ingin memahami bagaimana mengelola dan mengamankan sistem AI secara bertanggung jawab dan sesuai dengan kerangka kerja global yang sedang berkembang seperti UU AI EU, GDPR, ISO/IEC 42001, dan Perintah Eksekutif AS tentang AI.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami risiko hukum, etika, dan regulasi dari penggunaan AI di berbagai departemen.
- Menafsirkan dan menerapkan kerangka kerja pemerintahan AI utama (UU AI EU, NIST AI RMF, ISO/IEC 42001).
- Membuat kebijakan keamanan, audit, dan pengawasan untuk penyebaran AI di perusahaan.
- Mengembangkan pedoman pengadaan dan penggunaan untuk sistem AI pihak ketiga dan in-house.
Manajemen Risiko dan Keamanan AI di Sektor Publik
7 JamKecerdasan Buatan (AI) memperkenalkan dimensi risiko operasional baru, tantangan tata kelola, dan paparan keamanan siber bagi agensi dan departemen pemerintah.
Pelatihan ini yang dipandu instruktur (dilakukan secara online atau tatap muka) ditujukan kepada profesional IT dan manajemen risiko sektor publik dengan pengalaman terbatas dalam AI, yang ingin memahami bagaimana mengevaluasi, memantau, dan mengamankan sistem AI dalam konteks pemerintahan atau regulasi.
Pada akhir pelatihan ini, peserta akan dapat:
- Menafsirkan konsep risiko utama terkait sistem AI, termasuk bias, ketidakdeterminan, dan drift model.
- Menerapkan kerangka tata kelola dan audit spesifik AI seperti NIST AI RMF dan ISO/IEC 42001.
- Mengenali ancaman keamanan siber yang menargetkan model AI dan pipa data.
- Menetapkan rencana manajemen risiko lintas departemen dan konsistensi kebijakan untuk penyebaran AI.
Format Kursus
- Ceramah interaktif dan diskusi kasus penggunaan sektor publik.
- Latihan kerangka tata kelola AI dan pemetaan kebijakan.
- Penyusunan model ancaman berbasis skenario dan evaluasi risiko.
Opsi Kustomisasi Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Pengantar AI Trust, Risiko, dan Security Management (AI TRiSM)
21 JamPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk profesional IT level pemula hingga menengah yang ingin memahami dan menerapkan AI TRiSM dalam organisasi mereka.
Di akhir pelatihan ini, peserta akan dapat:
- Memahami konsep-konsep kunci dan pentingnya manajemen kepercayaan, risiko, dan keamanan AI.
- Mengidentifikasi dan mengurangi risiko yang terkait dengan sistem AI.
- Menerapkan praktik terbaik keamanan untuk AI.
- Memahami keteraturan regulasi dan pertimbangan etika dalam AI.
- Mengembangkan strategi untuk manajemen dan pengendalian AI yang efektif.
Building Secure and Responsible LLM Applications
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk pengembang AI, arsitek, dan manajer produk tingkat menengah hingga lanjutan yang ingin mengidentifikasi dan memitigasi risiko terkait aplikasi berbasis LLM, termasuk injeksi prompt, kebocoran data, dan output tidak difilter, sambil mengintegrasikan kontrol keamanan seperti validasi input, pengawasan manusia dalam loop, dan batasan output.
Setelah selesai pelatihan ini, peserta akan dapat:
- Mengerti kerentanan inti dari sistem berbasis LLM.
- Menerapkan prinsip desain aman pada arsitektur aplikasi LLM.
- Menggunakan alat seperti Guardrails AI dan LangChain untuk validasi, penyaringan, dan keamanan.
- Mengintegrasikan teknik seperti sandboxing, red teaming, dan tinjauan manusia dalam loop ke pipa produksi kelas tinggi.
Keamanan Siber dalam Sistem AI
14 JamPelatihan langsung yang dipandu instruktur di Indonesia (online atau offline) ini ditujukan untuk profesional AI dan keamanan siber tingkat menengah yang ingin memahami dan mengatasi kerentanan keamanan spesifik pada model dan sistem AI, terutama di industri-regulasi tinggi seperti keuangan, pengelolaan data, dan konsultansi.
Setelah pelatihan ini selesai, peserta akan dapat:
- Memahami jenis serangan musuh yang ditujukan pada sistem AI serta metode untuk melawan mereka.
- Melaksanakan teknik pemadatan model untuk memperkuat pipa machine learning.
- Menjaga keamanan dan integritas data dalam model machine learning.
- Memahami persyaratan kompatibilitas peraturan terkait keamanan AI.
Pengenalan ke Keamanan dan Manajemen Risiko AI
14 JamPelatihan ini yang dipandu instruktur (online atau tatap muka) ditujukan untuk profesional keamanan IT, risiko, dan kepatuhan tingkat pemula yang ingin memahami konsep dasar keamanan AI, vektor ancaman, dan kerangka kerja global seperti NIST AI RMF dan ISO/IEC 42001.
Pada akhir pelatihan ini, peserta akan mampu:
- Memahami risiko keamanan unik yang diperkenalkan oleh sistem AI.
- Mengidentifikasi vektor ancaman seperti serangan berlawanan, keracunan data, dan inversi model.
- Menerapkan model pemerintahan dasar seperti Kerangka Manajemen Risiko AI NIST.
- Menyelaraskan penggunaan AI dengan standar, panduan kepatuhan, dan prinsip etika yang muncul.
OWASP GenAI Security
14 JamBerdasarkan panduan terbaru dari Proyek OWASP GenAI Security, peserta akan belajar untuk mengidentifikasi, menilai, dan meredakan ancaman spesifik AI melalui latihan praktis dan skenario dunia nyata.
Red Teaming Sistem AI: Keamanan Ofensif untuk Model ML
14 JamPelatihan ini dipandu instruktur, pelatihan langsung di Indonesia (online atau tatap muka), ditujukan untuk profesional keamanan tingkat lanjut dan spesialis ML yang ingin mensimulasikan serangan pada sistem AI, mengungkapkan kerentanan, dan meningkatkan kekuatan model AI yang telah diterapkan.
Pada akhir pelatihan ini, peserta akan mampu:
- Mensimulasikan ancaman dunia nyata terhadap model pembelajaran mesin.
- Menghasilkan contoh bersaingan untuk menguji kekuatan model.
- Menilai permukaan serangan API AI dan pipeline.
- Mendesain strategi red teaming untuk lingkungan penyebaran AI.
Mengamankan Edge AI dan Kecerdasan Tersemat
14 JamPelatihan ini dipandu oleh instruktur (pelatihan online langsung atau pelatihan langsung tatap muka) ditujukan untuk insinyur dan profesional keamanan tingkat menengah yang ingin mengamankan model AI yang diterapkan di edge terhadap ancaman seperti penyadapan, kebocoran data, input berlawanan, dan serangan fisik.
Pada akhir pelatihan ini, peserta akan mampu:
- Mengidentifikasi dan menilai risiko keamanan dalam penyebaran AI di edge.
- Menerapkan teknik resistensi penyadapan dan inferensi terenkripsi.
- Mengerasi model yang diterapkan di edge dan mengamankan pipa data.
- Melaksanakan strategi mitigasi ancaman spesifik untuk sistem tersemat dan terbatas.
Pengamanan Model AI: Ancaman, Serangan, dan Pertahanan
14 JamPelatihan langsung yang dipandu instruktur ini di Indonesia (online atau tatap muka) ditujukan untuk profesional pembelajaran mesin dan keamanan siber tingkat menengah yang ingin memahami dan mengurangi ancaman baru terhadap model AI, menggunakan baik kerangka konseptual maupun pertahanan praktis seperti pelatihan yang kuat dan privasi diferensial.
Pada akhir pelatihan ini, peserta akan mampu:
- Mengidentifikasi dan mengklasifikasikan ancaman spesifik AI seperti serangan berlawanan (adversarial), inversi, dan keracunan.
- Menggunakan alat seperti Adversarial Robustness Toolbox (ART) untuk mensimulasikan serangan dan menguji model.
- Menerapkan pertahanan praktis termasuk pelatihan berlawanan, injeksi noise, dan teknik penyimpanan privasi.
- Mendesain strategi evaluasi model yang sadar ancaman dalam lingkungan produksi.
Keamanan dan Privasi dalam Aplikasi TinyML
21 JamTinyML adalah pendekatan untuk menerapkan model pembelajaran mesin pada perangkat berdaya rendah dan terbatas sumber dayanya yang beroperasi di tepi jaringan.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk profesional tingkat lanjut yang ingin mengamankan pipeline TinyML dan menerapkan teknik privasi-memadai dalam aplikasi AI tepi.
Pada akhir kursus ini, peserta akan dapat:
- Mengidentifikasi risiko keamanan yang unik untuk inferensi TinyML on-device.
- Menerapkan mekanisme privasi-memadai untuk penyebaran AI tepi.
- Mengerasi model TinyML dan sistem tersemat melawan ancaman adversarial.
- Menerapkan praktik terbaik untuk penanganan data yang aman di lingkungan terbatas sumber daya.
Format Kursus
- Kuliah yang menarik didukung oleh diskusi yang dipimpin ahli.
- Latihan praktis yang menekankan skenario ancaman dunia nyata.
- Implementasi langsung menggunakan alat keamanan tersemat dan TinyML.
Pilihan Penyesuaian Kursus
- Organisasi dapat meminta versi disesuaikan dari pelatihan ini untuk sejajar dengan kebutuhan keamanan dan ketaatan mereka yang spesifik.
Safe & Secure Agentic AI: Governance, Identity, and Red-Teaming
21 JamKursus ini mencakup pemerintahan (governance), manajemen identitas, dan pengujian adversarial untuk sistem AI agenik, dengan fokus pada pola penyebaran yang aman bagi perusahaan dan teknik red-teaming praktis.
Pelatihan langsung ini dipandu instruktur (online atau tatap muka) ditujukan untuk praktisi tingkat lanjut yang ingin merancang, mengamankan, dan mengevaluasi sistem AI berbasis agen di lingkungan produksi.
Pada akhir pelatihan ini, peserta akan mampu:
- Mendefinisikan model dan kebijakan pemerintahan untuk penyebaran AI agenik yang aman.
- Merancang alur identitas dan otentikasi non-manusia untuk agen dengan akses hak minimal (least-privilege access).
- Mengimplementasikan kontrol akses, jejak audit, dan observabilitas yang disesuaikan untuk agen otonom.
- Merencanakan dan mengeksekusi latihan red-team untuk menemukan penyalahgunaan, jalur eskalasi, dan risiko ekstraksi data.
- Mengurangi ancaman umum terhadap sistem agenik melalui kebijakan, kontrol teknis, dan pemantauan.
Format Kursus
- Kuliah interaktif dan workshop pemodelan ancaman.
- Laboratorium praktik: penyerahan identitas, penegakan kebijakan, dan simulasi musuh.
- Latihan red-team/blue-team dan evaluasi akhir kursus.
Pilihan Penyesuaian Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk menyusun.