Kerangka Materi

Pengenalan ke Inferensi AI dengan Docker

  • Memahami beban kerja inferensi AI
  • Manfaat dari inferensi yang dikontainerkan
  • Skenario dan keterbatasan penyebaran

Membangun Kontainer Inferensi AI

  • Memilih gambar dasar dan framework
  • Mengemas model yang telah dilatih
  • Menyusun kode inferensi untuk eksekusi kontainer

Memastikan Layanan AI yang Dikontainerkan

  • Meminimalkan permukaan serangan kontainer
  • Mengelola rahasia dan file sensitif
  • Strategi jaringan yang aman dan eksposur API

Teknik Penyebaran yang Portabel

  • Mengoptimalkan gambar untuk portabilitas
  • Memastikan lingkungan runtime yang dapat diprediksi
  • Mengelola dependensi di berbagai platform

Penyebaran Lokal dan Pengujian

  • Menjalankan layanan secara lokal dengan Docker
  • Mendebug kontainer inferensi
  • Menguji kinerja dan keandalan

Menyebarkan di Server dan VM Cloud

  • Menyesuaikan kontainer untuk lingkungan jarak jauh
  • Mengonfigurasi akses server yang aman
  • Menyebarkan API inferensi di VM cloud

Menggunakan Docker Compose untuk Sistem AI Multi-Service

  • Mengorkestrasi inferensi dengan komponen pendukung
  • Mengelola variabel lingkungan dan konfigurasi
  • Menykalakan mikroservis dengan Compose

Pemantauan dan Pemeliharaan Layanan Inferensi AI

  • Pendekatan logging dan observabilitas
  • Mendeteksi kegagalan dalam pipeline inferensi
  • Memperbarui dan melakukan versi model di produksi

Ringkasan dan Langkah Selanjutnya

Persyaratan

  • Pemahaman tentang konsep dasar machine learning
  • Pengalaman dengan Python atau pengembangan backend
  • Kenalan dengan konsep kontainer dasar

Audience

  • Pengembang
  • Insinyur backend
  • Tim yang menyebarkan layanan AI
 14 Jam

Jumlah Peserta


Biaya per Peserta

Testimoni (5)

Kursus Mendatang

Kategori Terkait