Kerangka Materi

Dasar-dasar Penyebaran AI Hybrid

  • Memahami model penyebaran hybrid, cloud, dan edge
  • Karakteristik beban kerja AI dan keterbatasan infrastruktur
  • Memilih topologi penyebaran yang tepat

Kontainerisasi Beban Kerja AI dengan Docker

  • Membangun kontainer inferensi GPU dan CPU
  • Mengelola gambar yang aman dan registri
  • Implementasi lingkungan yang dapat direproduksi untuk AI

Menyebarluaskan Layanan AI ke Lingkungan Cloud

  • Menjalankan inferensi di AWS, Azure, dan GCP melalui Docker
  • Penyediaan komputasi cloud untuk pelayanan model
  • Mengamankan endpoint AI berbasis cloud

Teknik Penyebaran Edge dan On-Prem

  • Menjalankan AI pada perangkat IoT, gateway, dan mikroservers
  • Runtime yang ringan untuk lingkungan edge
  • Mengelola koneksi yang tidak menentu dan persistensi lokal

Jaringan Hybrid dan Konektivitas Aman

  • Terowongan aman antara edge dan cloud
  • Sertifikat, rahasia, dan akses berbasis token
  • Penyesuaian kinerja untuk inferensi latensi rendah

Orkestrasi Penyebaran AI Terdistribusi

  • Menggunakan K3s, K8s, atau orkestrasi ringan untuk setup hybrid
  • Penemuan layanan dan penjadwalan beban kerja
  • Mengotomatisasi strategi rollout multi-lokasi

Pemantauan dan Observabilitas di Berbagai Lingkungan

  • Melacak kinerja inferensi di berbagai lokasi
  • Log terpusat untuk sistem AI hybrid
  • Deteksi kegagalan dan pemulihan otomatis

Penskalaan dan Optimasi Sistem AI Hybrid

  • Menykalakan cluster edge dan node cloud
  • Mengoptimalkan penggunaan bandwidth dan caching
  • Membalikan beban komputasi antara cloud dan edge

Ringkasan dan Langkah Selanjutnya

Persyaratan

  • Pemahaman tentang konsep kontainerisasi
  • Pengalaman dengan operasi baris perintah Linux
  • Kenalan dengan alur kerja penyebaran model AI

Audience

  • Arsitek infrastruktur
  • Site Reliability Engineers (SREs)
  • Pengembang Edge dan IoT
 21 Jam

Jumlah Peserta


Biaya per Peserta

Testimoni (5)

Kursus Mendatang

Kategori Terkait