Course Outline

Pengantar ke Reinforcement Learning dari Umpan Balik Manusia (RLHF)

  • Apa itu RLHF dan mengapa hal tersebut penting
  • Perbandingan dengan metode fine-tuning berbasis pengawasan
  • Aplikasi RLHF dalam sistem AI modern

Pemodelan Hadiah dengan Umpan Balik Manusia

  • Mengumpulkan dan mengstrukturkan umpan balik manusia
  • Membangun dan melatih model hadiah
  • Evaluasi efektivitas model hadiah

Latihan dengan Optimisasi Kebijakan Proksimal (PPO)

  • Ringkasan algoritma PPO untuk RLHF
  • Melaksanakan PPO dengan model hadiah
  • Mengoptimalkan model secara iteratif dan aman

Aplikasi Praktis Model Bahasa

  • Menyiapkan dataset untuk alur kerja RLHF
  • Praktek fine-tuning LLM kecil menggunakan RLHF
  • Tantangan dan strategi mitigasi

Meningkatkan Skala RLHF ke Sistem Produksi

  • Pertimbangan infrastruktur dan komputasi
  • Penjaminan kualitas dan siklus umpan balik berkelanjutan
  • Praktik terbaik untuk implementasi dan pemeliharaan

Pertimbangan Etika dan Mitigasi Bias

  • Mengatasi risiko etika dalam umpan balik manusia
  • Stra tegi deteksi dan koreksi bias
  • Menjamin aliansi dan output aman

Studi Kasus dan Contoh Nyata

  • Studi kasus: Fine-tuning ChatGPT dengan RLHF
  • Penerapan RLHF yang sukses lainnya
  • Lessons learned dan wawasan industri

Rangkuman dan Langkah Selanjutnya

Requirements

  • Pemahaman tentang dasar-dasar pembelajaran bersupervisi dan pembelajaran berincentif
  • Pengalaman dengan penyetelan model dan arsitektur jaringan saraf
  • Ketahui tentang Python pemrograman dan kerangka kerja pembelajaran dalam (misalnya, TensorFlow, PyTorch)

Audience

  • Insinyur Machine Learning
  • Peneliti AI
 14 Hours

Number of participants


Price per participant

Upcoming Courses (Minimal 5 peserta)

Related Categories