Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Training Course
Fine-Tuning untuk Sistem Generasi yang Ditingkatkan dengan Penyandian (RAG) adalah proses optimalisasi cara model bahasa besar mengambil dan menghasilkan informasi relevan dari sumber eksternal untuk aplikasi perusahaan.
Pelatihan ini dipimpin oleh instruktur (daring atau di tempat) ditujukan bagi insinyur NLP tingkat menengah dan tim manajemen pengetahuan yang ingin menyetel ulang pipa RAG untuk meningkatkan kinerja dalam kasus penggunaan jawaban pertanyaan, pencarian perusahaan, dan ringkasan.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti arsitektur dan alir kerja sistem RAG.
- Menyetel ulang komponen pengambil dan pembuat untuk data spesifik domain.
- Mengevaluasi kinerja RAG dan menerapkan peningkatan melalui teknik PEFT.
- Mengimplementasikan sistem RAG yang dioptimalkan untuk penggunaan internal atau produksi.
Format Kursus
- Lecture interaktif dan diskusi.
- Banyak latihan dan praktik.
- Pelaksanaan hands-on dalam lingkungan laboratorium langsung.
Opsi Pemaduan Kursus
- Untuk meminta pelatihan yang disesuaikan untuk kursus ini, silakan hubungi kami untuk mengatur.
Course Outline
Pengantar Retrieval-Augmented Generation (RAG)
- Apa itu RAG dan mengapa hal ini penting untuk AI perusahaan
- Komponen dari sistem RAG: retriever, generator, penyimpanan dokumen
- Perbandingan dengan LLM standalone dan pencarian vektor
Mengatur Pipa RAG
- Instalasi dan konfigurasi Haystack atau kerangka kerja serupa
- Pemasukan dan pra-pemrosesan dokumen
- Menghubungkan retriever ke basis data vektor (mis., FAISS, Pinecone)
Fine-Tuning Retriever
- Menyusun retriever padat menggunakan data domain-specific
- Menggunakan sentence transformers dan pembelajaran kontras
- Evaluasi kualitas retriever dengan akurasi top-k
Fine-Tuning Generator
- Pemilihan model dasar (mis., BART, T5, FLAN-T5)
- Penyetelan instruksi vs. penyetelan pengawasan
- Metode LoRA dan PEFT untuk pembaruan efisien
Evaluasi dan Optimasi
- Metriks untuk mengevaluasi kinerja RAG (mis., BLEU, EM, F1)
- Lantai waktu, kualitas penelusuran, dan pengurangan halusinasi
- Pencatatan eksperimen dan perbaikan iteratif
Implementasi dan Integrasi Dunia Nyata
- Menerapkan RAG di mesin pencarian internal dan chatbot
- Kebijakan keamanan, akses data, dan pengaturan
- Integrasi dengan API, dasbor, atau portal pengetahuan
Studi Kasus dan Praktik Terbaik
- Kasus penggunaan perusahaan di bidang keuangan, kesehatan, dan hukum
- Pengelolaan drift domain dan pembaruan basis pengetahuan
- Arah masa depan dalam sistem LLM yang ditingkatkan dengan penelusuran
Ringkasan dan Langkah Berikutnya
Requirements
- Pemahaman tentang konsep pemrosesan bahasa alami (NLP)
- Pengalaman dengan model bahasa berbasis transformer
- Ketahui Python dan alur kerja pembelajaran mesin dasar
Audience
- Insinyur NLP
- Tim manajemen pengetahuan
Open Training Courses require 5+ participants.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Training Course - Booking
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Training Course - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses (Minimal 5 peserta)
Related Courses
Advanced Techniques in Transfer Learning
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk profesional pembelajaran mesin tingkat lanjut yang ingin menguasai teknik pembelajaran transfer mutakhir dan menerapkannya pada masalah dunia nyata yang kompleks.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami konsep dan metodologi lanjutan dalam pembelajaran transfer.
- Menerapkan teknik adaptasi spesifik domain untuk model yang telah dilatih sebelumnya.
- Terapkan pembelajaran berkelanjutan untuk mengelola tugas dan kumpulan data yang terus berkembang.
- Kuasai penyempurnaan multitugas untuk meningkatkan kinerja model di seluruh tugas.
Deploying Fine-Tuned Models in Production
21 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk profesional tingkat lanjut yang ingin menerapkan model yang disetel dengan baik secara andal dan efisien.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami tantangan dalam menerapkan model yang disesuaikan ke dalam produksi.
- Kontainerisasi dan terapkan model menggunakan alat seperti Docker dan Kubernetes.
- Terapkan pemantauan dan pencatatan untuk model yang diterapkan.
- Optimalkan model untuk latensi dan skalabilitas dalam skenario dunia nyata.
Domain-Specific Fine-Tuning for Finance
21 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di tempat) ini ditujukan untuk profesional tingkat menengah yang ingin memperoleh keterampilan praktis dalam menyesuaikan model AI untuk tugas keuangan penting.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami dasar-dasar penyempurnaan untuk aplikasi keuangan.
- Memanfaatkan model yang telah dilatih sebelumnya untuk tugas-tugas spesifik domain dalam keuangan.
- Terapkan teknik untuk deteksi penipuan, penilaian risiko, dan pembuatan saran keuangan.
- Pastikan kepatuhan terhadap peraturan keuangan seperti GDPR dan SOX.
- Terapkan keamanan data dan praktik AI yang etis dalam aplikasi keuangan.
Fine-Tuning Models and Large Language Models (LLMs)
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk profesional tingkat menengah hingga tingkat lanjut yang ingin menyesuaikan model terlatih untuk tugas dan kumpulan data tertentu.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami prinsip fine-tuning dan penerapannya.
- Siapkan kumpulan data untuk menyempurnakan model yang telah dilatih sebelumnya.
- Menyempurnakan model bahasa besar (LLM) untuk tugas NLP.
- Mengoptimalkan kinerja model dan mengatasi tantangan umum.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (online atau di tempat) ini ditujukan untuk pengembang tingkat menengah dan praktisi AI yang ingin menerapkan strategi penyempurnaan untuk model besar tanpa memerlukan sumber daya komputasi yang besar.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami prinsip Adaptasi Tingkat Rendah (LoRA).
- Terapkan LoRA untuk penyempurnaan model besar yang efisien.
- Mengoptimalkan penyempurnaan untuk lingkungan dengan keterbatasan sumber daya.
- Mengevaluasi dan menerapkan model yang disesuaikan LoRA untuk aplikasi praktis.
Fine-Tuning Multimodal Models
28 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk profesional tingkat lanjut yang ingin menguasai penyempurnaan model multimoda untuk solusi AI yang inovatif.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami arsitektur model multimoda seperti CLIP dan Flamingo.
- Menyiapkan dan memproses terlebih dahulu kumpulan data multimoda secara efektif.
- Menyempurnakan model multimoda untuk tugas tertentu.
- Mengoptimalkan model untuk aplikasi dan kinerja dunia nyata.
Fine-Tuning for Natural Language Processing (NLP)
21 HoursPelatihan langsung yang dipandu instruktur dalam Indonesia (online atau di tempat) ini ditujukan untuk profesional tingkat menengah yang ingin meningkatkan proyek NLP mereka melalui penyempurnaan model bahasa yang telah dilatih sebelumnya secara efektif.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami dasar-dasar penyempurnaan untuk tugas-tugas NLP.
- Menyempurnakan model yang telah dilatih sebelumnya seperti GPT, BERT, dan T5 untuk aplikasi NLP tertentu.
- Optimalkan hiperparameter untuk meningkatkan kinerja model.
- Mengevaluasi dan menerapkan model yang disempurnakan pada skenario dunia nyata.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk peneliti AI tingkat lanjut, insinyur pembelajaran mesin, dan pengembang yang ingin menyempurnakan model DeepSeek LLM untuk membuat aplikasi AI khusus yang disesuaikan dengan industri, domain, atau kebutuhan bisnis tertentu.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami arsitektur dan kemampuan model DeepSeek, termasuk DeepSeek-R1 dan DeepSeek-V3.
- Menyiapkan himpunan data dan melakukan praproses data untuk penyempurnaan.
- Sempurnakan DeepSeek LLM untuk aplikasi spesifik domain.
- Optimalkan dan terapkan model yang disesuaikan secara efisien.
Fine-Tuning Large Language Models Using QLoRA
14 HoursPelatihan berorientasi instruktur ini di Indonesia (daring atau tatap muka) ditujukan untuk insinyur pembelajaran mesin tingkat menengah hingga lanjutan, pengembang AI, dan ilmuwan data yang ingin belajar cara menggunakan QLoRA untuk mengoptimalkan model besar secara efisien untuk tugas spesifik dan kustomisasi.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti teori di balik QLoRA dan teknik kuantifikasi untuk LLM (Large Language Models).
- Melaksanakan QLoRA dalam pengoptimalan model bahasa besar untuk aplikasi spesifik domain.
- Memaksimalkan performa pengoptimalan pada sumber daya komputasional terbatas menggunakan kuantifikasi.
- Mengimplementasikan dan mengevaluasi model yang dioptimalkan dalam aplikasi dunia nyata secara efisien.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan untuk praktisi ML tingkat menengah dan pengembang AI yang ingin memperhalus dan mendeploy model open-weight seperti LLaMA, Mistral, dan Qwen untuk aplikasi bisnis atau internal tertentu.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti ekosistem dan perbedaan antara LLM sumber terbuka.
- Mempersiapkan dataset dan konfigurasi pemulusan untuk model seperti LLaMA, Mistral, dan Qwen.
- Mengeksekusi pipa pemulusan menggunakan Hugging Face Transformers dan PEFT.
- Menilai, menyimpan, dan mendeploy model yang telah dipermulus dalam lingkungan yang aman.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 HoursInstruksi langsung ini dalam Indonesia (daring atau tatap muka) ditujukan untuk insinyur pembelajaran mesin tingkat lanjut dan peneliti AI yang ingin menerapkan RLHF untuk menyetel model AI besar dengan kinerja, keselamatan, dan sinkronisasi yang lebih baik.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti dasar teoritis dari RLHF dan mengapa hal itu penting dalam pengembangan AI modern.
- Menerapkan model reward berdasarkan umpan balik manusia untuk memandu proses pembelajaran reforisasi.
- Menyetel model bahasa besar menggunakan teknik RLHF untuk menyinkronkan output dengan preferensi manusia.
- Menerapkan praktik terbaik untuk menskalakan alur kerja RLHF untuk sistem AI bergrade produksi.
Fine-Tuning Vision-Language Models (VLMs)
14 HoursThis instructor-led, live training in Indonesia (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk para profesional tingkat lanjut yang ingin menguasai teknik untuk mengoptimalkan model besar guna melakukan penyempurnaan dengan biaya yang efektif dalam skenario dunia nyata.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami tantangan dalam menyempurnakan model besar.
- Terapkan teknik pelatihan terdistribusi ke model besar.
- Memanfaatkan kuantisasi dan pemangkasan model untuk efisiensi.
- Mengoptimalkan pemanfaatan perangkat keras untuk tugas-tugas penyempurnaan.
- Terapkan model yang disempurnakan secara efektif di lingkungan produksi.
Prompt Engineering and Few-Shot Fine-Tuning
14 HoursPelatihan langsung yang dipandu instruktur di Indonesia (online atau di tempat) ini ditujukan untuk profesional tingkat menengah yang ingin memanfaatkan kekuatan rekayasa cepat dan pembelajaran beberapa langkah untuk mengoptimalkan kinerja LLM untuk aplikasi di dunia nyata.
Pada akhir pelatihan ini, peserta akan dapat:
- Memahami prinsip rekayasa cepat dan pembelajaran beberapa langkah.
- Rancang perintah yang efektif untuk berbagai tugas NLP.
- Memanfaatkan teknik few-shot untuk mengadaptasi LLM dengan data minimal.
- Mengoptimalkan kinerja LLM untuk aplikasi praktis.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 HoursPelatihan langsung yang dipimpin instruktur di Indonesia (daring atau tatap muka) ini ditujukan bagi ilmuwan data dan insinyur AI tingkat menengah yang ingin mengoptimalkan penyetelan model bahasa besar dengan lebih efisien dan ekonomis menggunakan metode seperti LoRA, Adapter Tuning, dan Prefix Tuning.
Selesai pelatihan ini, peserta akan dapat:
- Mengerti teori di balik pendekatan penyetelan parameter-efisien.
- Menerapkan LoRA, Adapter Tuning, dan Prefix Tuning menggunakan Hugging Face PEFT.
- Membandingkan kinerja dan trade-off biaya metode PEFT dengan penyetelan penuh.
- Mengimplementasikan dan menyebarluaskan model bahasa yang telah disetel ulang dengan persyaratan komputasi dan penyimpanan yang lebih rendah.