Szkolenie Retrieval Augmented Generation (RAG) z LangChain – praktyczne wdrożenie
Poziom
ŚredniozaawansowanyCzas
24h / 3 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie Retrieval Augmented Generation (RAG) z LangChain – praktyczne wdrożenie
Szkolenie „Retrieval Augmented Generation (RAG) z LangChain” to 2-3 dniowy, intensywny kurs warsztatowy, który wprowadza uczestników w praktyczne budowanie systemów RAG – zaawansowanych aplikacji łączących wyszukiwanie informacji z generatywnym modelem językowym. Uczestnicy nauczą się kompletnego procesu tworzenia takich rozwiązań: od przygotowania danych, przez ich indeksację w wektorowych bazach, po integrację z modelami LLM za pomocą biblioteki LangChain. Dzięki 80% zajęć warsztatowych nabędą realne umiejętności konstrukcji aplikacji RAG, znacząco ograniczając efekt halucynacji i poprawiając jakość odpowiedzi AI.
Dla kogo jest to szkolenie?
Programistów i inżynierów AI chcących budować aplikacje typu RAG
Data scientistów i specjalistów NLP integrujących LLM z własnymi źródłami danych
Analityków i deweloperów zainteresowanych praktyczną automatyzacją dostępu do wiedzy
Architektów systemów pragnących poznać nowoczesne podejścia do łączenia wyszukiwania i generowania
Czego nauczysz się na tym szkoleniu?
- Kompleksowo przygotowywać dane i tworzyć indeksy dla systemów RAG
- Projektować i implementować łańcuchy Retrieval-Augmented Generation z LangChain
- Poznasz zaawansowane techniki chunkingu, embeddingu oraz retrieval
- Tworzyć wydajne systemy Q&A i chatboty oparte o własne źródła danych
- Optymalizować promptowanie i zarządzać kontekstem konwersacji
- Budować skalowalne i bezpieczne rozwiązania RAG gotowe do wdrożenia produkcyjnego
Program szkolenia
Dzień 1: Wprowadzenie i przygotowanie danych do RAG
Moduł 1: Podstawy Retrieval Augmented Generation
- Idea i zalety RAG w porównaniu do klasycznego generowania tekstu
- Omówienie architektury RAG: indeksowanie, wyszukiwanie i generowanie
- Architektura systemów RAG: komponenty, przepływ danych, główne zalety
- Wprowadzenie do biblioteki LangChain i jej komponentów wspierających RAG
Moduł 2: Przygotowanie oraz indeksacja danych
- Ładowanie dokumentów i podział na fragmenty (chunking) – narzędzia i techniki
- Tworzenie i wykorzystanie embedingów – modelowanie tekstu do przestrzeni wektorowej
- Implementacja VectorStore do przechowywania i wyszukiwania wektorowego danych
- Integracja danych z różnego typu źródeł (np. kod Python, HTML, PDF)
- Warsztaty: indeksacja własnych dokumentów i testy wyszukiwania
Dzień 2: Budowa, integracja i tuning łańcucha RAG
Moduł 3: Konstrukcja pipeline’u Retrieval + Generation w LangChain
- Implementacja retrieverów o różnych parametrach (dense/sparse), omówienie algorytmów takich jak BM25
- Tworzenie komponentów retrievera i generatywnego modelu językowego (LLM)
- Składanie łańcucha RAG z wyszukiwania i promptowania LLM
- Praktyczna implementacja gotowego systemu RAG na przykładzie prostego Q&A
- Użycie LangGraph do orkiestracji procesu i zarządzania stanem aplikacji
Moduł 4: Optymalizacja i personalizacja łańcucha
- Dopasowanie promptów oraz zarządzanie kontekstem, zarządzanie limitem tokenów
- Dodawanie wsparcia dla konwersacyjnego historycznego kontekstu użytkownika
- Techniki ograniczania halucynacji oraz zapewnienia spójności odpowiedzi AI
- Warsztaty: tuning pipeline’u i rozbudowa o logikę warunkową
Dzień 3: Zaawansowane zastosowania i wdrożenia w produkcji
Moduł 5: Realizacja aplikacji RAG w środowisku produkcyjnym
- Budowa API i frontendu do aplikacji RAG (np. z Flask/FastAPI)
- Praca z multimodalnymi danymi (np. pliki PDF, obrazy) w RAG
- Zabezpieczenia, monitorowanie oraz skalowanie systemu RAG. Ochrona przed halucynacjami i biasem – weryfikacja odpowiedzi i safeguarding
- Praktyczny projekt: implementacja i testowanie aplikacji RAG w wybranym scenariuszu
Moduł 6: Narzędzia wspierające i przyszłość RAG z LangChain
- Integracja LangGraph i LangSmith do debugowania i audytu workflowów
- Automatyzacje i funkcje human-in-the-loop dla kontrolowanej generacji
- Przegląd trendów i nowych możliwości RAG w ekosystemie AI
- Podsumowanie, konsultacje i plan dalszego rozwoju umiejętności