Ograniczenia modeli AI: wiedza, błędy i bezpieczeństwo LLMData scientists
Poziom
PodstawowyCzas
3 godzinyTermin
IndywidualnieCena
IndywidualnieOgraniczenia modeli AI: wiedza, błędy i bezpieczeństwo LLM
Modele językowe (LLM) oferują ogromne możliwości, ale mają również istotne ograniczenia. Webinar pokazuje, jak działa wiedza modeli AI, jakie są różnice między różnymi modelami LLM oraz jakie podatności i ryzyka bezpieczeństwa mogą występować w systemach opartych na GenAI
Dla kogo jest ten webinar?
Software engineers
AI engineers
Data scientists
Tech leads
Czego nauczysz się na tym webinarze?
jak działa wiedza modeli AI
jakie są ograniczenia modeli GenAI
jakie są różnice między popularnymi modelami LLM
jak identyfikować podatności bezpieczeństwa
jak weryfikować jakość odpowiedzi AI
Agenda webinaru
- Architektura Transformerów: co modele „rozumieją”, a co tylko przewidują
- Zjawisko halucynacji: dlaczego AI kłamie z dużą pewnością siebie
- Kontekst i Tokeny: ograniczenia „pamięci” modeli i ich wpływ na wyniki
- Prompt Injection: nowe wektory ataków na aplikacje zintegrowane z LLM
- Bias i etyka: jak uprzedzenia modeli wpływają na decyzje biznesowe
- Ewaluacja modeli: jak mierzyć jakość odpowiedzi w sposób powtarzalny
- Q&A