Szkolenie AI w Pythonie – aplikacje z LLM, GPT, API OpenAI

Poziom

Średniozaawansowany

Czas

24h / 3 dni

Termin

Indywidualnie

Cena

Indywidualnie

AI w Pythonie – aplikacje z LLM, GPT, API OpenAI

Szkolenie „AI w Pythonie – aplikacje z LLM, GPT, API OpenAI” to intensywny, 2-3 dniowy kurs łączący teorię (20%) z praktycznymi warsztatami (80%), podczas których uczestnicy poznają zasady pracy z dużymi modelami językowymi, w tym GPT, i nauczą się tworzyć własne aplikacje AI oparte o API OpenAI. Kurs pozwala efektywnie integrować modele LLM z aplikacjami Pythonowymi, stosować techniki prompt engineeringu, przetwarzać różnorodne formaty danych oraz wdrażać rozwiązania oparte na bazach wektorowych i systemach Retrieval-Augmented Generation (RAG).

Dla kogo jest to szkolenie?
  • logo infoshare Programistów Python tworzących aplikacje AI z wykorzystaniem API OpenAI i modeli GPT (swoboda w Pythonie, JSON, podstawy HTTP/REST)
  • logo infoshare Specjalistów NLP i data scientistów rozwijających rozwiązania oparte o duże modele językowe
  • logo infoshare Analityków i twórców chatbotów oraz asystentów wykorzystujących LLM w produktach i procesach
  • logo infoshare Osób odpowiedzialnych za automatyzację i usprawnianie procesów z użyciem AI (integracje, prototypowanie, narzędzia)

Czego nauczysz się na tym szkoleniu?

  • Korzystać z API OpenAI i bibliotek Pythona do pracy z LLM i GPT
  • Projektować i testować prompty oraz wyjścia ustrukturyzowane zapewniające stabilną jakość odpowiedzi
  • Budować aplikacje AI – chatboty, asystentów, systemy RAG z bazami wektorowymi
  • Automatyzować zadania z wykorzystaniem podejść agentowych i narzędzi low-code
  • Zapewniać podstawy bezpieczeństwa, kontroli kosztów i obserwowalności rozwiązań LLM
  • Prowadzić ewaluację jakości odpowiedzi i minimalizować halucynacje (test cases, rubryki, pętla feedbacku)

Program szkolenia

Dzień 1: Wprowadzenie do LLM i praca z API OpenAI

 

 

Moduł 1: Podstawy technologii LLM, GPT i OpenAI

  • Definicja LLM i zasada działania modeli typu GPT
  • Przegląd ekosystemu modeli i API: modele OpenAI (rodzina GPT) oraz alternatywy (Claude, Llama, Code Llama) – możliwości i ograniczenia
  • Konfiguracja środowiska pracy: Python, JupyterLab/Notebook, biblioteki open-source, zarządzanie zależnościami
  • Architektura i możliwości API OpenAI: modele, endpointy, limity, formaty odpowiedzi, zarządzanie kluczami
  • Warsztaty: pierwsze zapytania HTTP do API (POST/GET, JSON, REST), obsługa błędów i retry

 

Moduł 2: Prompt Engineering i przetwarzanie danych

  • Techniki projektowania promptów: zero-shot, few-shot, role/system, instrukcje i ograniczenia
  • Iteracyjne doskonalenie promptów: testy, wersjonowanie, kontrola powtarzalności, guardrails
  • Formatowanie i ekstrakcja danych z tekstu: schematy, walidacja, wyjście ustrukturyzowane
  • Praca z różnymi formatami: JSON, transkrypcja audio, treści multimedialne
  • Ćwiczenia: generowanie i ekstrakcja informacji, ocena jakości odpowiedzi, detekcja halucynacji

 

Dzień 2: Budowa aplikacji i zaawansowane funkcje AI

 

 

Moduł 3: Tworzenie aplikacji AI w Pythonie

  • Integracja LLM z aplikacjami Pythonowymi poprzez SDK i REST (OpenAI SDK, REST, requests, frameworki)
  • Programowanie kluczowych komponentów w Pythonie (biblioteki: openai, streamlit, pandas)
  • Wsparcie pracy z kodem przez modele AI: generowanie, refaktoryzacja, code review
  • Budowa prostego chatbota i interaktywnego asystenta z obsługą kontekstu i pamięci rozmowy
  • Wprowadzenie do frameworków FastAPI i Streamlit – udostępnianie funkcji AI jako usług

 

Moduł 4: Zaawansowane techniki – bazy wektorowe i RAG

  • Wprowadzenie do baz wektorowych i wektorowej reprezentacji tekstu (embeddingi)
  • Indeksowanie dokumentów, przechowywanie embeddingów, wyszukiwanie semantyczne i metadane
  • Mechanizm Retrieval-Augmented Generation (RAG) – łączenie wyszukiwania z generatywnym LLM, ograniczanie halucynacji
  • Praktyczne zastosowanie ChromaDB lub innych vector databases
  • Ćwiczenia: implementacja modułu RAG do chatbota, ewaluacja odpowiedzi i poprawa jakości

 

Dzień 3: Automatyzacja, bezpieczeństwo i wdrożenia

 

 

Moduł 5: Automatyzacja procesów i wsparcie AI

  • Automatyzacja z agentami AI: AutoGPT, LangChain, CrewAI – porównanie i przykłady zastosowań
  • Low-code/no-code w integracji LLM do rozszerzenia funkcjonalności (np. Make, Zapier)
  • Automatyzacja pracy z kodem – generowanie, testowanie i review kodu przez LLM
  • Przykłady zastosowań AI w biznesie: marketing, HR, finanse, edukacja
  • Rozwijanie aplikacji AI: implementacja logiki biznesowej, personalizacja na bazie danych użytkownika
  • Warsztaty: konstruowanie prostych automatycznych pipeline’ów AI

 

Moduł 6: Bezpieczeństwo, etyka i wdrożenia produkcyjne

  • Praktyki bezpiecznej pracy z AI i ochrona danych w modelach LLM (ochrona danych, detekcja niepożądanych wyników)
  • Halucynacje i niepożądane wyniki – wykrywanie i minimalizacja
  • Zarządzanie kosztami i monitoring użycia API
  • Przygotowanie do wdrożenia: skalowanie, monitorowanie i analizowanie logów
  • Warsztaty: „Jak model może wygenerować bzdury i jak to zdiagnozować?”
  • Dyskusja i konsultacje: najlepsze praktyki i trendy rozwoju AI

Skontaktuj sie z nami

zorganizujemy dla Ciebie szkolenie dopasowane do Twoich potrzeb

Przemysław Wołosz

Key Account Manager

przemyslaw.wolosz@infoShareAcademy.com

    Administratorem danych osobowych jest InfoShare Academy Sp. z o.o. z siedzibą w Gdańsku, al. Grunwaldzka 427B, 80-309 Gdańsk, KRS: 0000531749, NIP: 5842742213. Dane osobowe przetwarzane są zgodnie z klauzulą informacyjną.