Szkolenie AI w Pythonie – aplikacje z LLM, GPT, API OpenAI

Poziom

Średniozaawansowany

Czas

24h / 3 dni

Termin

Indywidualnie

Cena

Indywidualnie

AI w Pythonie – aplikacje z LLM, GPT, API OpenAI

Szkolenie „AI w Pythonie – aplikacje z LLM, GPT, API OpenAI” to intensywny, 2-3 dniowy kurs łączący teorię (20%) z praktycznymi warsztatami (80%), podczas których uczestnicy poznają zasady pracy z dużymi modelami językowymi, w tym GPT, i nauczą się tworzyć własne aplikacje AI oparte o API OpenAI. Kurs pozwala efektywnie integrować modele LLM z aplikacjami Pythonowymi, stosować techniki prompt engineeringu, przetwarzać różnorodne formaty danych oraz wdrażać rozwiązania oparte na bazach wektorowych i systemach Retrieval-Augmented Generation (RAG).

Dla kogo jest to szkolenie?
  • logo infoshare Programistów Python chcących tworzyć aplikacje AI z wykorzystaniem API OpenAI i modeli GPT
  • logo infoshare Specjalistów NLP i data scientistów zainteresowanych pracą z dużymi modelami językowymi
  • logo infoshare Analityków i twórców chat botów oraz asystentów głosowych wykorzystujących LLM
  • logo infoshare Osób odpowiedzialnych za automatyzację i usprawnianie procesów z użyciem AI

Czego nauczysz się na tym szkoleniu?

  • Efektywnie korzystać z API OpenAI i bibliotek Pythona do obsługi LLM i GPT
  • Tworzyć i optymalizować prompt’y zapewniające wysoką jakość generowanych odpowiedzi
  • Budować aplikacje AI – chatboty, asystentów, systemy RAG z bazami wektorowymi
  • Automatyzować zadania z wykorzystaniem agentów AI i narzędzi low-code
  • Zapewniać bezpieczeństwo i skalowalność rozwiązań AI w środowisku produkcyjnym

Program szkolenia

 

Dzień 1: Wprowadzenie do LLM i praca z API OpenAI

 

Moduł 1: Podstawy technologii LLM, GPT i OpenAI

  • Czym są LLM i jak działają modele typu GPT?
  • Przegląd ekosystemu API OpenAI: możliwości i ograniczenia ( GPT-3/GPT-4, Claude, LLaMA, CodeLlama)
  • Konfiguracja środowiska pracy: JupyterLab, Python, biblioteki open-source
  • Rola i możliwości API OpenAI: główne funkcje, ograniczenia, modele i endpointy
  • Warsztaty: pierwsze zapytania HTTP do API (POST/GET, JSON, REST)

 

Moduł 2: Prompt Engineering i przetwarzanie danych

  • Techniki tworzenia efektywnych promptów: zero-shot, few-shot, chain-of-thought
  •  Iteracyjne doskonalenie promptów, prompt negotiation i kontrola wyników
  • Formatowanie i ekstrakcja danych z tekstów – przygotowanie wejścia i interpretacja wyników
  • Praca z różnymi formatami: JSON, audio-transkrypcja, treści multimedialne
  • Ćwiczenia: generowanie i ekstrakcja informacji, analiza i ocena jakości odpowiedzi

 

Dzień 2: Budowa aplikacji i zaawansowane funkcje AI

 

Moduł 3: Tworzenie aplikacji AI w Pythonie

  • Integracja modeli LLM z aplikacjami Pythonowymi poprzez API (OpenAI SDK, REST, equests, frameworki)
  •  Programowanie kluczowych komponentów w Pythonie (biblioteki: openai, streamlit, pandas)
  •  Generowanie, analiza i refaktoryzacja kodu za pomocą modeli AI (Code asistant, code review)
  • Budowa prostego chatbota i interaktywnego asystenta  z obsługą kontekstu i długoterminowych rozmów
  • Wprowadzenie do frameworków FastAPI i Streamlit – udostępnianie modeli jako usług

Moduł 4: Zaawansowane techniki – bazy wektorowe i RAG

  • Wprowadzenie do baz wektorowych i wektorowej reprezentacji tekstu
  •  Indeksowanie dokumentów, przechowywanie wektorów, wyszukiwanie kontekstowe
  • Mechanizmy Retrieval-Augmented Generation (RAG) – łączenie wyszukiwania z generatywnym LLM
  • Praktyczne zastosowanie ChromaDB lub innych vector databases
  • Ćwiczenia: implementacja modułu RAG do chatbota i usprawnienie odpowiedzi

 

Dzień 3: Automatyzacja, bezpieczeństwo i wdrożenia

 

Moduł 5: Automatyzacja procesów i wsparcie AI

  • Automatyzacja z agentami AI: AutoGPT, LangChain, CrewAI – porównanie i przykłady zastosowań
  • Low-code/no-code w integracji LLM do rozszerzenia funkcjonalności (np. Make, Zapier)
  • Automatyzacja pracy z kodem – generowanie, testowanie i review kodu przez LLM
  • Przykłady zastosowań AI w biznesie: marketing, HR, finanse, edukacja
  •  Rozwijanie aplikacji AI: implementacja logiki biznesowej, personalizacja na bazie danych użytkownika
  • Warsztaty: konstruowanie prostych automatycznych pipeline’ów AI

Moduł 6: Bezpieczeństwo, etyka i wdrożenia produkcyjne

  • Praktyki bezpiecznej pracy z AI i ochrona danych w modelach LLM (ochrona danych, detekcjav niepożądanych wyników)
  • Halucynacje i niepożądane wyniki – jak je wykrywać i minimalizować
  • Zarządzanie kosztami i monitoring użycia API
  • Przygotowanie do wdrożenia: skalowanie, monitorowanie i analizowanie logów
  • Warsztaty: „Jak model może wygenerować bzdury i jak to zdiagnozować?”
  • Dyskusja i konsultacje: najlepsze praktyki i trendy rozwoju AI

Skontaktuj sie z nami

zorganizujemy dla Ciebie szkolenie dopasowane do Twoich potrzeb

Przemysław Wołosz

Key Account Manager

przemyslaw.wolosz@infoShareAcademy.com

    Administratorem danych osobowych jest InfoShare Academy Sp. z o.o. z siedzibą w Gdańsku, al. Grunwaldzka 427B, 80-309 Gdańsk, KRS: 0000531749, NIP: 5842742121. Dane osobowe przetwarzane są zgodnie z klauzulą informacyjną.