Szkolenie Introduction to Deep Learning with PyTorch
Poziom
PodstawowyCzas
24h / 3 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie Introduction to Deep Learning with PyTorch
Szkolenie „Introduction to Deep Learning with PyTorch” to intensywny, 2-3 dniowy kurs skierowany do osób, które chcą poznać praktyczne podstawy głębokiego uczenia maszynowego z wykorzystaniem popularnego frameworku PyTorch. Kurs łączy teorię (20%) z licznymi ćwiczeniami warsztatowymi (80%), dzięki czemu uczestnicy nabędą niezbędne umiejętności tworzenia, trenowania i testowania modeli neuronowych od podstaw. Zajęcia obejmują kluczowe zagadnienia takie jak budowa sieci, praca z danymi, wykorzystanie tensorów oraz optymalizacja procesu uczenia.
Dla kogo jest to szkolenie?
Początkujących programistów i data scientistów z podstawami Pythona, chcących poznać deep learning
Osób planujących budować rozwiązania AI z użyciem PyTorch (na poziomie PoC/prototypu)
Analityków i inżynierów danych, którzy chcą rozwinąć kompetencje w ML i pracy z modelami neuronowymi
Specjalistów IT i badaczy zainteresowanych trenowaniem, oceną i porównywaniem modeli neuronowych
Czego nauczysz się na tym szkoleniu?
- Budować i trenować modele głębokich sieci neuronowych w PyTorch (torch.nn, autograd)
- Zarządzać danymi i przygotowywać je do uczenia (Dataset, DataLoader, batching, podział train/val/test, kontrola data leakage)
- Optymalizować i monitorować trening (funkcje straty, optymalizatory, metryki, logowanie i wizualizacja)
- Stosować transfer learning i fine-tuning modeli pretrenowanych oraz kontrolować overfitting
- Przygotowywać model do użycia w aplikacji na poziomie prototypu (zapis/wczytanie, eksport TorchScript/ONNX, podstawy przyspieszania inferencji)
- Samodzielny pipeline eksperymentów: powtarzalność, analiza błędów, podstawy odpowiedzialnego użycia (bias, prywatność danych)
Program szkolenia
Dzień 1: Podstawy PyTorch i wprowadzenie do deep learningu
Moduł 1: Wprowadzenie do PyTorch i praca z tensorami
- PyTorch: charakterystyka, zastosowania i miejsce w ekosystemie
- PyTorch vs TensorFlow – krótki przegląd i wybór frameworków
- Biblioteka PyTorch: przegląd API i kluczowe zalety
- Tensory: inicjalizacja, operacje i manipulacje
- GPU w PyTorch: akceleracja obliczeń i wykorzystanie zasobów sprzętowych
- Pipeline danych do uczenia: podstawy
Moduł 2: Budowa i trenowanie prostych modeli neuronowych
- Sieci neuronowe: architektura i podstawowe pojęcia deep learningu
- Modele w PyTorch: definicja, warstwy i funkcje aktywacji
- Pętla treningowa: struktura, optymalizacja i kontrola przebiegu uczenia
- Parametry modelu: inicjalizacja oraz backpropagation
- Własna sieć: definicja warstw, funkcje aktywacji, forward pass
- Ćwiczenia praktyczne: klasyfikator i trening modelu
Dzień 2: Zaawansowane techniki i praca z danymi
Moduł 3: Zarządzanie danymi i przygotowanie zbiorów treningowych
- Zestawy danych: Dataset, DataLoader, definicja i ładowanie
- Augmentacja i podział danych na zbiór treningowy i testowy
- Wizualizacja i analiza danych wejściowych
- Warsztaty: niestandardowy zbiór danych do trenowania
Moduł 4: Optymalizacja i monitorowanie modelu
- Dobór funkcji straty i optymalizatorów
- Regularizacja, early stopping i kontrola przeuczenia
- Debugowanie modeli i analiza błędów – typowe pułapki i diagnostyka
- TensorBoard i narzędzia wizualizacji: krótkie wprowadzenie
- Zapis i odtwarzanie modelu (checkpointing)
- Monitorowanie metryk i wizualizacja wyników treningu
- Overfitting: dropout, early stopping, regularyzacja L2
- Ewaluacja modelu: zbiory walidacyjne, metryki accuracy/F1-score
Dzień 3: Praktyczne projekty i transfer learning
Moduł 5: Transfer learning i fine-tuning
- Modele pretrenowane w PyTorch: zastosowanie w nowych zadaniach
- Adaptacja modeli i trening warstw końcowych
- Zastosowania: klasyfikacja obrazów oraz NLP
- Funkcje straty (MSE, CrossEntropy) i optymalizatory (SGD, Adam)
- Hiperparametry: learning rate, liczba epok, batch size
- Praktyczne zadania: adaptacja modelu pretrenowanego do własnego problemu
Moduł 6: Deployment i skalowanie modeli
- Użycie modelu w praktyce: eksport, wersjonowanie i powtarzalność inferencji
- Integracja modeli z aplikacjami Python: podstawy
- Optymalizacja i przyspieszanie inferencji: narzędzia i podejścia
- Projekt praktyczny: miniaplikacja AI z inferencją własnego modelu