Szkolenie Optymalizacja modeli Machine Learning i AI

Poziom

Zaawansowany

Czas

24h / 3 dni

Termin

Indywidualnie

Cena

Indywidualnie

Szkolenie Optymalizacja modeli Machine Learning i AI

Szkolenie „Optymalizacja modeli Machine Learning i AI” to praktyczny, 3 dniowy kurs, który koncentruje się na usprawnianiu wydajności i efektywności modeli uczenia maszynowego w trakcie ich treningu i inferencji. Uczestnicy poznają techniki takie jak kwantyzacja, pruning, mixed-precision training oraz narzędzia przyspieszające działanie modeli, w tym ONNX, TensorRT i Triton. Program łączy 80% praktycznych warsztatów z 20% wprowadzenia teoretycznego, pozwalając na zdobycie umiejętności optymalizacji modeli uczenia maszynowego z domeny Computer Vision, Natural Language Processing oraz modeli LLM/SLM, z uwzględnieniem zastosowań na urządzeniach brzegowych i w środowiskach produkcyjnych.

Dla kogo jest to szkolenie?
  • logo infoshare Data scientistów i inżynierów uczenia maszynowego z doświadczeniem w projektach ML (podstawy treningu modeli, praca z frameworkiem typu PyTorch/TensorFlow)
  • logo infoshare Specjalistów odpowiedzialnych za uruchamianie modeli w środowiskach o ograniczonych zasobach (edge, mobile, embedded) oraz optymalizację inferencji
  • logo infoshare Osób pracujących z dużymi modelami językowymi i wizji komputerowej, które chcą poprawić wydajność i koszt inferencji przy kontrolowanej jakości
  • logo infoshare Inżynierów ML chcących poznać zaawansowane techniki treningu i inferencji oraz metody oceny kompromisów jakość–wydajność–koszt

Czego nauczysz się na szkoleniu?

  • Doboru i zastosowania technik optymalizacji modeli ML i modeli głębokich (kwantyzacja, pruning, mixed precision) wraz z oceną kompromisów jakości i wydajności
  • Benchmarkingu treningu i inferencji oraz porównywania wariantów modeli na podstawie metryk (latencja, throughput, pamięć, koszt, metryki jakości)
  • Kompresji i adaptacji modeli do uruchomień na urządzeniach brzegowych oraz w środowiskach o ograniczonych zasobach
  • Wykorzystania narzędzi ONNX, TensorRT i Triton do przygotowania i przyspieszania inferencji oraz integracji z popularnymi bibliotekami i pipeline’ami
  • Projektowania powtarzalnego workflow optymalizacji (artefakty, konfiguracje, testy regresji jakości) do dalszej integracji w środowisku organizacji

Program szkolenia

Dzień 1: Podstawy optymalizacji i zaawansowane środowiska pracy

 

Moduł 1: Wprowadzenie do optymalizacji modeli ML i AI

  • Potrzeby i cele optymalizacji w różnych etapach modelowania
  • Przegląd technik: kwantyzacja, pruning, mixed-precision training
  • Optymalizacja potoków danych – wczytywanie i augmentacja
  • Zwinne zarządzanie cyklem życia modelu pod kątem optymalizacji (benchmarking, ewaluacja)

 

Moduł 2: Potoki danych i zarządzanie przepływem danych

  • Automatyzacja wczytywania, preprocessing i augmentacja z myślą o wydajności
  • Praktyka: testy i tuning potoków augmentacyjnych
  • Walidacja jakości i efektywności danych w kontekście treningu modelu

 

Moduł 3: Technologie i narzędzia wspierające optymalizację

  • ONNX – standard wymiany i przyspieszenia modeli
  • Frameworki do przyspieszania inferencji: TensorRT, Triton
  • Integracja z popularnymi bibliotekami (PyTorch, TensorFlow)
  • Warsztaty praktyczne: przygotowanie modelu do optymalizacji

 

 

Dzień 2: Techniki optymalizacyjne i praktyczne wdrożenia

 

Moduł 4: Praktyki optymalizacji procesu treningu

  • Trening z mieszanymi precyzjami – jak zmniejszyć zapotrzebowanie na zasoby
  • Akumulacja gradientów i trening rozproszony
  • Dobór i tuning hiperparametrów pod kątem optymalizacji

 

Moduł 5: Kompresja i adaptacja modeli po treningu

  • Kwantyzacja i pruning modeli – metody i zastosowania
  • Formaty modeli zoptymalizowane pod względem wydajności i pamięci
  • Sposoby uruchamiania zoptymalizowanych modeli na urządzeniach brzegowych (edge devices)
  • Case study: optymalizacja dużych modeli językowych oraz modeli wizji komputerowej
  • Benchmarking i testy regresji jakości po kompresji

 

 

Dzień 3: Optymalizacja w produkcji i skalowanie

 

Moduł 6: Zastosowanie optymalizacji w środowiskach produkcyjnych

  • Specyfika optymalizacji dużych modeli językowych (LLM) oraz modeli CV
  • Uruchamianie zoptymalizowanych modeli w chmurze i on-premise
  • Monitorowanie wydajności, diagnostyka i analiza problemów przy inferencji
  • Praktyczna analiza kosztów i wydajności: studium przypadków
  • Skalowanie i zarządzanie modelami AI na dużą skalę

 

Moduł 7: Najlepsze praktyki i trendy w optymalizacji AI

  • Monitorowanie zużycia zasobów i automatyzacja skalowania
  • Diagnostyka i awaryjne scenariusze – troubleshooting po wdrożeniu
  • Narzędzia do automatycznego benchmarkingu oraz testów modeli po aktualizacjach
  • Trendy w optymalizacji dużych modeli i rola algorytmów adaptacyjnych
  • Dyskusja i wymiana doświadczeń uczestników

 

Skontaktuj sie z nami

zorganizujemy dla Ciebie szkolenie dopasowane do Twoich potrzeb

Przemysław Wołosz

Key Account Manager

przemyslaw.wolosz@infoShareAcademy.com

    Administratorem danych osobowych jest InfoShare Academy Sp. z o.o. z siedzibą w Gdańsku, al. Grunwaldzka 427B, 80-309 Gdańsk, KRS: 0000531749, NIP: 5842742213. Dane osobowe przetwarzane są zgodnie z klauzulą informacyjną.