Szkolenie z TensorFlow Lite
Poziom
ZaawansowanyCzas
16h / 2 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie z TensorFlow Lite
Szkolenie z TensorFlow Lite to intensywny, dwudniowy kurs, który koncentruje się na praktycznym zastosowaniu TensorFlow Lite do wdrażania modeli AI na urządzeniach mobilnych i wbudowanych. Program szkolenia jest zaprojektowany tak, aby 80% czasu poświęcone było na praktyczne warsztaty, a 20% na teorię. Uczestnicy nauczą się, jak optymalizować modele ML, wdrażać je na urządzeniach mobilnych oraz monitorować ich wydajność w rzeczywistych aplikacjach.
Dla kogo jest to szkolenie?
Programistów aplikacji mobilnych, którzy chcą integrować modele AI w swoich aplikacjach
Data scientistów i inżynierów ML, pragnących konwertować, optymalizować i przygotowywać modele do uruchomienia na urządzeniach brzegowych
Specjalistów IT, którzy chcą wykorzystać TensorFlow Lite do uruchamiania modeli AI w środowiskach o ograniczonych zasobach
Wymagane umiejętności technologiczne:
Znajomość podstaw programowania w Pythonie
Podstawowa wiedza z zakresu uczenia maszynowego
Doświadczenie w tworzeniu aplikacji mobilnych na Androida lub iOS
Czego nauczysz się na tym szkoleniu?
- Jak konfigurować i zarządzać TensorFlow Lite (LiteRT) do uruchamiania modeli ML na urządzeniach mobilnych (środowisko, zależności, delegaty)
- Jak konwertować modele TensorFlow/Keras do formatu TensorFlow Lite oraz przygotowywać wejścia/wyjścia (sygnatury, metadane, walidacja)
- Jak optymalizować modele pod urządzenia brzegowe (post-training quantization, QAT, pruning) oraz oceniać kompromisy dokładność–wydajność
- Jak integrować i diagnozować TensorFlow Lite w aplikacjach na Androidzie i iOS, profilować inferencję i zbierać podstawowe metryki jakości/wydajności
Program szkolenia
Dzień 1: Wprowadzenie do TensorFlow Lite (LiteRT) i optymalizacja modeli
Podstawy TensorFlow Lite (LiteRT)
- Wprowadzenie do TensorFlow Lite (LiteRT) i architektura runtime
- Instalacja i konfiguracja TensorFlow Lite (LiteRT) na różnych platformach
Przygotowanie i optymalizacja modeli
- Konwersja modeli TensorFlow/Keras do formatu TensorFlow Lite (LiteRT)
- Optymalizacja modeli: kwantyzacja (PTQ/QAT), pruning, dobór delegatów i ograniczenia operatorów
Warsztat: Konwersja i optymalizacja modelu
- Ćwiczenia praktyczne: konwersja i optymalizacja modelu na przykładzie rzeczywistego modelu ML (kalibracja, benchmark, kompromisy)
- Analiza wyników optymalizacji: metryki jakości, latencja, pamięć, zużycie energii
Wprowadzenie do implementacji na urządzeniach mobilnych
- Wprowadzenie do bibliotek TensorFlow Lite (LiteRT) dla Androida i iOS
- Integracja TensorFlow Lite (LiteRT) z aplikacjami mobilnymi (pre/post-processing, wątki, zarządzanie zasobami)
Dzień 2: Zaawansowane techniki i praktyczne zastosowania
Implementacja modeli na urządzeniach mobilnych
- Wdrożenie modeli TensorFlow Lite (LiteRT) na Androidzie i iOS: pipeline inferencji i akceleracja sprzętowa
- Obsługa wejść i wyjść modeli w aplikacjach mobilnych: sygnatury, metadane, walidacja i kompatybilność
Monitorowanie i debugowanie modeli TensorFlow Lite (LiteRT)
- Techniki monitorowania wydajności i jakości inferencji na urządzeniach mobilnych: profilowanie, logowanie, telemetria
- Debugowanie i optymalizacja wdrożonych modeli: wąskie gardła, regresje jakości, zgodność i stabilność
Warsztat: Wdrażanie i testowanie modelu
- Ćwiczenia praktyczne: wdrożenie i uruchomienie modelu na urządzeniu mobilnym
- Testowanie modelu w rzeczywistej aplikacji mobilnej: scenariusze, testy regresji, ograniczenia i ryzyka
Integracja z narzędziami i usługami chmurowymi
- Integracja TensorFlow Lite (LiteRT) z usługami chmurowymi Google Cloud AI
- Wykorzystanie narzędzi do CI/CD do automatyzacji dystrybucji modeli i walidacji jakości/wydajności