Szkolenie Transformer
Poziom
ŚredniozaawansowanyCzas
16h / 2 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie Transformer
Szkolenie z modeli transformatorowych to intensywny, dwudniowy kurs, który skupia się na praktycznym zastosowaniu najnowszych modeli NLP, takich jak BERT i GPT, przy użyciu biblioteki Hugging Face oraz tensorflow hub. Program szkolenia jest zaprojektowany tak, aby 80% czasu poświęcone było na praktyczne warsztaty, a 20% na teorię. Uczestnicy zdobędą umiejętności niezbędne do implementacji i trenowania zaawansowanych modeli transformatorowych w różnych zastosowaniach NLP.
Programistów i inżynierów danych, którzy chcą poszerzyć swoje umiejętności o najnowsze techniki NLP
Specjalistów IT, którzy chcą wykorzystać modele transformatorowe do automatyzacji przetwarzania języka
Data scientistów i analityków danych, pragnących przetwarzać i analizować tekst za pomocą zaawansowanych modeli
Znajomość podstaw programowania w Pythonie
Doświadczenie w pracy z usługami chmurowymi będzie dodatkowym atutem
Podstawowa wiedza z zakresu uczenia maszynowego
Czego nauczysz się na szkoleniu Transformer?
-
Jak zainstalować i skonfigurować bibliotekę Hugging Face oraz tensorflow hub do pracy z modelami transformatorowymi
-
Jak zastosować modele typu transformers do klasyfikacji tekstu, rozpoznawania nazw własnych i generowania tekstu
-
Jak używać i fine-tunować pretrenowane modele typu transformers, takie jak BERT i GPT
-
Jak optymalizować wydajność modeli i wdrażać je w środowisku produkcyjnym
Program szkolenia Transformer
Dzień 1: Wprowadzenie do modeli transformatorowych i podstawy Hugging Face
Podstawy modeli typu transformer.
- Wprowadzenie do architektury transformer: historia i ewolucja
- Kluczowe komponenty i zasady działania.
Wprowadzenie do Hugging Face oraz tensorflow hub.
- Instalacja i konfiguracja bibliotek
- Przegląd dostępnych modeli i ich zastosowań
Podstawowe operacje z modelami typu transformers
- Tokenizacja i przetwarzanie tekstu
- Ładowanie i używanie pretrenowanych modeli
Implementacja w zadaniu przetwarzania tekstu
- Praktyczne ćwiczenia z ładowaniem i testowaniem modeli
- Analiza wyników i podstawowa optymalizacja
Dzień 2: Zaawansowane techniki i praktyczne zastosowania
Trenowanie i fine-tuning modeli transformatorowych
- Techniki trenowania i fine-tuningu pretrenowanych modeli
- Wykorzystanie danych własnych do trenowania modeli
Zastosowania modeli typu transformers
- Klasyfikacja tekstu, rozpoznawanie nazw własnych (NER)
- Generowanie tekstu i tłumaczenie maszynowe
- Analiza sentymentu
Fine-tuning i zastosowania modeli
- Implementacja fine-tuningu na rzeczywistych zbiorach danych
- Tworzenie projektów z użyciem modeli BERT i GPT
Optymalizacja i wdrażanie modeli
- Techniki optymalizacji wydajności modeli
- Wdrażanie modeli w środowisku produkcyjnym
Pobierz program
Pobierz szczegółowy program w PDF, żeby dowiedzieć się więcej o godzinach i tematach zajęć.