Poziom

Średniozaawansowany

Czas

16h / 2 dni

Termin

Indywidualnie

Cena

Indywidualnie

Szkolenie Transformer

Szkolenie z modeli transformatorowych to intensywny, dwudniowy kurs, który skupia się na praktycznym zastosowaniu najnowszych modeli NLP, takich jak BERT i GPT, przy użyciu biblioteki Hugging Face oraz tensorflow hub. Program szkolenia jest zaprojektowany tak, aby 80% czasu poświęcone było na praktyczne warsztaty, a 20% na teorię. Uczestnicy zdobędą umiejętności niezbędne do implementacji i trenowania zaawansowanych modeli transformatorowych w różnych zastosowaniach NLP.

Dla kogo jest szkolenie Transformer?
  • logo infoshare Programistów i inżynierów danych, którzy chcą poszerzyć swoje umiejętności o najnowsze techniki NLP
  • logo infoshare Specjalistów IT, którzy chcą wykorzystać modele transformatorowe do automatyzacji przetwarzania języka
  • logo infoshare Data scientistów i analityków danych, pragnących przetwarzać i analizować tekst za pomocą zaawansowanych modeli
Wymagania
  • logo infoshare Znajomość podstaw programowania w Pythonie
  • logo infoshare Doświadczenie w pracy z usługami chmurowymi będzie dodatkowym atutem
  • logo infoshare Podstawowa wiedza z zakresu uczenia maszynowego

Czego nauczysz się na szkoleniu Transformer?

  • Jak zainstalować i skonfigurować bibliotekę Hugging Face oraz tensorflow hub do pracy z modelami transformatorowymi

  • Jak zastosować modele typu transformers do klasyfikacji tekstu, rozpoznawania nazw własnych i generowania tekstu

  • Jak używać i fine-tunować pretrenowane modele typu transformers, takie jak BERT i GPT

  • Jak optymalizować wydajność modeli i wdrażać je w środowisku produkcyjnym

Program szkolenia Transformer

Dzień 1: Wprowadzenie do modeli transformatorowych i podstawy Hugging Face

Podstawy modeli typu transformer.

  • Wprowadzenie do architektury transformer: historia i ewolucja
  • Kluczowe komponenty i zasady działania.

Wprowadzenie do Hugging Face oraz tensorflow hub.

  • Instalacja i konfiguracja bibliotek
  • Przegląd dostępnych modeli i ich zastosowań

Podstawowe operacje z modelami typu transformers

  • Tokenizacja i przetwarzanie tekstu
  • Ładowanie i używanie pretrenowanych modeli

Implementacja w zadaniu przetwarzania tekstu

  • Praktyczne ćwiczenia z ładowaniem i testowaniem modeli
  • Analiza wyników i podstawowa optymalizacja

Dzień 2: Zaawansowane techniki i praktyczne zastosowania

Trenowanie i fine-tuning modeli transformatorowych

  • Techniki trenowania i fine-tuningu pretrenowanych modeli
  • Wykorzystanie danych własnych do trenowania modeli

Zastosowania modeli typu transformers

  • Klasyfikacja tekstu, rozpoznawanie nazw własnych (NER)
  • Generowanie tekstu i tłumaczenie maszynowe
  • Analiza sentymentu

Fine-tuning i zastosowania modeli

  • Implementacja fine-tuningu na rzeczywistych zbiorach danych
  • Tworzenie projektów z użyciem modeli BERT i GPT

Optymalizacja i wdrażanie modeli

  • Techniki optymalizacji wydajności modeli
  • Wdrażanie modeli w środowisku produkcyjnym

Pobierz program

Pobierz szczegółowy program w PDF, żeby dowiedzieć się więcej o godzinach i tematach zajęć.

Skontaktuj sie z nami

zorganizujemy dla Ciebie szkolenie dopasowane do Twoich potrzeb

Przemysław Wołosz

Key Account Manager

przemyslaw.wolosz@infoShareAcademy.com

    Zamów rozmowę

    Administratorem danych osobowych jest InfoShare Academy Sp. z o.o. z siedzibą w Gdańsku, al. Grunwaldzka 427B, 80-309 Gdańsk, KRS: 0000531749, NIP: 5842742121. Dane osobowe przetwarzane są zgodnie z klauzulą informacyjną.