Szkolenie AI dla Testerów Manualnych
Poziom
ŚredniozaawansowanyCzas
8h / 1 dzieńTermin
IndywidualnieCena
IndywidualnieSzkolenie AI dla Testerów Manualnych
Poznaj praktyczne zastosowania lokalnego AI w automatyzacji testów manualnych i przygotowaniu danych testowych. Szkolenie pokazuje, jak generować przypadki testowe z wymagań, automatycznie budować bazę testów w formacie TestRail, zgłaszać defekty z opisem kroków reprodukcji oraz tworzyć raporty dla Product Ownera i zespołu deweloperskiego. Uczestnicy nauczą się korzystać z lokalnych modeli AI (Ollama / LM Studio) i narzędzi automatyzacyjnych (n8n, Jira) w praktyce. Warsztaty pozwalają skrócić czas przygotowania testów, zwiększyć precyzję zgłoszeń i usprawnić procesy QA w firmie. Szkolenie jest idealne dla testerów manualnych i analityków QA, którzy chcą wprowadzić inteligentną automatyzację do codziennej pracy.
Testerów manualnych
Analityków QA
Specjalistów odpowiedzialnych za przygotowanie i raportowanie testów
Osób chcących wdrożyć AI w codzienne procesy testowania i automatyzację dokumentacji
Generować przypadki testowe z wymagań i user stories
Automatycznie budować bazę testów w formacie TestRail
Tworzyć zgłoszenia defektów z krokami reprodukcji
Generować raporty testowe dla Product Ownera i zespołu deweloperskiego
Budować prosty pipeline AI wspierający codzienną pracę testerów
Wymagania względem uczestników
- Podstawowa znajomość testowania manualnego i procesów QA
- Umiejętność pracy z dokumentacją wymagań biznesowych
- Chęć nauki korzystania z lokalnych modeli AI w praktyce
Program szkolenia
Zakres tematyczny
- Generowanie przypadków testowych i danych testowych z user stories / wymagań.
- Automatyzacja przygotowania bazy testów (format pod TestRail).
- Szybsze zgłaszanie defektów (opis błędu, kroki reprodukcji).
- Generowanie raportu z testów dla PO i dla zespołu dev.
Wiedza teoretyczna
- Na czym polega “lokalne AI” i dlaczego można bezpiecznie przetworzyć wymagania i logi.
- Jak przygotować prompt, żeby dostać oczekiwany format.
- Co to jest agent testowy: logika wybierająca, które testy są krytyczne po nowym release.
- Minimalne zasady kontroli jakości wygenerowanych testów (pokrycie kryteriów akceptacji).
Zadania praktyczne
- Uruchomienie lokalnego generatora przypadków testowych:
- wejście: wymaganie biznesowe,
- wyjście: lista testów krok-po-kroku + dane testowe + priorytety.
- Wygenetowanie zgłoszenia defektu:
- z logów / screenów
- Automatyzacja budowy raportu z testów:
- AI streszcza status testów i ryzyka osobno dla Product Ownera i osobno technicznie dla devów.
Narzędzia
- Ollama / LM Studio (lokalny model).
- n8n (generacja przypadków testowych, eksport do CSV/JSON, raporty).
- TestRail format (jako docelowy output).
- Jira (jako format zgłoszenia defektu).
Efekty
- Gotowy pipeline “nowe wymaganie → gotowe przypadki testowe do importu”.
- Automatyczny generator zgłoszeń defektów z krokami reprodukcji.
- Agent, który pomaga zdecydować, co testować po każdej zmianie systemu.
- Szablony raportów po testach (wersja dla biznesu i wersja techniczna), gotowe do użycia po każdym cyklu testowym.