Szkolenie AI w Medycynie a AI Act – bezpieczne systemy AI w ochronie zdrowia
Poziom
ŚredniozaawansowanyCzas
16h / 2 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie AI w Medycynie a AI Act – bezpieczne systemy AI w ochronie zdrowia
Szkolenie koncentruje się na projektowaniu, dokumentowaniu i wdrażaniu systemów AI w medycynie zgodnie z wymogami AI Act (UE) oraz powiązanymi regulacjami: MDR, GDPR, ISO/IEC 42001, ISO 13485 i innymi. Uczestnicy nauczą się, jak klasyfikować ryzyko modeli AI, prowadzić proces oceny zgodności, przygotowywać wymagane dokumenty techniczne, zabezpieczać modele AI na poziomie danych, uczenia i wdrożenia oraz wdrażać procesy ciągłego monitorowania, retrainingu i nadzoru.
Dla kogo jest to szkolenie?
Deweloperów i inżynierów AI/ML w sektorze medycznym
Architektów systemów AI
Specjalistów ds. compliance i regulacji
Product ownerów, którzy odpowiadają za rozwój systemów medycznych z AI
QA/Validation Team w firmach MedTech
Wymagania:
Dobra znajomość podstaw AI i ML
Praktyczna znajomość Pythona lub innego języka stosowanego do ML
Ogólna orientacja w przepisach MDR i RODO
Czego nauczysz się na tym szkoleniu?
- Klasyfikacji systemów AI według AI Act – Zrozumiesz, czy Twój system to „wysokiego ryzyka”, „ogólnego przeznaczenia” czy „zakazany”
- Zabezpieczeń i nadzoru modeli AI – Dowiesz się, jak projektować modele odporne na błędy, manipulacje i naruszenia danych
- Oceny zgodności i dokumentacji technicznej – Poznasz strukturę Technical Documentation i jak ją stworzyć
- Monitorowania i ciągłego doskonalenia systemu AI – Nauczysz się, jak wdrożyć system rejestrowania błędów, walidacji i re-trainingu zgodnie z AI Act
Program szkolenia
-
Wprowadzenie do AI Act
- Struktura i cele AI Act
- Typy systemów AI i ich klasyfikacja
- Związek AI Act z MDR, GDPR, ISO
-
Klasyfikacja ryzyka i obowiązki producenta
- Wysokiego ryzyka vs. pozostałe systemy
- Wymogi dla systemów „high-risk AI”
- Rola dostawcy, użytkownika, importera, dystrybutora
-
Zabezpieczanie modeli AI w ochronie zdrowia
- Ochrona przed błędami, atakami (np. adversarial inputs)
- Weryfikacja źródeł danych, kontrola wersji modelu
- Modele transparentne vs. black-box (w kontekście obowiązku explainability)
-
Dokumentacja techniczna AI
- Wymogi dokumentacyjne wg AI Act
- Jak pisać: model card, data sheet, algorithm impact assessment
- Technical Documentation krok po kroku
-
Warsztat: klasyfikacja i ocena systemu AI
- Praca na scenariuszach (np. model do oceny EKG, chatbot do wywiadu medycznego)
- Określenie ryzyka, wymogów dokumentacyjnych i procesu oceny zgodności
-
Proces oceny zgodności i audytu
- Przegląd procedur notyfikacyjnych
- Samoocena vs. ocena zewnętrzna
- Rola jednostki notyfikowanej i deklaracja zgodności
-
Walidacja i testowanie modeli AI w środowisku medycznym
- Testowanie pre-kliniczne i kliniczne
- Walidacja metryk modelu vs. walidacja kliniczna
- Test case, validation plan, traceability matrix
-
Monitoring po wdrożeniu i systemy nadzoru
- Logging, alerty, błędy systemowe
- Dokumentowanie działań następczych i aktualizacji
- Re-trening i zarządzanie cyklem życia modelu
-
Etyka i odpowiedzialność zgodnie z AI Act
- Transparentność, nadzór ludzki, interpretowalność
- Zasady „human-in-the-loop” i ich implementacja
- Przykłady naruszeń i konsekwencje prawne