Szkolenie AI w Medycynie a AI Act – bezpieczne systemy AI w ochronie zdrowia

Poziom

Średniozaawansowany

Czas

16h / 2 dni

Termin

Indywidualnie

Cena

Indywidualnie

Szkolenie AI w Medycynie a AI Act – bezpieczne systemy AI w ochronie zdrowia

Szkolenie koncentruje się na projektowaniu, dokumentowaniu i wdrażaniu systemów AI w medycynie zgodnie z wymogami AI Act (UE) oraz powiązanymi regulacjami: MDR, GDPR, ISO/IEC 42001, ISO 13485 i innymi. Uczestnicy nauczą się, jak klasyfikować ryzyko modeli AI, prowadzić proces oceny zgodności, przygotowywać wymagane dokumenty techniczne, zabezpieczać modele AI na poziomie danych, uczenia i wdrożenia oraz wdrażać procesy ciągłego monitorowania, retrainingu i nadzoru.

Dla kogo jest to szkolenie?
  • logo infoshare Deweloperów i inżynierów AI/ML w sektorze medycznym
  • logo infoshare Architektów systemów AI
  • logo infoshare Specjalistów ds. compliance i regulacji
  • logo infoshare Product ownerów, którzy odpowiadają za rozwój systemów medycznych z AI
  • logo infoshare QA/Validation Team w firmach MedTech
Wymagania:
  • logo infoshare Dobra znajomość podstaw AI i ML
  • logo infoshare Praktyczna znajomość Pythona lub innego języka stosowanego do ML
  • logo infoshare Ogólna orientacja w przepisach MDR i RODO

Czego nauczysz się na tym szkoleniu?

  • Klasyfikacji systemów AI według AI Act – Zrozumiesz, czy Twój system to „wysokiego ryzyka”, „ogólnego przeznaczenia” czy „zakazany”
  • Zabezpieczeń i nadzoru modeli AI – Dowiesz się, jak projektować modele odporne na błędy, manipulacje i naruszenia danych
  • Oceny zgodności i dokumentacji technicznej – Poznasz strukturę Technical Documentation i jak ją stworzyć
  • Monitorowania i ciągłego doskonalenia systemu AI – Nauczysz się, jak wdrożyć system rejestrowania błędów, walidacji i re-trainingu zgodnie z AI Act

Program szkolenia

  1. Wprowadzenie do AI Act

  • Struktura i cele AI Act
  • Typy systemów AI i ich klasyfikacja
  • Związek AI Act z MDR, GDPR, ISO
  1. Klasyfikacja ryzyka i obowiązki producenta

  • Wysokiego ryzyka vs. pozostałe systemy
  • Wymogi dla systemów „high-risk AI”
  • Rola dostawcy, użytkownika, importera, dystrybutora
  1. Zabezpieczanie modeli AI w ochronie zdrowia

  • Ochrona przed błędami, atakami (np. adversarial inputs)
  • Weryfikacja źródeł danych, kontrola wersji modelu
  • Modele transparentne vs. black-box (w kontekście obowiązku explainability)
  1. Dokumentacja techniczna AI

  • Wymogi dokumentacyjne wg AI Act
  • Jak pisać: model card, data sheet, algorithm impact assessment
  • Technical Documentation krok po kroku
  1. Warsztat: klasyfikacja i ocena systemu AI

  • Praca na scenariuszach (np. model do oceny EKG, chatbot do wywiadu medycznego)
  • Określenie ryzyka, wymogów dokumentacyjnych i procesu oceny zgodności
  1. Proces oceny zgodności i audytu

  • Przegląd procedur notyfikacyjnych
  • Samoocena vs. ocena zewnętrzna
  • Rola jednostki notyfikowanej i deklaracja zgodności
  1. Walidacja i testowanie modeli AI w środowisku medycznym

  • Testowanie pre-kliniczne i kliniczne
  • Walidacja metryk modelu vs. walidacja kliniczna
  • Test case, validation plan, traceability matrix
  1. Monitoring po wdrożeniu i systemy nadzoru

  • Logging, alerty, błędy systemowe
  • Dokumentowanie działań następczych i aktualizacji
  • Re-trening i zarządzanie cyklem życia modelu
  1. Etyka i odpowiedzialność zgodnie z AI Act

  • Transparentność, nadzór ludzki, interpretowalność
  • Zasady „human-in-the-loop” i ich implementacja
  • Przykłady naruszeń i konsekwencje prawne

Skontaktuj sie z nami

zorganizujemy dla Ciebie szkolenie dopasowane do Twoich potrzeb

Przemysław Wołosz

Key Account Manager

przemyslaw.wolosz@infoShareAcademy.com

    Administratorem danych osobowych jest InfoShare Academy Sp. z o.o. z siedzibą w Gdańsku, al. Grunwaldzka 427B, 80-309 Gdańsk, KRS: 0000531749, NIP: 5842742121. Dane osobowe przetwarzane są zgodnie z klauzulą informacyjną.