Szkolenie Bezpieczeństwo danych w projektach sztucznej inteligencji
Poziom
ZaawansowanyCzas
16h / 2 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie Bezpieczeństwo danych w projektach sztucznej inteligencji
Zaawansowany, praktyczny kurs poświęcony kluczowym aspektom ochrony danych w projektach AI. Szkolenie łączy solidną podbudowę teoretyczną z intensywnymi warsztatami praktycznymi, które pozwolą uczestnikom zdobyć niezbędne umiejętności zabezpieczania wrażliwych informacji w środowiskach sztucznej inteligencji. Nacisk położony jest na praktyczne rozwiązania, Case studies oraz bezpośrednie doświadczenie w identyfikacji i mitygacji zagrożeń związanych z bezpieczeństwem danych.
Dla kogo jest to szkolenie?
Inżynierów AI/ML i data science pracujących z danymi wrażliwymi
Architektów rozwiązań danych/AI oraz inżynierów platform (MLOps/LLMOps)
Specjalistów bezpieczeństwa informacji (AppSec/CloudSec) wspierających projekty AI
Menedżerów projektów AI i product ownerów odpowiedzialnych za ryzyko oraz wymagania bezpieczeństwa
Analityków danych i właścicieli danych zainteresowanych praktykami ochrony danych w AI
Osób z obszarów compliance/ochrony danych współpracujących z zespołami AI (bez interpretacji prawnej)
Czego nauczysz się na tym szkoleniu?
- Analizy ryzyk i modelowania zagrożeń dla systemów AI/LLM oraz doboru priorytetowych kontroli bezpieczeństwa
- Doboru i zastosowania technik ochrony danych (szyfrowanie, anonimizacja/pseudonimizacja, differential privacy, federated learning) wraz z oceną kompromisów użyteczność–prywatność
- Testów podatności modeli (w tym scenariuszy adversarial, extraction/inference oraz prompt injection) oraz doboru mechanizmów obrony
- Zaprojektowania podstawowych procedur reagowania na incydenty i minimalnych praktyk governance (dostępy, audyt, zgody, polityki danych)
Program szkolenia Bezpieczeństwo danych w projektach sztucznej inteligencji
Dzień 1: Fundamenty bezpieczeństwa danych w AI
Wprowadzenie do bezpieczeństwa danych w AI
- Analiza zagrożeń bezpieczeństwa danych w projektach ML/LLM (m.in. prompt injection, data exfiltration, data poisoning)
- Przegląd wektorów ataków na systemy sztucznej inteligencji (m.in. model inversion, membership inference, model extraction, adversarial ML)
- Ramy prawne i regulacyjne oraz wymagania organizacyjne (RODO/GDPR, klasyfikacja danych, retencja)
Ochrona zbiorów danych
- Szyfrowanie danych w spoczynku i w tranzycie oraz zarządzanie kluczami i dostępami
- Anonimizacja i pseudonimizacja danych oraz ryzyko reidentyfikacji
- Differential privacy: założenia, parametry i kompromisy prywatność–jakość
- Federated learning i secure aggregation: przypadki użycia i ograniczenia
- Praktyczne warsztaty: Bezpieczny preprocessing danych, minimalizacja danych i ślad audytowy
Warsztat praktyczny – Analiza podatności modeli AI
- Identyfikacja podatności modeli ML/LLM (poisoning, backdoor, extraction, inference)
- Narzędzia do testów bezpieczeństwa i detekcji ataków (testy red-team, analiza anomalii)
- Praktyczne scenariusze ataków (adversarial examples, prompt injection, wyciek danych kontekstowych)
- Techniki obrony przed atakami na modele AI (hardening pipeline, kontrola kontekstu, ograniczenia dostępu)
Dzień 2: Zaawansowane techniki ochrony danych
Bezpieczeństwo modeli i algorytmów
- Ochrona własności intelektualnej modeli AI (kontrola dostępu, ślady pochodzenia, watermarking)
- Zabezpieczenia algorytmów i środowisk uruchomieniowych przed nieuprawnionym dostępem (podpisy, registry, SBOM)
- Case studies: Scenariusze naruszeń bezpieczeństwa (wyciek danych, kompromitacja pipeline, ataki na API)
- Procedury reagowania na incydenty (triage, izolacja, analiza przyczyny, działania korygujące)
Prywatność i etyka w AI
- Privacy by Design i Privacy by Default w projektach AI (minimalizacja, celowość, retencja)
- Ryzyka etyczne i jakościowe (bias, niezamierzona identyfikacja, ograniczenia użycia GenAI)
- Mechanizmy kontroli zgody i dostępu do danych (role, audyt, separacja środowisk)
Warsztat końcowy – Kompleksowy projekt bezpieczeństwa
- Strategia bezpieczeństwa dla projektu AI/LLM (architektura, kontrole, mierniki)
- Symulacja scenariuszy naruszenia bezpieczeństwa (prompt injection/wyciek danych/poisoning)
- Plan mitygacji ryzyk (priorytety, backlog zabezpieczeń, testy okresowe, monitoring)