Szkolenie Bezpieczeństwo danych w projektach sztucznej inteligencji

Poziom

Zaawansowany

Czas

16h / 2 dni

Termin

Indywidualnie

Cena

Indywidualnie

Szkolenie Bezpieczeństwo danych w projektach sztucznej inteligencji

Zaawansowany, praktyczny kurs poświęcony kluczowym aspektom ochrony danych w projektach AI. Szkolenie łączy solidną podbudowę teoretyczną z intensywnymi warsztatami praktycznymi, które pozwolą uczestnikom zdobyć niezbędne umiejętności zabezpieczania wrażliwych informacji w środowiskach sztucznej inteligencji. Nacisk położony jest na praktyczne rozwiązania, Case studies oraz bezpośrednie doświadczenie w identyfikacji i mitygacji zagrożeń związanych z bezpieczeństwem danych.

Dla kogo jest to szkolenie?
  • logo infoshare Inżynierów AI/ML i data science pracujących z danymi wrażliwymi
  • logo infoshare Architektów rozwiązań danych/AI oraz inżynierów platform (MLOps/LLMOps)
  • logo infoshare Specjalistów bezpieczeństwa informacji (AppSec/CloudSec) wspierających projekty AI
  • logo infoshare Menedżerów projektów AI i product ownerów odpowiedzialnych za ryzyko oraz wymagania bezpieczeństwa
  • logo infoshare Analityków danych i właścicieli danych zainteresowanych praktykami ochrony danych w AI
  • logo infoshare Osób z obszarów compliance/ochrony danych współpracujących z zespołami AI (bez interpretacji prawnej)

Czego nauczysz się na tym szkoleniu?

  • Analizy ryzyk i modelowania zagrożeń dla systemów AI/LLM oraz doboru priorytetowych kontroli bezpieczeństwa
  • Doboru i zastosowania technik ochrony danych (szyfrowanie, anonimizacja/pseudonimizacja, differential privacy, federated learning) wraz z oceną kompromisów użyteczność–prywatność
  • Testów podatności modeli (w tym scenariuszy adversarial, extraction/inference oraz prompt injection) oraz doboru mechanizmów obrony
  • Zaprojektowania podstawowych procedur reagowania na incydenty i minimalnych praktyk governance (dostępy, audyt, zgody, polityki danych)

Program szkolenia Bezpieczeństwo danych w projektach sztucznej inteligencji

Dzień 1: Fundamenty bezpieczeństwa danych w AI

 

Wprowadzenie do bezpieczeństwa danych w AI

  • Analiza zagrożeń bezpieczeństwa danych w projektach ML/LLM (m.in. prompt injection, data exfiltration, data poisoning)
  • Przegląd wektorów ataków na systemy sztucznej inteligencji (m.in. model inversion, membership inference, model extraction, adversarial ML)
  • Ramy prawne i regulacyjne oraz wymagania organizacyjne (RODO/GDPR, klasyfikacja danych, retencja)

 

Ochrona zbiorów danych

  • Szyfrowanie danych w spoczynku i w tranzycie oraz zarządzanie kluczami i dostępami
  • Anonimizacja i pseudonimizacja danych oraz ryzyko reidentyfikacji
  • Differential privacy: założenia, parametry i kompromisy prywatność–jakość
  • Federated learning i secure aggregation: przypadki użycia i ograniczenia
  • Praktyczne warsztaty: Bezpieczny preprocessing danych, minimalizacja danych i ślad audytowy

 

Warsztat praktyczny – Analiza podatności modeli AI

  • Identyfikacja podatności modeli ML/LLM (poisoning, backdoor, extraction, inference)
  • Narzędzia do testów bezpieczeństwa i detekcji ataków (testy red-team, analiza anomalii)
  • Praktyczne scenariusze ataków (adversarial examples, prompt injection, wyciek danych kontekstowych)
  • Techniki obrony przed atakami na modele AI (hardening pipeline, kontrola kontekstu, ograniczenia dostępu)

 

Dzień 2: Zaawansowane techniki ochrony danych

 

Bezpieczeństwo modeli i algorytmów

  • Ochrona własności intelektualnej modeli AI (kontrola dostępu, ślady pochodzenia, watermarking)
  • Zabezpieczenia algorytmów i środowisk uruchomieniowych przed nieuprawnionym dostępem (podpisy, registry, SBOM)
  • Case studies: Scenariusze naruszeń bezpieczeństwa (wyciek danych, kompromitacja pipeline, ataki na API)
  • Procedury reagowania na incydenty (triage, izolacja, analiza przyczyny, działania korygujące)

 

Prywatność i etyka w AI

  • Privacy by Design i Privacy by Default w projektach AI (minimalizacja, celowość, retencja)
  • Ryzyka etyczne i jakościowe (bias, niezamierzona identyfikacja, ograniczenia użycia GenAI)
  • Mechanizmy kontroli zgody i dostępu do danych (role, audyt, separacja środowisk)

 

Warsztat końcowy – Kompleksowy projekt bezpieczeństwa

  • Strategia bezpieczeństwa dla projektu AI/LLM (architektura, kontrole, mierniki)
  • Symulacja scenariuszy naruszenia bezpieczeństwa (prompt injection/wyciek danych/poisoning)
  • Plan mitygacji ryzyk (priorytety, backlog zabezpieczeń, testy okresowe, monitoring)

Skontaktuj sie z nami

zorganizujemy dla Ciebie szkolenie dopasowane do Twoich potrzeb

Przemysław Wołosz

Key Account Manager

przemyslaw.wolosz@infoShareAcademy.com

    Administratorem danych osobowych jest InfoShare Academy Sp. z o.o. z siedzibą w Gdańsku, al. Grunwaldzka 427B, 80-309 Gdańsk, KRS: 0000531749, NIP: 5842742213. Dane osobowe przetwarzane są zgodnie z klauzulą informacyjną.