Szkolenie Technologie Big Data w chmurze
Poziom
ŚredniozaawansowanyCzas
24h / 3 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie Technologie Big Data w chmurze
Szkolenie „Technologie Big Data w chmurze” to intensywne, praktyczne warsztaty przeznaczone dla inżynierów, administratorów oraz specjalistów IT chcących nauczyć się skutecznego budowania i zarządzania nowoczesną infrastrukturą Big Data w środowiskach chmurowych (AWS, Azure, Google Cloud). Uczestnicy poznają kluczowe technologie, narzędzia oraz wzorce architektoniczne wykorzystywane do składowania, przetwarzania i analizy dużych wolumenów danych w chmurze. Kurs łączy najnowszą wiedzę teoretyczną z dominującą częścią praktyczną opartą na realnych scenariuszach projektowych.
Dla kogo jest to szkolenie?
Inżynierów oprogramowania i administratorów systemów wdrażających lub utrzymujących rozwiązania Big Data w chmurze.
Analityków danych i specjalistów Data Science chcących zwiększyć kompetencje w zakresie przetwarzania i analizy danych.
Osób planujących migrację istniejących rozwiązań lub wdrożenie nowych projektów opartych o Big Data oraz chmurę publiczną/hybrydową.
Architektów rozwiązań IT, którzy chcą wdrażać nowoczesne, skalowalne platformy danych.
Czego nauczysz się na tym szkoleniu?
- Poznasz architekturę i możliwości głównych technologii Big Data i chmurowych.
- Nauczysz się efektywnego składowania, zabezpieczania i przetwarzania dużych zbiorów danych przy użyciu S3, Hadoop, Spark i NoSQL.
- Opanujesz automatyzację integracji i analizy danych z wykorzystaniem dedykowanych usług chmurowych.
- Zdobędziesz praktyczne umiejętności projektowania, wdrażania i optymalizacji rozwiązań Big Data w środowisku chmurowym.
Program szkolenia
Dzień 1: Fundamenty Big Data w chmurze
Moduł 1: Podstawy Big Data i chmury
- Wprowadzenie do koncepcji Big Data, charakterystyka 5V (volume, velocity, variety, veracity, value).
- Przegląd typów chmur (IaaS, PaaS, SaaS) oraz głównych dostawców usług chmurowych.
- Podstawowe usługi AWS: Compute (EC2, Lambda), Storage (S3, EBS, Glacier), Networking (VPC, IGW, NGW).
- Monitorowanie (CloudWatch, CloudTrail), bezpieczeństwo i zarządzanie tożsamością (IAM).
Moduł 2: Architektura Data Lake i składowanie danych
- Tworzenie Data Lake w chmurze: Amazon S3, Azure Blob Storage, Google Cloud Storage.
- Zarządzanie uprawnieniami, wersjonowanie oraz bezpieczeństwo danych.
Dzień 2: Przetwarzanie i analiza danych
Moduł 3: Przetwarzanie dużych zbiorów danych
- Praca z rozproszonymi systemami plików (HDFS w chmurze, integracja z S3).
- Kluczowe silniki przetwarzania: Hadoop, Spark (na przykładzie AWS EMR, Azure Databricks), MapReduce, Yarn.
Moduł 4: Bazy danych NoSQL i hurtownie danych
- Przegląd technologii NoSQL: HBase, Cassandra, MongoDB w chmurze.
- Hurtownie danych: Amazon Redshift, Google BigQuery, Azure Synapse Analytics.
Dzień 3: Zaawansowane technologie i case studies
Moduł 5: Integracja, orkiestracja i automatyzacja
- Integracja i orkiestracja danych: AWS Glue, Azure Data Factory, Google Dataflow.
- Automatyzacja przetwarzania z wykorzystaniem workflow (Oozie, Step Functions).
Moduł 6: Analiza, wizualizacja i bezpieczeństwo
- Analiza danych w chmurze: Athena, BigQuery, Spark SQL.
- Wizualizacja danych: Jupyter Notebook, Zeppelin, narzędzia BI.
- Bezpieczeństwo: przechowywanie sekretów, audytowanie dostępu, compliance (np. Azure Key Vault, IAM).