Szkolenie Data Warehousing
Poziom
ŚredniozaawansowanyCzas
16h / 2 dniTermin
IndywidualnieCena
IndywidualnieSzkolenie z Data Warehousing
Szkolenie Data Warehousing to intensywny, dwudniowy kurs skoncentrowany na praktycznym zastosowaniu wiodących narzędzi do zarządzania hurtowniami danych, takich jak Amazon Redshift, Google BigQuery oraz Snowflake. Program szkolenia jest zaprojektowany tak, aby 80% czasu było poświęcone na praktyczne warsztaty, a 20% na teorię. Uczestnicy zdobędą umiejętności niezbędne do projektowania, wdrażania i zarządzania hurtowniami danych w chmurze, pracując na rzeczywistych przykładach i przypadkach użycia.
Dla kogo jest szkolenie z Data Warehousing?
Inżynierów danych i analityków znających podstawy SQL, którzy chcą rozwijać kompetencje w zakresie chmurowych hurtowni danych
Programistów i specjalistów IT pracujących z danymi, którzy chcą praktycznie poznać Redshift, BigQuery i Snowflake
Managerów i liderów zespołów danych/IT, którzy potrzebują zrozumieć wybór platformy, koszty, ryzyka i model utrzymania hurtowni danych
Wymagane umiejętności technologiczne:
- Znajomość podstaw SQL
- Podstawowa wiedza z zakresu baz danych i przetwarzania danych
- Umiejętność pracy w środowisku chmurowym (AWS, GCP lub inne)
Czego nauczysz się na szkoleniu Data Warehousing?
- Projektowania podstawowej architektury hurtowni danych w chmurze (warstwy, przepływy ELT, model danych) dla Redshift, BigQuery i Snowflake
- Konfiguracji i pracy z obiektami hurtowni: schematy, tabele, typy danych, ingest danych oraz zapytania SQL
- Analizy i optymalizacji wydajności oraz kosztów: plan wykonania, partycjonowanie/klastrowanie, sortowanie, materializacje, zarządzanie zasobami
- Podstaw integracji i utrzymania: role i uprawnienia, zarządzanie sekretami, monitoring wydajności i kosztów, podstawowe praktyki wdrożeniowe
Program szkolenia
Dzień 1: Wprowadzenie do Data Warehousing i podstawy narzędzi
Podstawy Data Warehousing
- Architektura hurtowni danych: warstwy, model danych, przepływy ELT, separacja storage/compute
- Porównanie tradycyjnych i chmurowych hurtowni danych: koszty, skalowalność, bezpieczeństwo, SLA
Amazon Redshift
- Architektura i kluczowe funkcje Redshift: MPP, RA3/Serverless, Spectrum, workload management
- Załadunek danych do Redshift: schematy i tabele, dystrybucja i sortowanie, zapytania SQL
Google BigQuery
- Architektura i kluczowe funkcje BigQuery: serverless, partycjonowanie, klastrowanie, kontrola kosztów
- Import danych do BigQuery: datasety i tabele, schematy, zapytania SQL
Warsztat: Budowa i zarządzanie hurtownią danych
- Podstawowe operacje ELT w Redshift i BigQuery: staging, transformacje SQL, ładowania przyrostowe
- Optymalizacja zapytań i analiza wydajności: plany wykonania, koszty skanów, eliminacja wąskich gardeł
Dzień 2: Zaawansowane techniki i praktyczne zastosowania
Snowflake
- Architektura i kluczowe funkcje Snowflake: role i uprawnienia, warehouse’y, separacja compute, dane półstrukturalne
- Załadunek danych do Snowflake: struktury i schematy, COPY/ingest, zapytania SQL
Optymalizacja i skalowanie hurtowni danych
- Techniki optymalizacji wydajności w Redshift, BigQuery i Snowflake: partycjonowanie/klastrowanie, sort keys, materializacje, caching
- Skalowanie hurtowni danych i zarządzanie zasobami: concurrency, autoscaling, limity, budżety kosztowe
Warsztat: Praktyczne zastosowania i integracje
- Zaawansowane operacje analityczne w Snowflake: funkcje okienkowe, dane półstrukturalne, zadania i harmonogramy (w zakresie podstaw)
- Integracje hurtowni danych z usługami chmurowymi: storage, ETL/ELT, narzędzia BI, zarządzanie sekretami
Wdrożenie i zarządzanie hurtowniami danych
- Przygotowanie środowiska i wdrożenie hurtowni danych: dev/test/prod, migracje schematów, kontrola wersji
- Monitorowanie i utrzymanie hurtowni danych: metryki wydajności i kosztów, alerty, podstawy audytu dostępu