Mentoring data
Zdobądź Lepszą Pracę i Wyższe Zarobki w specjalizacjach Big Data.
Mentoring Jest Dla Ciebie Jeśli…
✅ chcesz się uczyć na konkretnym projekcie, a nie na kolejnym tutorialu
✅ chcesz zwiększyć swoje zarobki
✅ chcesz zdobyć doświadczenie w pracy na większym projekcie
✅ chcesz przyspieszyć swój rozwój poprzez pracę 1 na 1 z doświadczonym programistą
👍 Zawsze otrzymałem wyczerpującą odpowiedź na pytania, nawet te najgłupsze. Podczas mentoringu najbardziej cenię sobie code review, bo mogę przez to nauczyć sie najlepszych praktyk. Mentoring z czystym sumieniem mógłbym polecić, szczególnie dla osób, które nie wiedzą jak zacząć.
Mateusz B.
Projekt pod okiem mentora
Kompletny projekt rozwiązujący najczęstsze problemy biznesowe. Mockupy UX/UI i logika zdefiniowana w zadaniach.
Dobre praktyki
Przećwiczysz najlepsze praktyki na kompletnym projekcie.
Stack technologiczny
Dopasowany do wymagań rynku.
Seniorskie code review
Code review realizowane przez senior developera.
W ciągu 48h dostajesz pełne code review Twojego brancha.
Gitflow
Praca na wielu branchach zarządzana w metodyce gitflow.
SCRUM
Symulacja pracy w metodyce SCRUM.
Interview preworkout
Zadania przygotowywujące do rozmów rekrutacyjnych.
Interview techniczne
Rozmowa rekrutacyjna online sprawdzająca Twój aktualny poziom wiedzy i doświadczenia.
CV upgrade
Pomoc w przygotowaniu skutecznego CV.
Narzędzia i środowisko pracy
Dostęp do agile board, repozytorium ze startowym kodem.
Społeczność
Dostęp do zamkniętej grupy studentów.
Polecenia do firm IT
Po zakończeniu projektu otrzymasz rekomendację i polecenie do firm.
Python, Docker
W ramach tego milestone’a edukacyjnego, skupisz się na nauce podstawowych narzędzi Data Engineering, takich jak Python i Docker. Będziesz pracować nad dwoma projektami, które pozwolą Ci zrozumieć te narzędzia i nauczą Cię, jak ich używać w praktyce
- REST API w kontenerze dockerowym
- Analiza danych w pythonie z wykorzystaniem bibliotek pandas, numpy oraz zwrócenie wizualizacji i metryk w postaci dashboardu plotly
Relacyjne bazy danych
W ramach tego milestone’a Twoim zadaniem będzie zapoznanie się z relacyjnymi bazami danych i nauka pisania zapytań w SQL. Będziesz również pracować z chmurami publicznymi i nauczyć się konfigurować i używać usług w chmurze.
Big Data
W tym module skupimy się na poznaniu narzędzi BigData oraz baz NoSQL, takich jak Hadoop, Yarn, Spark i klastry Dataproc na platformie chmury publicznej GCP.
- Wprowadzenie do BigData i NoSQL
- Praca z klastrami Dataproc
- Analiza danych z wykorzystaniem Pyspark
- Praca z Apache Airflow
Przetwarzanie strumieniowe
W tym module skupimy się na analizie strumieni danych i nauczymy się korzystać z różnych narzędzi do przetwarzania danych w czasie rzeczywistym, takich jak Kafka, Spark, Flink oraz Pub-Sub w chmurze publicznej GCP.
- Projekt polega na przetwarzaniu strumieni danych z Twittera na określony temat z wykorzystaniem Apache Kafka, Apache Spark Streaming i Google BigQuery.
- Projekt polega na budowaniu rozwiązania do przetwarzania strumieniowego w chmurze publicznej GCP, który będzie analizował dane w czasie rzeczywistym i wysyłał wyniki do wybranych kanałów komunikacyjnych (np. Slack).
Cloud
Milestone Cloud skupia się na poznaniu i wykorzystaniu różnych usług dostępnych w chmurach publicznych, w szczególności w Google Cloud Platform (GCP).
- Pierwszy projekt w tym milestone to konfiguracja projektu w GCP i utworzenie infrastruktury pod wcześniej realizowane projekty.
- Drugim projektem jest napisanie i wdrożenie terraform’ów realizujących powołanie projektu zgodnie z poprzednim.
Data science, Pipelines
W tym module uczniowie zapoznają się z budową pipeline’ów przetwarzających dane w kontekście Data Science (Sklearn, XGboost, Mlflow, DVC, Great Expectations oraz Vertex AI).
- Projekt polegający na budowie pipeline’u
- Projekt polegający na analizie i przetwarzaniu danych przy użyciu narzędzi Sklearn i XGboost.
- Projekt polegający na integracji pipeline’u z innymi systemami i narzędziami. Uczniowie będą mieli okazję zdobyć umiejętności w zakresie integracji pipeline’u z innymi narzędziami i systemami, takimi jak Google BigQuery czy Google Cloud Storage.
Zakres umiejętności do zdobycia
- Prerekwizyty
- Python
- Git
- Bash
- Podstawy software developmentu (REST API, bazy danych, Linux, struktury danych)
- Docker
- Python
- testy (jednostkowe, funkcjonalne, integracyjne)
- Bazy danych
- normalizacja
- ACID transakcje
- CAP
- OLTP OLAP
- hotyzontalne i wertykalne skalowanie
- dimensional modelling
- podstawy SQL
- Relacyjne bazy danych SQL
- PostgreSQL
- Hutownie danych
- bigQuery
- Object storage
- GSC
- Przeliczenia na klastrze
- Hadoop
- hdfs
- mapreduce
- EMR, dataproc
- Procesowanie danych
- hybrid
- spark
- beam/flink
- straming
- kafka
- hybrid
- Messages
- pub sub
- Harmonogramowanie
- apache airflow
- Sieci
- protokoły (ssh.tcp.http..dns..ip)
- firewall
- ssl
- vpn
- vpc
- IaC
- container orchestration
- docker zaawansowany
- container orchestration
- CICD
- github actions
- Wizualiacje
- python, matplotlib, seaborn
- looker