Mentoring data

Zdobądź Lepszą Pracę i Wyższe Zarobki w specjalizacjach Big Data.









Python Docker GCP Spark Kafka Hadoop Airflow



Mentoring Jest Dla Ciebie Jeśli…


✅ chcesz się uczyć na konkretnym projekcie, a nie na kolejnym tutorialu


✅ chcesz zwiększyć swoje zarobki


✅ chcesz zdobyć doświadczenie w pracy na większym projekcie


✅ chcesz przyspieszyć swój rozwój poprzez pracę 1 na 1 z doświadczonym programistą




👍 Zawsze otrzymałem wyczerpującą odpowiedź na pytania, nawet te najgłupsze. Podczas mentoringu najbardziej cenię sobie code review, bo mogę przez to nauczyć sie najlepszych praktyk. Mentoring z czystym sumieniem mógłbym polecić, szczególnie dla osób, które nie wiedzą jak zacząć.

Mateusz B.

👍 Jestem bardzo zadowolony z mentoringu.
Ocena 6 w skali od 0 – 6.

Łukasz C.

👍 Bardzo dobre podejście, odpowiedzialny i skuteczny szkoleniowiec.

Michał W.







1

Projekt pod okiem mentora

Kompletny projekt rozwiązujący najczęstsze problemy biznesowe. Mockupy UX/UI i logika zdefiniowana w zadaniach.

2

Dobre praktyki

Przećwiczysz najlepsze praktyki na kompletnym projekcie.

3

Stack technologiczny

Dopasowany do wymagań rynku.

4

Seniorskie code review

Code review realizowane przez senior developera.
W ciągu 48h dostajesz pełne code review Twojego brancha.

5

Gitflow

Praca na wielu branchach zarządzana w metodyce gitflow.

6

SCRUM

Symulacja pracy w metodyce SCRUM.

7

Interview preworkout

Zadania przygotowywujące do rozmów rekrutacyjnych.

8

Interview techniczne

Rozmowa rekrutacyjna online sprawdzająca Twój aktualny poziom wiedzy i doświadczenia.

9

CV upgrade

Pomoc w przygotowaniu skutecznego CV.

10

Narzędzia i środowisko pracy

Dostęp do agile board, repozytorium ze startowym kodem.

11

Społeczność

Dostęp do zamkniętej grupy studentów.

12

Polecenia do firm IT

Po zakończeniu projektu otrzymasz rekomendację i polecenie do firm.



Python, Docker

W ramach tego milestone’a edukacyjnego, skupisz się na nauce podstawowych narzędzi Data Engineering, takich jak Python i Docker. Będziesz pracować nad dwoma projektami, które pozwolą Ci zrozumieć te narzędzia i nauczą Cię, jak ich używać w praktyce

  1. REST API w kontenerze dockerowym
  2. Analiza danych w pythonie z wykorzystaniem bibliotek pandas, numpy oraz zwrócenie wizualizacji i metryk w postaci dashboardu plotly

Relacyjne bazy danych

W ramach tego milestone’a Twoim zadaniem będzie zapoznanie się z relacyjnymi bazami danych i nauka pisania zapytań w SQL. Będziesz również pracować z chmurami publicznymi i nauczyć się konfigurować i używać usług w chmurze.

Big Data

W tym module skupimy się na poznaniu narzędzi BigData oraz baz NoSQL, takich jak Hadoop, Yarn, Spark i klastry Dataproc na platformie chmury publicznej GCP.

  1. Wprowadzenie do BigData i NoSQL
  2. Praca z klastrami Dataproc
  3. Analiza danych z wykorzystaniem Pyspark
  4. Praca z Apache Airflow

Przetwarzanie strumieniowe

W tym module skupimy się na analizie strumieni danych i nauczymy się korzystać z różnych narzędzi do przetwarzania danych w czasie rzeczywistym, takich jak Kafka, Spark, Flink oraz Pub-Sub w chmurze publicznej GCP.

  1. Projekt polega na przetwarzaniu strumieni danych z Twittera na określony temat z wykorzystaniem Apache Kafka, Apache Spark Streaming i Google BigQuery.
  2. Projekt polega na budowaniu rozwiązania do przetwarzania strumieniowego w chmurze publicznej GCP, który będzie analizował dane w czasie rzeczywistym i wysyłał wyniki do wybranych kanałów komunikacyjnych (np. Slack).

Cloud

Milestone Cloud skupia się na poznaniu i wykorzystaniu różnych usług dostępnych w chmurach publicznych, w szczególności w Google Cloud Platform (GCP).

  1. Pierwszy projekt w tym milestone to konfiguracja projektu w GCP i utworzenie infrastruktury pod wcześniej realizowane projekty.
  2. Drugim projektem jest napisanie i wdrożenie terraform’ów realizujących powołanie projektu zgodnie z poprzednim.

Data science, Pipelines

W tym module uczniowie zapoznają się z budową pipeline’ów przetwarzających dane w kontekście Data Science (Sklearn, XGboost, Mlflow, DVC, Great Expectations oraz Vertex AI).

  1. Projekt polegający na budowie pipeline’u
  2. Projekt polegający na analizie i przetwarzaniu danych przy użyciu narzędzi Sklearn i XGboost.
  3. Projekt polegający na integracji pipeline’u z innymi systemami i narzędziami. Uczniowie będą mieli okazję zdobyć umiejętności w zakresie integracji pipeline’u z innymi narzędziami i systemami, takimi jak Google BigQuery czy Google Cloud Storage.

Zakres umiejętności do zdobycia

  1. Prerekwizyty
    1. Python
    2. Git
    3. Bash
    4. Podstawy software developmentu (REST API, bazy danych, Linux, struktury danych)
    5. Docker
  2. Python
    1. testy (jednostkowe, funkcjonalne, integracyjne)
  3. Bazy danych
    1. normalizacja
    2. ACID transakcje
    3. CAP
    4. OLTP OLAP
    5. hotyzontalne i wertykalne skalowanie
    6. dimensional modelling
    7. podstawy SQL
  4. Relacyjne bazy danych SQL
    1. PostgreSQL
  1. Hutownie danych
    1. bigQuery
  1. Object storage
    1. GSC
  2. Przeliczenia na klastrze
    1. Hadoop
    2. hdfs
    3. mapreduce
    4. EMR, dataproc
  3. Procesowanie danych
    1. hybrid
      1. spark
      2. beam/flink
    2. straming
      1. kafka
  4. Messages
    1. pub sub
  5. Harmonogramowanie
    1. apache airflow
  6. Sieci
    1. protokoły (ssh.tcp.http..dns..ip)
    2. firewall
    3. ssl
    4. vpn
    5. vpc
  7. IaC
    1. container orchestration
      1. docker zaawansowany
  8. CICD
    1. github actions
  9. Wizualiacje
  1. python, matplotlib, seaborn
  2. looker






Copyright © 2022 Publigo. Szkolenia napędza platforma Publigo