Inżynier Danych Chmurowych
Warszawa, PolskaCCC
Wynagrodzenie do ustalenia
Zakres obowiązków
Tworzenie i rozwój procesów ELT integrujących dane z narzędzi takich jak Google Analytics, Appsflyer, Google Ads, API sieci afiliacyjnych, itp.
Utrzymywanie i rozwijanie hurtowni danych w środowisku Google Cloud Platform (BigQuery, Cloud Composer) wraz z tworzeniem i utrzymywaniem przepływów z innych hurtowni danych (Azure, Oracle, MySql, Databricks).
Zapewnienie bezpieczeństwa danych, czyli znajomość dobrych praktyk w zakresie zarządzania dostępami oraz przechowywania i przetwarzania danych osobowych.
Współpraca z zespołem analityków i specjalistów marketingu przy dostarczaniu danych do raportów i dashboardów.
Monitorowanie jakości danych i wspieranie procesów związanych z ich czyszczeniem, standaryzacją i walidacją.
Udział w projektach związanych z segmentacją klientów, marketing mix modeling, budowanie agentów AI.
Szukamy osób, które:
Posiadają minimum 2 lata doświadczenia komercyjnego na podobnym stanowisku i potrafią skutecznie wykorzystywać swoje umiejętności w środowisku produkcyjnym
Wykazują się dużą dokładnością i umiejętnością samodzielnego rozwiązywania problemów
Są komunikatywne, zorientowane na cel i zdeterminowane, by znaleźć najlepsze rozwiązanie dla każdego wyzwania
Mają doświadczenie w pracy z bazami danych (np. BigQuery), znają bardzo dobrze SQL, Python i procesy ELT oraz narzędzie orkiestracji zadań – Airflow
Mają doświadczenie z Git i wersjonowaniem kodu
znajomość podstaw modelowania danych
Znajomość Google Cloud Platform lub chęć intensywnej nauki GCP (np. BigQuery, Cloud Storage, Cloud Composer, Cloud Build)
Mile widziane:
Znajomość lub chęć nauki działania narzędzi e-commerce i marketingowych, takich jak Google Analytics, Appsflyer, Google Ads API, Facebook/Meta Ads API i inne API źródeł danych marketingowych
Znajomość dbt, GitOps
Znajmość Databricks
Opis
Zakres zadań: • Tworzenie i rozwój procesów ELT integrujących dane z narzędzi takich jak Google Analytics, Appsflyer, Google Ads, API sieci afiliacyjnych, itp. • Utrzymywanie i rozwijanie hurtowni danych w środowisku Google Cloud Platform (BigQuery, Cloud Composer) wraz z tworzeniem i utrzymywaniem przepływów z innych hurtowni danych (Azure, Oracle, MySql, Databricks). • Zapewnienie bezpieczeństwa danych, czyli znajomość dobrych praktyk w zakresie zarządzania dostępami oraz przechowywania i przetwarzania danych osobowych. • Współpraca z zespołem analityków i specjalistów marketingu przy dostarczaniu danych do raportów i dashboardów. • Monitorowanie jakości danych i wspieranie procesów związanych z ich czyszczeniem, standaryzacją i walidacją. • Udział w projektach związanych z segmentacją klientów, marketing mix modeling, budowanie agentów AI. • Szukamy osób, które: • Posiadają minimum 2 lata doświadczenia komercyjnego na podobnym stanowisku i potrafią skutecznie wykorzystywać swoje umiejętności w środowisku produkcyjnym • Wykazują się dużą dokładnością i umiejętnością samodzielnego rozwiązywania problemów • Są komunikatywne, zorientowane na cel i zdeterminowane, by znaleźć najlepsze rozwiązanie dla każdego wyzwania • Mają doświadczenie w pracy z bazami danych (np. BigQuery), znają bardzo dobrze SQL, Python i procesy ELT oraz narzędzie orkiestracji zadań – Airflow • Mają doświadczenie z Git i wersjonowaniem kodu • znajomość podstaw modelowania danych • Znajomość Google Cloud Platform lub chęć intensywnej nauki GCP (np. BigQuery, Cloud Storage, Cloud Composer, Cloud Build) • Mile widziane: • Znajomość lub chęć nauki działania narzędzi e-commerce i marketingowych, takich jak Google Analytics, Appsflyer, Google Ads API, Facebook/Meta Ads API i inne API źródeł danych marketingowych • Znajomość dbt, GitOps • Znajmość Databricks