Senior Data Engineer (f / m/x)
Wiele lokalizacji, Wielkopolskie, PolskaSii Poland
Wynagrodzenie do ustalenia
Benefity
Great Place to Work
Stabilna sytuacja finansowa
Kontrakty z globalnymi markami
Centrum szkoleń wewnętrznych
Wielu ekspertów, od których możesz się uczyć
Otwarty i dostępny zarząd
Profit sharing
Program Sponsoringu Pasji
Cykliczne imprezy i wyjazdy integracyjne
Komfortowe i dobrze wyposażone biura
Aplikacja MySii
Opieka medyczna
Wymagania
Minimum 5 lat doświadczenia na podobnym stanowisku
Znajomość chmurowych platform danych (Azure, Databricks, Snowflake lub bigquery)
Bardzo dobra znajomość SQL oraz jednego z języków: Python, Scala lub Java
Doświadczenie w pracy z dużymi zbiorami danych i systemami rozproszonymi
Umiejętność modelowania danych, w tym Data Vault 2.0
Znajomość Infrastructure as Code, w szczególności Terraform
Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego
Zakres obowiązków
Projektowanie i rozwój skalowalnych potoków danych (batch i real-time)
Tworzenie i optymalizacja procesów ETL/ELT
Modelowanie danych z wykorzystaniem Data Vault 2.0 i schematów analitycznych
Praca z platformami big data (Apache Spark, Databricks, Kafka/Event Hub)
Optymalizacja wydajności i kosztów infrastruktury chmurowej
Zapewnienie jakości, monitoringu i bezpieczeństwa danych
Współpraca z zespołami analitycznymi i data science
Opis
Projekt obejmuje rozwój nowoczesnej platformy danych w chmurze, wspierającej analizę, raportowanie oraz rozwiązania machine learning. Dane przetwarzane są w trybie batch oraz real-time, z naciskiem na skalowalność, automatyzację i wysoką jakość. Rola daje realny wpływ na architekturę danych, projektowanie potoków ETL/ELT oraz modelowanie danych (w tym Data Vault 2.0), we współpracy z zespołami data science, analitykami i inżynierami oprogramowania. Projektowanie i rozwój skalowalnych potoków danych (batch i real-time) Tworzenie i optymalizacja procesów ETL/ELT Modelowanie danych z wykorzystaniem Data Vault 2.0 i schematów analitycznych Praca z platformami big data (Apache Spark, Databricks, Kafka/Event Hub) Optymalizacja wydajności i kosztów infrastruktury chmurowej Zapewnienie jakości, monitoringu i bezpieczeństwa danych Współpraca z zespołami analitycznymi i data science Minimum 5 lat doświadczenia na podobnym stanowisku Znajomość chmurowych platform danych (Azure, Databricks, Snowflake lub bigquery) Bardzo dobra znajomość SQL oraz jednego z języków: Python, Scala lub Java Doświadczenie w pracy z dużymi zbiorami danych i systemami rozproszonymi Umiejętność modelowania danych, w tym Data Vault 2.0 Znajomość Infrastructure as Code, w szczególności Terraform Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego Great Place to Work Stabilna sytuacja finansowa Kontrakty z globalnymi markami Centrum szkoleń wewnętrznych Wielu ekspertów, od których możesz się uczyć Otwarty i dostępny zarząd Profit sharing Program Sponsoringu Pasji Cykliczne imprezy i wyjazdy integracyjne Komfortowe i dobrze wyposażone biura Aplikacja MySii Opieka medyczna