pracaon.pl

Senior Data Engineer (f / m/x)

Wiele lokalizacji, Wielkopolskie, Polska
Ogłoszenie zewnętrzne
Sii Poland

Sii Poland

Partner
89d
Wynagrodzenie do ustalenia
Bezpieczeństwo Publiczne i Ochrona
Pełny etat
Zdalna
Benefity
  • Great Place to Work

  • Stabilna sytuacja finansowa

  • Kontrakty z globalnymi markami

  • Centrum szkoleń wewnętrznych

  • Wielu ekspertów, od których możesz się uczyć

  • Otwarty i dostępny zarząd

  • Profit sharing

  • Program Sponsoringu Pasji

  • Cykliczne imprezy i wyjazdy integracyjne

  • Komfortowe i dobrze wyposażone biura

  • Aplikacja MySii

  • Opieka medyczna

Wymagania
  • Minimum 5 lat doświadczenia na podobnym stanowisku

  • Znajomość chmurowych platform danych (Azure, Databricks, Snowflake lub bigquery)

  • Bardzo dobra znajomość SQL oraz jednego z języków: Python, Scala lub Java

  • Doświadczenie w pracy z dużymi zbiorami danych i systemami rozproszonymi

  • Umiejętność modelowania danych, w tym Data Vault 2.0

  • Znajomość Infrastructure as Code, w szczególności Terraform

  • Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego

Zakres obowiązków
  • Projektowanie i rozwój skalowalnych potoków danych (batch i real-time)

  • Tworzenie i optymalizacja procesów ETL/ELT

  • Modelowanie danych z wykorzystaniem Data Vault 2.0 i schematów analitycznych

  • Praca z platformami big data (Apache Spark, Databricks, Kafka/Event Hub)

  • Optymalizacja wydajności i kosztów infrastruktury chmurowej

  • Zapewnienie jakości, monitoringu i bezpieczeństwa danych

  • Współpraca z zespołami analitycznymi i data science

Opis

Projekt obejmuje rozwój nowoczesnej platformy danych w chmurze, wspierającej analizę, raportowanie oraz rozwiązania machine learning. Dane przetwarzane są w trybie batch oraz real-time, z naciskiem na skalowalność, automatyzację i wysoką jakość. Rola daje realny wpływ na architekturę danych, projektowanie potoków ETL/ELT oraz modelowanie danych (w tym Data Vault 2.0), we współpracy z zespołami data science, analitykami i inżynierami oprogramowania. Projektowanie i rozwój skalowalnych potoków danych (batch i real-time) Tworzenie i optymalizacja procesów ETL/ELT Modelowanie danych z wykorzystaniem Data Vault 2.0 i schematów analitycznych Praca z platformami big data (Apache Spark, Databricks, Kafka/Event Hub) Optymalizacja wydajności i kosztów infrastruktury chmurowej Zapewnienie jakości, monitoringu i bezpieczeństwa danych Współpraca z zespołami analitycznymi i data science Minimum 5 lat doświadczenia na podobnym stanowisku Znajomość chmurowych platform danych (Azure, Databricks, Snowflake lub bigquery) Bardzo dobra znajomość SQL oraz jednego z języków: Python, Scala lub Java Doświadczenie w pracy z dużymi zbiorami danych i systemami rozproszonymi Umiejętność modelowania danych, w tym Data Vault 2.0 Znajomość Infrastructure as Code, w szczególności Terraform Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego Great Place to Work Stabilna sytuacja finansowa Kontrakty z globalnymi markami Centrum szkoleń wewnętrznych Wielu ekspertów, od których możesz się uczyć Otwarty i dostępny zarząd Profit sharing Program Sponsoringu Pasji Cykliczne imprezy i wyjazdy integracyjne Komfortowe i dobrze wyposażone biura Aplikacja MySii Opieka medyczna

Oferta została zaimportowana z zewnętrznego portalu.Źródło ogłoszenia