Osoba na tym stanowisku będzie współpracować z zespołami projektowymi odpowiedzialnymi za tworzenie zaawansowanych rozwiązań z zakresu Data Lakehouse, Business Intelligence, Advanced Analytics w środowiskach chmurowych. Pracując w międzynarodowym środowisku, będzie specjalizować się w najnowszych technologiach w tym obszarze.
Zakres obowiązków:
- Projektowanie nowych rozwiązań oraz wychodzenie z inicjatywami usprawnień w istniejących rozwiązaniach w ramach platform danych — zarówno w ramach zleceń wychodzących od biznesu (zmiany funkcjonalne), jak i od technologii (zmiany architektoniczne)
- Koordynacja ustaleń architektonicznych z Architektami po stronie klienta oraz innych dostawców
- Koordynacja pracy zespołu Data Engineerów (odpowiedzialnych za rozwój platform danych oraz procesów ETL/ELT) i Analityków Danych (odpowiedzialnych za modelowanie danych oraz rozwój raportów) po stronie BitPeak w ramach wielu projektów realizowanych równolegle dla tego samego klienta; ścisła współpraca z Project Managerami
- Optymalizacja procesu wytwórczego rozwiązań danych poprzez wprowadzanie zmian procesowych oraz narzędziowych (zarządzanie kodem, testami, dokumentacją; dobór narzędzi programistycznych)
- Pilnowanie stosowania się do istniejących standardów rozwoju platform, jak również ich wyznaczanie (tam, gdzie zostaną zidentyfikowane braki) oraz usprawnianie
- Dbanie o jakość dostarczanych rozwiązań, prowadzenie code-review
- Praca "u podstaw" jako Data Engineer i Data Analyst (w celu utrzymania kontaktu z technologią)
Nasze oczekiwania:
- Minimum 5 lat doświadczenia w projektowaniu i budowaniu rozwiań klasy Business Intelligence, ETL/ELT, Data Warehouse, Data Lake, Data Lakehouse, Big Data, OLAP
- Praktyczna znajomość różnych silników baz danych relacyjnych (np. SQL Server/SQL Database, Oracle, Redshift, PostgreSQL, Teradata) oraz nierelacyjnych (np. MongoDB, Cosmos DB, DynamoDB, Neo4j, HBase, Redis, InfluxDB)
- Bardzo dobra znajomość języka SQL oraz Python (min. 5 lat doświadczenia)
- Znajomość rozwiązań klasy data engineering oraz do orkiestracji procesów przetwarzania danych, w szczególności: Spark/Databricks (w tym mechanizmy structured streaming, DLT, itp.), Hadoop/CDP, Azure/Fabric Data Factory, Apache Flink, Apache Kafka, Apache Airflow, dbt, Debezium, itp.
- Rozumienie zagadnień z obszarów: data governance, data quality, batch/streaming data processing
- Znajomość wzorców architektonicznych z obszaru data: Data Mesh, Data Vault, Dimensional Modeling, Medallion Architecture, Lambda/Kappa Architecture, itp.
- Biegłość w korzystaniu z repozytoriów git (Bitbucket/GitHub/GitLab)
- Rozeznanie i doświadczenie w usługach danych oferowanych przez platformę Azure i/lub AWS
- Elastyczność, samodzielność i skuteczność w działaniu oraz odpowiedzialność za powierzone zadania
- Praktyczna znajomość angielskiego na poziomie min. B2 (preferowany C1+)
Mile widziane:
- Znajomość języka Scala lub R
- Znajomość zagadnień CI/CD i doświadczenie w ich konfiguracji
- Posiadanie specjalistycznych certyfikatów Microsoft, AWS, Databricks
- Umiejętność korzystania z narzędzi JIRA/ClickUp, Confluence, Teams/slack
- Doświadczenie w przeprowadzaniu code-review, zarządzaniu zespołem, delegowaniu zadań
- Doświadczenie w pracy w zwinnych zespołach i w dowożeniu rezultatów w krótkich sprintach
Oferujemy:
- Globalne projekty w chmurze – pracujemy z klientami z całego świata w oparciu o nowoczesne technologie chmurowe
- Refundacja certyfikatów – finansujemy egzaminy, certyfikaty Microsoft, AWS, Databricks
- Czas na naukę – 60 godzin płatnych w skali roku
- Elastyczne podejście – możliwość wyboru pomiędzy pracą z domu a spotkaniami w naszych biurach
- Spersonalizowane benefity – opieka medyczna, dofinansowanie pakietów sportowych, nauki języków, bonus za polecenie nowego pracownika (nawet do 15 000 PLN) a także premia roczna oraz medialna