Provocări:
- Devino o parte esențială a echipei AI Services, concentrată pe construirea și operarea aplicațiilor ML pentru clienții din cadrul grupului DT.
- Identifică proactiv oportunități de îmbunătățire a infrastructurii și proceselor noastre de date, propunând și implementând soluții inovatoare.
- Dezvoltă și menține fluxurile noastre de procesare a datelor și de extragere, transformare, încărcare (ETL).
- Proiectează, menține și actualizează modelele de date.
- Integrează date din diverse surse interne și externe.
- Construiește și menține soluții scalabile, eficiente și robuste de infrastructură de date pentru produsele noastre ML.
- Colaborează cu oamenii de știință în domeniul datelor și dezvoltatorii front-end pentru a crea seturi de date pregătite pentru producție, utilizate la instruirea modelelor noastre și pentru construirea instrumentelor de vizualizare.
- Lucrează la îmbunătățirea calității datelor și implementează soluții automate de monitorizare a calității acestora.
- Contribuie la dezvoltarea și adoptarea celor mai bune practici de inginerie a datelor.
- Rămâi la curent cu noile tehnologii și evoluții din domeniul ingineriei datelor.
- Colaborează cu ingineri din alte echipe pentru a lua decizii privind viitorul infrastructurii și stivei tehnologice.
- Scrie cod curat, pregătit pentru producție, bine documentat și testat.
Competențe:
- Diplomă de licență sau master în Informatică sau domenii similare.
- Peste 5 ani de experiență ca inginer de date sau dezvoltator software Python cu accent pe sarcini bazate pe date.
- Fluent în limba engleză (cunoștințele de germană, cehă sau slovacă constituie un avantaj).
- Cunoștințe avansate de SQL.
- Cunoștințe avansate despre sisteme de baze de date (SQL, NoSQL, tehnici de optimizare a bazelor de date).
- Cunoștințe avansate de Python (OOP, modele de design, testare, bune practici de codare și biblioteci populare de procesare a datelor).
- Experiență practică în modelarea datelor.
- Experiență practică cu procese ETL/ELT și dezvoltarea fluxurilor de date.
- Experiență în utilizarea și/sau construirea de API-uri și integrarea datelor din diverse surse.
- Cunoștințe despre instrumente de orchestrare precum Dagster sau Airflow.
- Cunoștințe despre soluții de date în cloud (de preferință GCP, dar și AWS sau Azure).
- Cunoștințe de lucru cu Git (folosim GitLab).
- Abilități analitice puternice, capacitatea de a înțelege structuri complexe de date și de a produce soluții eficiente pentru date.
- Independență și reziliență în fața obstacolelor.
- Abilități bune de comunicare, atitudine pozitivă față de lucrul într-un mediu international.
Bonusuri:
- Experiență cu lucrul în echipe agile (Scrum).
- Cunoștințe de lucru despre GitLab CI/CD.
- Cunoștințe de lucru despre Docker și/sau Kubernetes.
- Experiență cu depozite moderne de date (BigQuery, Snowflake).
- Experiență cu instrumente de inginerie a datelor precum Databricks, Spark sau Kafka.
- Experiență în dezvoltarea aplicațiilor bazate pe învățare automată.