Responsabilitati principale
• Dezvoltarea de data pipelines scalabile pentru date structurate si nestructurate
• Integrarea API-urilor, bazelor de date si sistemelor de streaming
• Dezvoltarea si operarea proceselor ETL/ELT (curatare, normalizare, imbogatire date)
• Modelarea datelor pentru arhitecturi OLTP, OLAP si data lake
• Operarea platformelor moderne de date (Snowflake, BigQuery, Delta Lake)
• Orchestrarea fluxurilor de lucru folosind tool-uri precum Airflow, Dagster sau Prefect
• Optimizarea performantelor (partitionare, caching, optimizare interogari)
• Asigurarea securitatii datelor, criptarii si conformitatii cu GDPR
Cerinte
• Experienta in data engineering, analytics engineering sau backend engineering
• Cunostinte solide de SQL si Python, precum si tehnologii precum Spark, Kafka sau Flink
• Cunostinte despre arhitecturi moderne de data warehouse si lakehouse
• Experienta in dezvoltarea proceselor ETL/ELT
• Orientare catre calitate si mod de lucru structurat