Submitting more applications increases your chances of landing a job.
Here’s how busy the average job seeker was last month:
Opportunities viewed
Applications submitted
Keep exploring and applying to maximize your chances!
Looking for employers with a proven track record of hiring women?
Click here to explore opportunities now!You are invited to participate in a survey designed to help researchers understand how best to match workers to the types of jobs they are searching for
Would You Be Likely to Participate?
If selected, we will contact you via email with further instructions and details about your participation.
You will receive a $7 payout for answering the survey.
Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et/ou streaming).
Assurer l’ingestion, la transformation et la mise à disposition des données depuis des sources multiples vers les data warehouses / data lakes.
Superviser et fiabiliser les traitements de données (monitoring, alerting, reprise sur incident).
Identifier, analyser et corriger les incidents liés aux flux de données (performance, qualité, disponibilité).
Optimiser les performances des traitements ETL/ELT et des requêtes SQL.
Automatiser les processus data via des scripts Python (orchestration, contrôles qualité, nettoyage).
Participer à la modélisation des données (schémas, tables, vues analytiques).
Contribuer à l’industrialisation des flux data (tests, CI/CD, documentation).
Travailler en collaboration avec les équipes BI pour alimenter les outils de reporting et de visualisation.
Participer aux projets de migration, modernisation ou refonte des plateformes data.
Assurer une veille technologique sur les outils Data Engineering, Cloud et DataOps.
Formation Bac +5 en informatique, data engineering, systèmes d’information ou équivalent.
Expérience confirmée (minimum 4 à 5 ans) en tant que Data Engineer ou sur un rôle équivalent.
Excellente maîtrise de Python.
Solide expérience sur les outils ETL / ELT et d’orchestration (Airflow, Talend, dbt ou équivalents).
Très bonne maîtrise des bases de données relationnelles (SQL Server, PostgreSQL…) et du SQL avancé.
Expérience sur des environnements Data Warehouse / Data Lake.
Connaissance d’au moins un outil de visualisation BI (Power BI, Tableau, Qlik, Looker…).
Maîtrise des outils de versioning et CI/CD : Git, GitLab, Jenkins.
Connaissance des bonnes pratiques DataOps (monitoring, tests, qualité des données).
Esprit analytique et rigueur
Autonomie et sens des responsabilités
Capacité à travailler en environnement distribué
Bon relationnel et capacité à collaborer avec des profils techniques et métiers
Orientation performance et qualité des données
You'll no longer be considered for this role and your application will be removed from the employer's inbox.