SQLI, leader européen de l’expérience client et de la transformation digitale, recrute un Ingénieur Data Quality & Validation (F-H) à Rabat, Maroc. Ce poste clé s’inscrit dans la stratégie d’optimisation des flux de données de l’entreprise, en mettant l’accent sur la qualité, la performance et la gouvernance.
Contexte du poste
Vous serez responsable de la conception, du développement et de la maintenance de pipelines ETL sur Azure Databricks, en appliquant l’architecture en médailles (Bronze, Silver, Gold). Vous orchestrerez les flux via Azure Data Factory (ADF), mettrez en place des jobs batch et streaming, et optimiserez les performances, les coûts et la fiabilité des clusters.
Responsabilités principales
- Conception & Développement Data : Concevoir, développer et maintenir des pipelines ETL robustes et scalables. Implémenter l’architecture médaille dans Databricks. Développer des workflows d’ingestion batch et streaming à partir de sources variées. Réaliser la transformation des données à grande échelle via PySpark. Optimiser les pipelines Databricks (performances, coûts, fiabilité).
- Orchestration & Intégration : Concevoir et orchestrer les pipelines via Azure Data Factory (ADF). Mettre en place les Jobs Databricks (batch et streaming). Assurer la gestion des environnements, clusters, notebooks et configurations Azure.
- Qualité & Validation (QA Data) : Concevoir et exécuter des cas de tests et plans de tests pour les pipelines data. Rédiger et exécuter des requêtes SQL avancées pour les contrôles de cohérence, qualité et validation. Utiliser Xray pour la gestion des campagnes de tests et le suivi qualité. Documenter les anomalies et assurer le suivi des correctifs.
- Collaboration & Support : Collaborer avec les équipes Data Science, BI, Développeurs et Product Owners. Fournir une expertise technique et mentorat pour les profils plus juniors. Garantir les bonnes pratiques de développement, sécurité et gouvernance cloud.
Profil recherché
- Minimum 5 ans d’expérience en Data Engineering.
- Expertise avancée en PySpark et pipelines big data.
- Maîtrise de Databricks et de son écosystème (clusters, notebooks, workflows).
- Très bonnes connaissances en PySpark pour le traitement de données distribuées.
- Expérience confirmée en conception ETL et ingestion de données.
- Maîtrise d’Azure Data Factory (ADF) et des bonnes pratiques de DataOps.
- Excellentes compétences en SQL (analytique, optimisation, validations).
- Connaissance des frameworks de tests et gestion via Xray.
- Capacité à travailler dans un environnement agile et multi-projets.
Bonus / Nice to Have
- Connaissances Azure Synapse, Delta Lake, CI/CD, Git, Terraform.
- Sensibilité à la gouvernance et la sécurité des données.
Pourquoi rejoindre SQLI
- Environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données.
- Possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data.
- Opportunités d’évolution et de formation continue pour développer vos compétences.
- Cadre de travail flexible (mode hybride) et avantages attractifs.
Ce poste est un CDI à Rabat, Maroc, avec un mode de travail hybride. Si vous êtes passionné par les données, la qualité et l’innovation, rejoignez SQLI pour contribuer à la transformation digitale de nos clients.