Notre entreprise, SQLI, est un leader européen de l’expérience client et de la transformation digitale. Nous aidons les grandes marques internationales à créer de la valeur grâce à la technologie et à l’innovation digitale. Dans le cadre de notre expansion, nous recrutons un Ingénieur Data Quality & Validation pour notre équipe basée à Rabat, au Maroc.
Contexte du poste
Vous rejoindrez une équipe de 2200 collaborateurs répartis dans 12 pays, travaillant sur des projets d’envergure. Votre rôle sera central dans la conception, le développement et la maintenance de pipelines de données robustes et scalables, en utilisant les technologies Azure et Databricks. Vous serez également responsable de la qualité des données, en appliquant des pratiques de DataOps et en assurant la conformité aux normes de gouvernance et de sécurité.
Responsabilités principales
- Conception & Développement Data
- Concevoir, développer et maintenir des pipelines ETL robustes et scalables.
- Implémenter l’architecture médaille (tables Bronze, Silver, Gold) dans Databricks.
- Développer des workflows d’ingestion (batch et streaming) à partir de sources variées.
- Réalisé la transformation des données à grande échelle via PySpark.
- Optimiser les pipelines Databricks (performances, coûts, fiabilité).
- Orchestration & Intégration
- Concevoir et orchestrer les pipelines via Azure Data Factory (ADF).
- Mettre en place les Jobs Databricks (batch et streaming).
- Assurer la gestion des environnements, clusters, notebooks et configurations Azure.
- Qualité & Validation (QA Data)
- Concevoir et exécuter des cas de tests et plans de tests pour les pipelines data.
- Rédiger et exécuter des requêtes SQL avancées pour les contrôles de cohérence, qualité et validation.
- Utiliser Xray pour la gestion des campagnes de tests et le suivi qualité.
- Documenter les anomalies et assurer le suivi des correctifs.
- Collaboration & Support
- Collaborer avec les équipes Data Science, BI, Développeurs et Product Owners.
- Fournir une expertise technique et mentorat pour les profils plus juniors.
- Garantir les bonnes pratiques de développement, sécurité et gouvernance cloud.
Profil recherché
- Minimum 5 ans d’expérience en Data Engineering.
- Expertise avancée en PySpark et pipelines big data.
- Maîtrise de Databricks et de son écosystème (clusters, notebooks, workflows).
- Très bonnes connaissances en PySpark pour le traitement de données distribuées.
- Expérience confirmée en conception ETL et ingestion de données.
- Maîtrise de Azure Data Factory (ADF).
- Connaissances des bonnes pratiques de DataOps.
- Excellentes compétences en SQL (analytique, optimisation, validations).
- Connaissance des frameworks de tests et gestion via Xray.
- Expérience dans la rédaction de cas de tests, plans de tests, exécution dans des notebooks ou pipelines.
- Capacité à travailler dans un environnement agile et multi-projets.
Bonus / Nice to Have
- Connaissances Azure Synapse, Delta Lake, CI/CD, Git, Terraform.
- Sensibilité à la gouvernance et la sécurité des données.
Pourquoi rejoindre notre équipe ?
Vous bénéficierez d’un environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données. Vous aurez l’opportunité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data. Des opportunités d’évolution et de formation continue vous permettront de développer vos compétences. Le poste est proposé en mode hybride, offrant un cadre de travail flexible et des avantages attractifs.
Si vous êtes motivé par les défis techniques, que vous avez une forte orientation qualité et que vous souhaitez évoluer dans un contexte international, nous serions ravis de recevoir votre candidature.