Notre entreprise, leader européen de l’expérience client et de la transformation digitale, est à la recherche d’un Ingénieur Data passionné et expérimenté pour renforcer son pôle BI/Data à Casablanca. Le poste est un CDI à temps plein, offrant un environnement de travail stimulant, des projets d’envergure et des opportunités d’évolution continue.
En tant que Data Engineer, vous serez rattaché(e) au Tech Lead Data Engineer et jouerez un rôle clé dans le développement, l’optimisation et la gestion des flux de données pour nos clients internes. Vous participerez à la conception et à la mise en œuvre de pipelines d’ingestion de données, en utilisant Azure Data Factory pour orchestrer les flux, et Azure Databricks pour transformer les données à grande échelle.
Vos missions principales incluent :
- Développer et maintenir des pipelines d’ingestion de données robustes et performants.
- Concevoir des pipelines de transformation de données sur Azure Databricks, en utilisant Scala, PySpark et SQL.
- Implémenter des tests unitaires pour garantir la robustesse du code et des solutions développées.
- Définir et appliquer des règles de qualité des données afin d’assurer l’intégrité et la fiabilité des informations.
- Participer à la conception des pipelines CI/CD via Azure DevOps pour automatiser les déploiements.
- Appliquer les bonnes pratiques de software engineering, y compris le clean code, le versioning, les tests et la modélisation BI.
- Collaborer étroitement avec les Product Owners Data pour comprendre les besoins métiers et proposer des solutions adaptées.
- Assurer la supervision des traitements de données avec Datadog, en détectant et résolvant rapidement les incidents.
- Contribuer à la définition et à l’optimisation des architectures de données, en veillant à la scalabilité et à la performance.
Vous devrez également :
- Maîtriser les langages Python, PySpark, Scala et SQL, ainsi que les outils Azure DataFactory, Azure Databricks, ADLS Gen 2, Git et Azure DevOps.
- Posséder une bonne connaissance du Spark UI, avec la capacité à diagnostiquer et optimiser les traitements.
- Être familier avec l’environnement Azure et ses services cloud orientés data.
- Comprendre et appliquer les bonnes pratiques de développement, notamment le clean code, le versioning, les tests unitaires et la modélisation BI.
- Avoir une expérience confirmée dans le développement de pipelines de données sur Databricks.
- Être à l’aise avec le framework dbt pour la transformation de données en SQL.
- Travailler en méthodologie Agile, en lien étroit avec les Product Owners Data et l’équipe projet.
- Faire preuve de force de proposition et de capacité d’adaptation rapide dans un environnement technique en constante évolution.
Profil recherché :
- Diplôme en informatique (Bac+5), en ingénierie ou dans un domaine connexe.
- Minimum 3 ans d’expérience dans un poste similaire.
- Maîtrise d’un ou plusieurs langages : Python, PySpark, Scala, SQL.
- Expérience confirmée dans le développement de pipelines de données sur Databricks.
- Bonne connaissance du Spark UI avec capacité à diagnostiquer et optimiser les traitements.
- Bonne connaissance de l’environnement Azure et de ses services cloud orientés data.
- Familiarité avec les bonnes pratiques de développement : clean code, versioning, tests et principes de modélisation BI.
- Expérience d’utilisation du framework dbt pour la transformation de données en SQL.
- Pratique du travail en méthodologie Agile, en lien étroit avec les Product Owners Data et l’équipe projet.
- Force de proposition, capable de s’adapter rapidement dans un environnement technique en constante évolution.
Pourquoi rejoindre notre équipe ?
- Un environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données.
- La possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data.
- Des opportunités d’évolution et de formation continue pour développer vos compétences.
- Un cadre de travail flexible et des avantages attractifs.
Nous offrons un poste stimulant, un environnement de travail collaboratif, et la possibilité de contribuer à des projets d’envergure qui ont un impact direct sur nos clients et sur la transformation digitale de l’entreprise.