Dans le cadre de notre événement "Data & AI Recruitment Week" (du 3 au 10 décembre), DXC CDG Maroc, coentreprise marocaine du groupe international DXC Technology et de la Caisse de Dépôt et de Gestion (CDG), recherche un Data Engineer Senior pour renforcer son équipe data à Rabat. Le poste est en CDI, à temps plein, avec un mode de travail hybride (présentiel et télétravail). Vous serez responsable de la conception et de l’optimisation de la plateforme data, incluant data lake, data warehouse, et de la migration vers le cloud. Vous piloterez la refonte d’infrastructures complexes, en assurant la scalabilité, la sécurité et la gouvernance des données. Vous développerez, optimiserez et maintiendrez des pipelines critiques, en utilisant Airflow, dbt, Spark, SQL et Python, tout en appliquant les meilleures pratiques CI/CD et tests automatisés. Vous contribuerez à l’amélioration continue des processus, en versioning et en monitoring. Vous garantirez la fiabilité, la disponibilité et la documentation des données, en mettant en place des mécanismes de gouvernance conformes aux exigences réglementaires et aux standards de sécurité. En tant que leader technique, vous accompagnerez les Data Engineers juniors et confirmés, en partageant votre expertise et en structurant les rituels techniques de l’équipe. Vous collaborerez étroitement avec les équipes Produit, BI, Data Science, Sécurité et Backend, en anticipant les besoins futurs et en proposant des solutions techniques adaptées aux enjeux business. Vous serez l’interlocuteur clé auprès des parties prenantes techniques, en assurant la communication et la coordination des projets. Les qualifications requises incluent un Bac +4/5 en école d’ingénieur ou université, avec spécialisation en data, informatique ou disciplines connexes, ainsi qu’une expérience de 4 à 6 ans en tant que Data Engineer ou fonction technique similaire. Les compétences techniques attendues sont la maîtrise de SQL, Python, Spark, et idéalement Scala, une solide expérience sur les environnements Cloud (Azure, GCP ou AWS), une excellente maîtrise de l’orchestration de pipelines (Airflow, dbt), une expertise en data modeling, traitements batch & streaming, et des bonnes pratiques DataOps. Vous devez également posséder de bonnes connaissances en gouvernance, sécurité et bonnes pratiques d’architecture data. Du point de vue comportemental, vous devez faire preuve de leadership technique, d’autonomie, de sens de la transmission, d’esprit d’amélioration continue et de bonnes compétences de communication. Vous maîtrisez le français et l’anglais. Le processus de recrutement se déroule en plusieurs étapes : pré-sélection sur CV, entretien via Teams, puis intégration. Si vous recherchez un environnement exigeant, moderne et orienté innovation, cette opportunité est faite pour vous. N’hésitez pas à postuler dès maintenant pour rejoindre une équipe dynamique et contribuer à la transformation digitale de grandes entreprises et institutions.