DXC CDG Maroc, coentreprise marocaine entre DXC Technology et la Caisse de Dépôt et de Gestion (CDG), recherche un Data Engineer Senior pour renforcer son équipe data à Rabat. Ce poste clé s’inscrit dans le cadre de l’événement « Data & AI Recruitment Week » (3 – 10 décembre) et vise à consolider la plateforme data de l’entreprise.
Responsabilités principales :
- Architecture & conception de la data platform : concevoir des architectures data robustes, évolutives et sécurisées (data lake, data warehouse), définir les bonnes pratiques de modélisation, partitionnement et traitement (batch/streaming), piloter la refonte ou la migration d’infrastructures complexes vers le cloud.
- Développement & industrialisation des pipelines : développer, optimiser et maintenir des pipelines critiques, scalables et bien monitorés (Airflow, dbt, Spark…), contribuer à l’amélioration continue (versioning, CI/CD, tests automatisés), optimiser les traitements et requêtes SQL/Python pour gérer de fortes volumétries.
- Qualité, sécurité & gouvernance des données : garantir la fiabilité, la disponibilité et la documentation des données, mettre en place ou renforcer les mécanismes de gouvernance, assurer la conformité aux exigences réglementaires et aux standards de sécurité.
- Leadership technique & mentoring : accompagner et faire monter en compétence les Data Engineers juniors et confirmés, structurer les rituels techniques de l’équipe, challenger les choix technologiques et participer activement aux orientations techniques.
- Collaboration produit & data transverse : travailler en étroite collaboration avec les équipes Produit, BI, Data Science, Sécurité et Backend, anticiper les besoins futurs et proposer des solutions techniques adaptées aux enjeux business, agir comme interlocuteur clé auprès des parties prenantes techniques.
Profil recherché :
- Formation : Bac +4/5 en école d’ingénieur ou université, spécialisation en data, informatique ou disciplines connexes.
- Expérience : 4 à 6 ans d’expérience en tant que Data Engineer ou fonction technique similaire.
- Compétences techniques : maîtrise de SQL, Python, Spark et idéalement Scala, solide expérience sur les environnements Cloud (Azure, GCP ou AWS), excellente maîtrise de l’orchestration de pipelines (Airflow, dbt…), expertise en data modeling, traitements batch & streaming, pratiques DataOps, bonnes connaissances en gouvernance, sécurité et bonnes pratiques d’architecture data.
- Compétences comportementales : leadership technique, sens de la transmission, forte autonomie, capacité à collaborer transversalement, esprit d’amélioration continue, bonnes compétences de communication.
- Langues : maîtrise du français et de l’anglais.
Conditions : CDI, travail hybride (présentiel et télétravail), rémunération compétitive (non précisée), opportunité de travailler sur des projets techniques à fort impact et de contribuer à la montée en compétence de l’équipe.
Processus de recrutement : pré-sélection sur CV, entretien via Teams. Pour postuler, envoyez votre candidature via la plateforme Jobzyn.