Vous rejoindrez l’équipe data de SQLI à Rabat, au sein d’une entreprise de services numériques reconnue pour son expertise en data, cloud et Big Data. Votre rôle principal sera de concevoir, développer et maintenir des pipelines de données à grande échelle sur la plateforme Azure, en mettant l’accent sur l’utilisation de PySpark et Azure Data Factory.
Vos missions incluront :
- Conception, développement et maintenance de pipelines de données massives en PySpark.
- Création de flux de données avec Azure Data Factory, intégrant SQL, Data Lakes, APIs, etc.
- Intégration de données provenant de systèmes variés dans un environnement cloud Azure.
- Optimisation des performances des traitements (SQL, PySpark, etc.).
- Collaboration avec les équipes métier, data analysts et data scientists pour comprendre les besoins et proposer des solutions efficaces et scalables.
- Participation à la définition de l’architecture des données et de la stratégie de gouvernance.
- Mise en place et suivi du monitoring des jobs de traitement de données (gestion des erreurs, performances).
- Documentation des solutions mises en place et suivi des bonnes pratiques de développement.
- Participation à l’amélioration continue des processus et outils existants.
Profil recherché :
- Bac +5 en informatique, data science ou domaine équivalent.
- Minimum 3 ans d’expérience sur un poste similaire, avec une expérience confirmée en développement sur PySpark et Azure Data Factory.
- Maîtrise de PySpark pour le traitement de données massives en environnement distribué.
- Expérience significative dans la mise en place et la gestion de Azure Data Factory.
- Solide expérience en bases de données relationnelles et non relationnelles (SQL, NoSQL).
- Connaissance des outils de gestion de données dans l’écosystème Azure (Data Lake, SQL Database, Blob Storage, etc.).
- Connaissances pratiques des services cloud Azure (Databricks, Synapse Analytics, etc.).
- Expérience avec Git, Azure DevOps et bonnes pratiques de développement logiciel.
- Connaissance des concepts de Big Data et optimisation des performances dans des environnements distribués.
- Autonomie, rigueur, sens du détail, excellente capacité à résoudre des problèmes techniques complexes.
- Bonnes compétences en communication et capacité à travailler en équipe.
Pourquoi rejoindre SQLI ?
- Environnement dynamique et innovant, équipe passionnée par les technologies de données.
- Projets d’envergure, pointe des technologies cloud et Big Data.
- Opportunités d’évolution et de formation continue.
- Cadre de travail flexible et avantages attractifs.