Vous rejoindrez l’équipe data de SQLI, une société à taille humaine mais à forte ambition, avec plus de 2200 talents répartis sur 13 pays. Votre rôle sera de participer à des projets stratégiques d’analyse de données et de mise en place de solutions de traitement à grande échelle. Vous serez responsable de la conception, de l’optimisation et du développement de pipelines de données sur des plateformes cloud, avec un focus sur l’utilisation de PySpark et Azure Data Factory.
Vos principales missions seront :
- Concevoir, développer et maintenir des pipelines de données à grande échelle utilisant PySpark.
- Mettre en place des flux de données avec Azure Data Factory, en intégrant des sources et destinations variées (SQL, Data Lakes, APIs, etc.).
- Assurer l’intégration de données provenant de systèmes variés dans un environnement cloud (Azure).
- Optimiser les performances des traitements de données (SQL, PySpark, etc.).
- Collaborer avec les équipes métier, data analysts et data scientists pour comprendre les besoins et proposer des solutions efficaces et scalables.
- Participer à la définition de l’architecture des données et de la stratégie de gouvernance.
- Mettre en place et assurer le monitoring des jobs de traitement de données (gestion des erreurs, gestion des performances).
- Documenter les solutions mises en place et suivre les bonnes pratiques de développement.
- Participer à l’amélioration continue des processus et outils existants.
Votre profil :
- Bac +5 en informatique, data science ou domaine équivalent.
- Minimum 3 ans d’expérience sur un poste similaire, avec une expérience confirmée en développement sur PySpark et Azure Data Factory.
- Maîtrise de PySpark pour le traitement de données massives en environnement distribué.
- Expérience significative dans la mise en place et la gestion de Azure Data Factory pour la création et l’orchestration de pipelines de données.
- Solide expérience en bases de données relationnelles et non relationnelles (SQL, NoSQL).
- Connaissance des outils de gestion de données dans l’écosystème Azure (Azure Data Lake, Azure SQL Database, Azure Blob Storage, etc.).
- Connaissances pratiques des services cloud Azure et de leur utilisation dans des solutions de traitement de données (Azure Databricks, Azure Synapse Analytics, etc.).
- Expérience avec des outils de gestion de versions (Git, Azure DevOps) et des bonnes pratiques de développement logiciel.
- Connaissance des concepts de Big Data et de l’optimisation des performances dans des environnements distribués.
- Autonomie, rigueur et sens du détail.
- Excellente capacité à résoudre des problèmes techniques complexes.
- Bonnes compétences en communication et capacité à travailler en équipe.
- Esprit d’analyse et capacité à comprendre les besoins métier pour proposer des solutions adaptées.
Pourquoi rejoindre notre équipe ?
- Environnement dynamique et innovant, passionné par les technologies de données.
- Possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data.
- Opportunités d’évolution et de formation continue pour développer vos compétences.
- Cadre de travail flexible et avantages attractifs.