Vous intégrerez l’équipe Data Engineering de SQLI, une société reconnue pour son expertise en technologies de l’information et Big Data. Votre rôle principal sera de concevoir, développer et déployer des pipelines de données robustes en Java et Spark, en utilisant PySpark pour les traitements batch. Vous participerez à l’analyse des spécifications, à la rédaction de scripts, à la mise en production et à la maintenance des flux de données, tout en assurant la correction de bugs et la qualité des livrables.
Les missions clés incluent :
- Développement de traitements batch en PySpark et de flux streaming en Java‑Spark.
- Conception et mise en production de pipelines de données, avec tests unitaires et d’intégration.
- Analyse et correction de bugs, optimisation des performances et consommation de ressources.
- Support incident sur les flux Data gérés par l’équipe.
- Gestion de projets de bout en bout, de l’analyse des spécifications à la livraison finale.
- Collaboration étroite avec les équipes métiers pour comprendre les besoins et proposer des solutions adaptées.
Profil recherché :
- Bac+5 en Informatique ou domaine similaire.
- Minimum 6 ans d’expérience dans un poste similaire.
- Maîtrise avancée du langage Java.
- Bonne connaissance de Spark, fortement souhaitée.
- Connaissances en Python appréciées, notamment pour la rédaction de scripts.
- Capacité à travailler de manière autonome tout en collaborant efficacement avec les collègues.
- Excellentes compétences en communication orale et écrite.
Nous offrons un environnement dynamique et innovant, des projets d’envergure, une culture d’apprentissage continu, un cadre de travail hybride et des avantages attractifs. Rejoignez SQLI pour contribuer à des solutions data de pointe et évoluer dans un contexte international.