Vous êtes un Data Engineer Senior, passionné par l’architecture de données et les technologies Big Data. Nous recherchons un professionnel capable de concevoir, développer et maintenir des solutions de traitement de données à grande échelle pour notre client, un acteur majeur du secteur des systèmes d’information. La mission se déroule à Casablanca, mais la flexibilité du travail freelance permet d’adapter les horaires et les lieux de travail selon vos préférences, tout en restant en contact étroit avec les équipes locales.
La plateforme Data de notre client adopte une approche « Data Centric », visant à casser les silos d’information et à fournir des données en temps réel via API à l’ensemble de l’écosystème. Vous intégrerez les équipes Plateforme Data et travaillerez en étroite collaboration avec les développeurs et les équipes de production pour garantir la qualité et la performance des solutions mises en place.
Vos missions principales incluront :
- Concevoir et développer des pipelines de données performants en utilisant Scala, Java, BigQuery, BigTable, Apache Kafka et Apache Spark.
- Mettre en œuvre des solutions de streaming de données et de traitement distribué, en assurant la scalabilité et la résilience.
- Intégrer les services cloud (GCP ou AWS) tels que Cloud Storage, BigQuery, Dataproc, Kubernetes, et d’autres outils pertinents.
- Écrire des requêtes SQL avancées pour l’analyse de gros volumes de données.
- Automatiser les workflows data via CI/CD, GitLab CI/CD et Docker Compose.
- Assurer la qualité du code en écrivant des tests unitaires et d’intégration.
- Collaborer avec les équipes pluridisciplinaires en suivant les méthodologies agiles (Scrum).
- Produire des livrables et des reportings de haute qualité, tout en communiquant efficacement en français.
Profil recherché :
- Diplômé(e) d’un Bac+5 en école d’ingénieur ou équivalent universitaire, spécialisé en informatique.
- Expérience de plus de 7 ans en Scala/Java.
- Solide expérience en développement avec une compréhension approfondie de la programmation fonctionnelle.
- Maîtrise des plateformes de streaming (Kafka) et des frameworks de traitement distribué (Spark).
- Connaissance approfondie des concepts d’architecture microservices et des bonnes pratiques de développement.
- Expérience dans le domaine de la Data et du Cloud (GCP ou AWS).
- Bonne maîtrise de BigQuery, SQL avancé, et des outils CI/CD.
- Excellente communication écrite et orale en français.
- Capacité à travailler de manière autonome tout en collaborant efficacement avec les équipes.
Nous offrons une mission freelance de 6 mois renouvelable, avec un rythme de travail de 220 à 225 jours ouvrés. Vous bénéficierez d’une rémunération compétitive, d’une flexibilité d’organisation et d’un environnement stimulant où l’innovation et la qualité sont au cœur de nos valeurs.
Si vous êtes prêt à relever ce défi et à contribuer à la transformation digitale de notre client, n’hésitez pas à nous contacter. Nous sommes impatients de collaborer avec un professionnel passionné et expérimenté pour faire avancer nos projets Data.