Vous rejoindrez l’équipe Plateforme Data de notre client, un acteur majeur du secteur des systèmes d’information. Votre mission principale sera de concevoir, développer et maintenir des solutions de traitement de données à grande échelle, en utilisant des technologies telles que BigQuery, BigTable, Apache Kafka et Apache Spark. Vous serez responsable de la création d’API permettant la diffusion des données à l’ensemble de l’écosystème, afin de casser les silos d’information et de faciliter l’accès aux données en temps réel.
Vous travaillerez en étroite collaboration avec les équipes de développement et de production pour garantir la qualité et la performance des solutions mises en place. Vous devrez assurer la maintenance continue des pipelines, optimiser les performances, et mettre en place des tests unitaires et d’intégration pour garantir la robustesse du code.
Les compétences techniques attendues incluent une solide expérience en développement avec Scala et/ou Java, une compréhension approfondie de la programmation fonctionnelle, ainsi qu’une maîtrise des plateformes de streaming de données comme Apache Kafka et des frameworks de traitement distribué comme Apache Spark. Vous devez également être à l’aise avec les services cloud GCP ou AWS, notamment Cloud Storage, BigQuery, Dataproc, Kubernetes, et d’autres outils pertinents pour la gestion et le traitement de données à grande échelle.
En plus des compétences techniques, vous devez posséder une excellente maîtrise du SQL avancé, de la CI/CD via GitLab CI/CD et Docker Compose, ainsi qu’une bonne connaissance de l’environnement Linux et des outils de ligne de commande. Vous devez également être capable d’écrire des tests unitaires et d’intégration pour garantir la qualité du code, et de communiquer efficacement en français, tant à l’écrit qu’à l’oral.
Vous serez amené à travailler dans un environnement agile (Scrum), collaborant avec des équipes pluridisciplinaires. Vous devrez faire preuve d’esprit d’analyse, d’amélioration continue, de prise de recul et de respect des délais, tout en maintenant des standards élevés. La capacité à collaborer efficacement avec les membres de l’équipe pour atteindre des objectifs communs est essentielle.
Le poste est proposé en freelance, avec un démarrage ASAP et une charge prévisionnelle annuelle budgétée de 220 à 225 jours ouvrés. Vous serez basé à Casablanca, Maroc, mais la flexibilité du travail freelance vous permettra de gérer votre organisation de travail de manière autonome.
Nous recherchons un profil diplômé d’un Bac+5 en école d’ingénieur ou équivalent universitaire, spécialisé en informatique, avec plus de 7 ans d’expérience en Scala/Java. Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus. Vous devez également être capable de produire des livrables et des reportings de haute qualité, et de communiquer efficacement avec les parties prenantes.
Si vous êtes passionné par les technologies Big Data, le cloud et l’ingénierie de données, et que vous souhaitez travailler sur des projets innovants dans un environnement stimulant, nous vous invitons à postuler. Vous pourrez contacter notre équipe pour plus d’informations et soumettre votre candidature via notre plateforme.