Vous intégrerez la Digital Factory Supply Chain, un environnement dédié à la conception et au développement d'assets digitaux pour optimiser l'expérience omnicanale de l'approvisionnement des magasins. Votre mission principale sera de contribuer à des projets Data en apportant votre expertise sur plusieurs tâches clés :
- Montée en compétence sur l'ETL BigL : Vous participerez à la réalisation de projets métier dans le cadre de la solution offline ELT in-House BigLoader et BDI/DBT.
- Gestion des incidents et anomalies : Vous prendrez en charge les demandes de corrections provenant d'incidents ou d'anomalies, assurant ainsi la qualité et la fiabilité des données.
- Auto-formation et montée en compétences : Vous participerez à l'auto-formation et à la montée en compétences de l'équipe de développement, partageant vos connaissances et bonnes pratiques.
- Développement et documentation du code : Vous développerez des solutions robustes, documenterez votre code et appliquerez les bonnes pratiques et normes de développement.
- Automatisation du delivery : Vous contribuerez à l'automatisation du delivery, en mettant en place des pipelines CI/CD via GitLab CI/CD et Docker Compose.
- Travail en équipe Scrum : Vous travaillerez au sein d'une équipe Scrum, collaborant efficacement avec des membres pluridisciplinaires.
Les compétences techniques requises sont les suivantes :
- Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP).
- Maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données.
- Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l'orchestration de pipelines de données.
- Expérience avec Pubsub pour la gestion de flux de données en temps réel.
- Maîtrise des outils CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l'automatisation des workflows data.
- Bonne connaissance de l'environnement Linux et des outils de ligne de commande.
- Expérience solide avec les systèmes de gestion de version (Git).
- Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
En plus des compétences techniques, nous recherchons un profil doté d'excellentes qualités relationnelles :
- Excellente communication écrite et orale en français pour des interactions fluides avec le métier.
- Esprit d'analyse et d'amélioration continue, capacité à évaluer le code et ses impacts, et à remettre en question les solutions existantes pour les améliorer.
- Capacité de prise de recul, aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration.
- Capacité à respecter les délais tout en maintenant des standards élevés.
- Esprit d'équipe, capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs.
Le poste est proposé en freelance, à durée de 6 mois renouvelable (220 à 225 jours ouvrés). Le candidat doit être basé à Casablanca, Maroc, et posséder un diplôme Bac+5 en école d'ingénieur ou équivalent universitaire, avec une spécialisation en informatique. Une expérience de 3 à 7 ans en DBT, SQL, BigQuery est requise, et une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus.
Si vous êtes passionné par la data, le cloud et l'innovation, et que vous souhaitez contribuer à des projets d'envergure dans un environnement stimulant, nous vous invitons à postuler. Vous pourrez rejoindre une équipe dynamique et participer à la transformation digitale de nos clients.