Vous êtes un Data Engineer expérimenté, passionné par les technologies cloud et les pipelines de données, et vous cherchez une mission freelance stimulante d’une durée de 6 mois renouvelable. Vous rejoindrez la Digital Factory Supply Chain de notre client, un acteur majeur du secteur de la grande distribution, où vous contribuerez à la création d’une expérience omnicanale de pointe.
Mission principale :
Vous serez responsable de la conception, du développement et de la maintenance d’assets digitaux qui alimentent l’ensemble du processus d’approvisionnement des magasins. Cela inclut la commande magasin automatique, la gestion des commandes fournisseurs, la préparation en entrepôt et le transport vers les points de vente. Vous utiliserez des technologies de pointe, notamment le machine learning et l’IA, pour optimiser les flux de données et permettre aux équipes métier de se concentrer sur la valeur ajoutée.
Responsabilités détaillées :
- Montée en compétence sur l’ETL BigL et participation à la réalisation de projets métier dans le cadre de la solution offline ELT in‑House BigLoader et BDI/DBT.
- Prise en charge des demandes de corrections provenant d’incidents ou d’anomalies, et participation à l’auto‑formation et à la montée en compétences de l’équipe de développement.
- Application des bonnes pratiques et des normes de développement, mise en pratique des méthodes « devops » et contribution aux chiffrages des usages et à la constitution des releases.
- Contribution à l’automatisation du delivery, développement et documentation du code, travail au sein d’une équipe SCRUM.
Profil recherché :
- Diplômé(e) d’un Bac+5 en école d’ingénieur ou équivalent universitaire, spécialisé(e) en informatique.
- Expérience de 3 à 7 ans en DBT, SQL, BigQuery, avec une expérience significative dans le domaine de la data et du cloud.
- Maîtrise de Google Cloud Platform (GCP), BigQuery, SQL avancé, et traitement de gros volumes de données.
- Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données.
- Expérience avec Pubsub pour la gestion de flux de données en temps réel.
- Maîtrise des outils CI/CD, notamment GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data.
- Bonne connaissance de l’environnement Linux et des outils de ligne de commande.
- Expérience solide avec les systèmes de gestion de version (Git).
- Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
- Excellente communication écrite et orale en français, capacité à communiquer efficacement avec les métiers.
- Esprit d’analyse, d’amélioration continue, capacité à évaluer le code et ses impacts, et à remettre en question les solutions existantes.
- Capacité à respecter les délais tout en maintenant des standards élevés et à collaborer efficacement avec les membres de l’équipe.
Avantages :
- Mission freelance d’une durée de 6 mois renouvelable (220 à 225 jours ouvrés).
- Opportunité de travailler sur des projets innovants dans le secteur de la grande distribution.
- Environnement de travail stimulant, avec une équipe expérimentée et des outils de pointe.
Si vous êtes motivé(e) par les défis techniques et que vous souhaitez contribuer à la transformation digitale d’un acteur majeur, nous vous invitons à postuler dès maintenant.