Vous intégrerez une équipe dynamique au sein d’une entreprise spécialisée dans les services de conseil et de transformation digitale. Votre rôle principal sera de concevoir, développer et maintenir des pipelines de données robustes, capables de traiter de grands volumes d’informations provenant de sources variées (bases de données relationnelles, fichiers plats, API, etc.). Vous serez responsable de la qualité des données, de la performance des requêtes et de la sécurisation des flux de données.
Les missions clés incluent :
- Analyse des besoins métier et traduction en solutions techniques.
- Conception et mise en œuvre de modèles de données adaptés aux exigences analytiques.
- Développement de scripts ETL en Python, SQL et utilisation d’outils tels que Airflow ou Talend.
- Optimisation des requêtes SQL et tuning des bases de données.
- Surveillance et maintenance des pipelines, résolution des incidents.
- Collaboration avec les data scientists pour fournir des jeux de données prêts à l’emploi.
Profil recherché :
- Expérience de 0 à 2 ans dans un poste similaire.
- Maîtrise des langages SQL et Python.
- Connaissance des systèmes de gestion de bases de données (PostgreSQL, MySQL, etc.).
- Expérience avec des outils d’orchestration (Airflow, Prefect) est un plus.
- Capacité à travailler en équipe, à communiquer clairement et à gérer plusieurs tâches simultanément.
Nous offrons un contrat CDI, un environnement de travail hybride, un salaire compétitif et des perspectives d’évolution. Si vous êtes passionné par les données et souhaitez contribuer à des projets innovants, rejoignez-nous dès maintenant.