Vous êtes passionné par les données et vous avez une solide expérience en ingénierie de données. Dans ce rôle, vous serez responsable de la conception, du développement et de la maintenance de pipelines de données complexes, en utilisant principalement Scala et Databricks. Vous travaillerez en étroite collaboration avec les équipes métier, les data scientists et les développeurs pour transformer les exigences fonctionnelles en solutions techniques robustes et évolutives.
Responsabilités principales :
- Concevoir et développer des pipelines de données à grande échelle en Scala sur la plateforme Databricks.
- Optimiser les performances des jobs Spark pour garantir des temps de traitement rapides et une utilisation efficace des ressources.
- Assurer la qualité des données en mettant en place des tests unitaires, des validations et des contrôles de conformité.
- Collaborer avec les équipes de data science pour fournir des jeux de données structurés et prêts à l’emploi.
- Documenter les processus, les modèles de données et les meilleures pratiques pour faciliter la maintenance et la montée en compétence des équipes.
- Participer à l’évaluation et à la mise en œuvre de nouvelles technologies Big Data pour rester à la pointe de l’innovation.
Profil recherché :
- Expérience confirmée en ingénierie de données, idéalement dans un environnement Big Data.
- Maîtrise de Scala et de la plateforme Databricks (Databricks Runtime, Delta Lake, etc.).
- Connaissance approfondie de Spark, y compris Spark SQL, DataFrames, et Spark Streaming.
- Compétences solides en modélisation de données, conception de schémas et optimisation des requêtes.
- Expérience avec les systèmes de gestion de bases de données relationnelles (SQL) et NoSQL (MongoDB, Cassandra, etc.).
- Bonne compréhension des concepts de data lake, data warehouse et data mesh.
- Capacité à travailler de manière autonome et à gérer plusieurs projets simultanément.
- Excellentes compétences en communication et en travail d’équipe.
Compétences techniques supplémentaires appréciées :
- Connaissance de Python et de ses bibliothèques de data science (pandas, NumPy, etc.).
- Expérience avec les outils de versionning (Git) et les pipelines CI/CD.
- Maîtrise des outils de monitoring et de logging (Datadog, Grafana, etc.).
- Connaissance des principes DevOps et de l’automatisation des déploiements.
Environnement de travail :
- Un cadre de travail stimulant au sein d’une équipe de professionnels passionnés.
- Des projets variés couvrant différents secteurs d’activité, offrant une exposition à des problématiques réelles et complexes.
- Des opportunités de formation continue et de montée en compétences grâce à des ateliers internes et des conférences.
- Un environnement de travail flexible, avec la possibilité de télétravail partiel selon les besoins du projet.
Pourquoi rejoindre SQLI :
- Une culture d’entreprise axée sur l’innovation, la collaboration et le développement personnel.
- Des projets à fort impact, où vos contributions sont reconnues et valorisées.
- Un engagement fort envers la responsabilité sociale et environnementale, avec des initiatives RSE concrètes.
- Des avantages compétitifs, incluant un package salarial attractif, des tickets restaurant, une mutuelle santé et des programmes de bien‑être.
Si vous êtes prêt à relever le défi d’un poste d’ingénieur data Scala/Databricks dans un environnement stimulant et en pleine croissance, nous vous invitons à postuler dès maintenant. Votre expertise sera mise à profit pour transformer les données en valeur ajoutée pour nos clients et pour l’entreprise.