Vous serez intégré au sein d’une équipe multidisciplinaire dédiée à l’infogérance et à l’intégration informatique. Votre mission principale sera de concevoir, développer et maintenir des pipelines de données robustes et évolutifs sur la plateforme Databricks, en utilisant PySpark, SQL et les services cloud (AWS, Azure, GCP). Vous devrez analyser les besoins métier, modéliser les données, optimiser les performances et mettre en place des bonnes pratiques de développement.
Les responsabilités clés incluent :
- Conception et développement de pipelines de données performants et scalables sur Databricks.
- Exploitation avancée d’Apache Spark via PySpark pour le traitement de données massives.
- Modélisation des données, optimisation des performances et mise en place de bonnes pratiques.
- Collaboration avec les équipes Data Science, BI et métier pour répondre aux besoins business.
- Intégration des solutions dans des environnements CI/CD, avec des outils tels que Git, Azure DevOps et Terraform.
- Encadrement technique des profils juniors et contribution à la veille technologique.
Profil recherché :
- Ingénieur en Informatique ou équivalent, avec une expérience minimale de 5 ans sur Databricks et AWS.
- Maîtrise de PySpark, SQL et des environnements cloud (Azure, AWS ou GCP).
- Connaissance des outils d’orchestration (Airflow, Azure Data Factory, etc.).
- Capacité à travailler de manière autonome, rigoureuse et en équipe.
- Bonne capacité d’analyse, d’adaptation et de prise d’initiative.
- Connaissance de Power BI et/ou certification Databricks ou cloud considérées comme un plus.
Conditions :
- Mission freelance de 6 mois renouvelables.
- Localisation : Casablanca, mode hybride (présentiel et télétravail).
- Rémunération à négocier selon expérience et compétences.
Nous recherchons un professionnel passionné par les données, capable de transformer des volumes massifs en insights actionnables, et désireux de contribuer à des projets d’envergure internationale.