جديد
وصف الوظيفة
RJC Group, cabinet de conseil spécialisé dans les services financiers, recherche pour le compte d’un client leader du trading d’énergie basé à Londres un Data Engineer senior. Vous intégrerez une équipe technique de 8 personnes, en charge de la conception, du déploiement et de la maintenance d’une plateforme de données capable de gérer des volumes massifs de flux de trading en temps réel. Votre rôle sera stratégique : vous contribuerez directement à l’optimisation des stratégies de trading, à la réduction des latences de traitement et à la fiabilité des données utilisées par les traders, les risk managers et les analystes quantitatifs.
**Missions principales**
- Concevoir et implémenter des pipelines de données end‑to‑end (ingestion, transformation, stockage) capables de traiter plusieurs téraoctets de données chaque jour, en s’appuyant sur des outils tels qu’Apache Airflow, Kafka, Spark ou Flink.
- Développer et maintenir le data‑warehouse Snowflake, optimiser les modèles de données (star schema, data vault) et garantir la performance des requêtes SQL utilisées par les équipes métier.
- Automatiser le déploiement des environnements de production sur AWS (S3, Redshift, EMR, Lambda, Glue) en appliquant les bonnes pratiques DevOps (Docker, Kubernetes, CI/CD avec GitLab CI ou Jenkins).
- Collaborer étroitement avec les traders, les risk officers et les équipes de recherche afin de comprendre leurs besoins, de formaliser les exigences fonctionnelles et de proposer des solutions data adaptées.
- Mettre en place des processus de monitoring, de logging et d’alerting (CloudWatch, Prometheus, Grafana) pour assurer la disponibilité et la qualité des flux de données critiques.
- Participer à l’évolution de l’architecture globale (micro‑services, data‑mesh) et à la définition de la roadmap technologique de la plateforme.
**Profil recherché**
- Minimum 5 ans d’expérience confirmée en tant que Data Engineer ou Data Architect, idéalement dans le secteur des services financiers ou du trading.
- Maîtrise avancée de Python (pandas, numpy, pyspark) et SQL (optimisation de requêtes, procédures stockées).
- Expérience pratique avec Snowflake (ou autre data‑warehouse cloud) et forte connaissance d’AWS (S3, EC2, Lambda, Glue, IAM).
- Connaissances solides des outils de pipeline (Airflow, Luigi), de la messagerie (Kafka, Kinesis) et du traitement de flux temps réel.
- Bonnes pratiques DevOps (Docker, Kubernetes, CI/CD) et maîtrise des systèmes Linux/Unix.
- Capacité à travailler en mode Agile, à communiquer clairement avec des interlocuteurs non‑techniques et à prioriser les demandes métier.
- Anglais professionnel requis ; la maîtrise du français est un plus.
**Ce que nous offrons**
- Un poste en CDI basé à Londres, avec la possibilité d’un modèle hybride (2 jours de télétravail par semaine).
- Un environnement technique de pointe, des projets à fort impact business et une équipe dynamique.
- Un package salarial compétitif, complété par des bonus liés aux performances de l’entreprise.
- Des formations continues (certifications cloud, cours de data‑science) et des opportunités d’évolution vers des postes de Lead Data Engineer ou Architect.
- Des avantages sociaux classiques (assurance santé, retraite, congés payés) et un programme de bien‑être (salle de sport, activités team‑building).
Rejoignez une équipe où l’innovation data est au cœur de la stratégie de trading d’énergie et participez à la transformation digitale d’un acteur majeur du marché européen.