Nouveau
Description du poste
Powerfleet (Nasdaq : AIOT ; JSE : PWR) est un leader mondial du logiciel SaaS d’intelligence artificielle appliquée aux objets (AIoT) pour la gestion d’actifs mobiles. Fort de plus de 30 ans d’expérience, le groupe aide plus de 2,6 millions d’abonnés et 48 000 clients répartis dans 120 pays à transformer leurs données brutes en insights exploitables, améliorant ainsi sécurité, conformité, efficacité opérationnelle et durabilité. Dans le cadre de son ambition de renforcer son offre data‑driven, Powerfleet recherche un(e) Data / ML Engineer talentueux(se) pour rejoindre l’équipe Data Systems.
**Missions principales**
- Concevoir, développer et maintenir des pipelines ETL/ELT à haut débit (batch et streaming) afin d’ingérer, nettoyer et enrichir les données provenant de sources hétérogènes (IoT, ERP, CRM, etc.).
- Faire évoluer l’infrastructure du data lake et du data warehouse (Delta Lake, Apache Hudi, Iceberg, Snowflake, Redshift) pour garantir fiabilité, scalabilité et optimisation des coûts cloud.
- Gérer les systèmes de traitement de flux (Apache Kafka, Azure Event Hubs) pour la transformation en temps réel et la diffusion des événements métier.
- Collaborer étroitement avec les data scientists pour mettre en production les modèles de machine learning (déploiement, monitoring, A/B testing) et assurer leur intégration via des API REST.
- Mettre en place des processus de qualité, d’observabilité et de gouvernance des données (catalogue, lineage, conformité GDPR/PDPA).
- Contribuer aux décisions architecturales concernant le cloud (AWS, Azure), le stockage, le calcul et les pratiques DevOps (CI/CD, IaC).
- Rédiger et maintenir la documentation technique, former les équipes internes et partager les bonnes pratiques.
**Profil recherché**
- Diplôme d’ingénieur ou Master (Bac+5) en informatique, ingénierie, mathématiques ou domaine équivalent.
- 5 à 8 ans d’expérience professionnelle en ingénierie data, big data ou machine learning.
- Maîtrise des technologies Big Data : Apache Spark / PySpark, SQL, Python, Java ou C#.
- Expertise en streaming : Apache Kafka, Azure Event Hubs, ainsi que les concepts de micro‑batch et de processing en temps réel.
- Solide expérience des data lakes / lakehouses (Delta Lake, Apache Hudi, Iceberg) et des entrepôts de données (PostgreSQL, MS SQL, Snowflake, AWS Aurora, Redshift, DynamoDB).
- Connaissance approfondie des services AWS (S3, Glue, EMR, Lambda, Redshift, Step Functions, Lake Formation) et/ou Azure.
- Pratique confirmée des outils DevOps : CI/CD (Azure DevOps, GitHub Actions), IaC (Terraform, CloudFormation), conteneurisation (Docker, Kubernetes).
- Capacité à travailler en mode agile, à communiquer clairement avec des équipes multidisciplinaires et à résoudre des problèmes complexes.
- Anglais professionnel requis ; le français est un atout.
**Ce que nous offrons**
- Un environnement de travail stimulant au sein d’une entreprise innovante, cotée en bourse et en forte croissance.
- Un poste hybride (3 jours sur site, 2 jours en remote) avec des bureaux modernes à Casablanca.
- Un package salarial compétitif, complété par des avantages sociaux (mutuelle, tickets restaurant, plan d’épargne entreprise).
- Des opportunités de formation continue (certifications cloud, conférences, ateliers internes).
- Une culture d’entreprise axée sur la collaboration, l’autonomie et la reconnaissance des performances.
Rejoignez Powerfleet et participez à la construction de la prochaine génération de solutions AIoT qui façonnent l’avenir de la mobilité et de la durabilité.