Haldorix, un studio de startups innovant, se consacre à transformer les défis opérationnels en opportunités business grâce à l'intelligence artificielle. Dans le cadre de son projet NITRA, un système de vision industrielle intelligent, nous recherchons un Ingénieur MLOps Edge AI pour piloter la conception et le déploiement d'une infrastructure d'inférence en temps réel sur des GPU embarqués.
Responsabilités principales :
- Architecture & Infrastructure : Concevoir une architecture hybride edge/cloud optimisée pour l'analyse vidéo en temps réel. Définir les spécifications matérielles (Jetson Orin, RTX A2000, Intel NUC) et assurer la communication fiable entre les serveurs edge et le cloud.
- Optimisation de modèles : Convertir et optimiser les modèles de deep learning (YOLOv8, Stable Diffusion, BERT) pour les GPU embarqués via ONNX Runtime et TensorRT. Appliquer la quantification (INT8, FP16) et la pruning pour réduire la latence et la mémoire.
- Pipeline MLOps : Construire et maintenir un pipeline CI/CD adapté aux déploiements edge, incluant la conteneurisation des modèles, le contrôle de version, les mises à jour OTA automatiques et la surveillance proactive.
- Orchestration & Déploiement : Déployer et gérer des flotte de serveurs edge avec K3s/MicroK8s, implémenter des déploiements déclaratifs (ArgoCD/Flux) et une gestion centralisée via KubeEdge ou AWS IoT Greengrass.
- Sécurité & Conformité : Garantir la localisation des données, le chiffrement TLS/mTLS et les pipelines d'anonymisation pour la conformité GDPR.
- Monitoring & Fiabilité : Mettre en place des tableaux de bord Prometheus, Grafana, Loki pour suivre les performances d'inférence, l'utilisation GPU et la disponibilité (>99%).
- Intégration LLM : Soutenir le déploiement d'un serveur LLM central (Claude, GPT‑4 ou open‑source) pour l'analyse RAG et les interfaces conversationnelles temps réel.
- Opérations sur le terrain : Réaliser des installations sur site, validations, sessions de dépannage avec les équipes clients, former les techniciens locaux et maintenir une documentation à jour.
Profil recherché :
- 3 à 5 ans d'expérience en déploiement de modèles IA en production.
- Expertise avérée en MLOps, edge computing et environnements GPU embarqués.
- Maîtrise de TensorRT, ONNX Runtime, quantification (INT8/FP16) et pruning.
- Compétence en Python (PyTorch, TensorFlow, FastAPI) et outils DevOps (Docker, CI/CD, Ansible).
- Solide compréhension de Kubernetes/K3s, réseaux et administration Linux.
- Expérience avec Prometheus, Grafana, et profilage GPU.
- Excellentes compétences en documentation et dépannage.
- Connaissance de NVIDIA Jetson, systèmes de gestion de flotte (AWS IoT Greengrass, KubeEdge, Balena).
- Compréhension de Stable Diffusion, pipelines LLM (RAG, Pinecone, Weaviate, ChromaDB).
- Expérience en vision industrielle, IoT ou systèmes temps réel.
- Connaissance de la conformité GDPR et anonymisation de données.
Avantages :
- Intégrer un studio de startups à forte croissance, transformer des prototypes en solutions industrielles.
- Travailler sur des systèmes Edge AI de pointe déployés sur des sites industriels.
- Collaborer avec une équipe agile, mêlant IA, hardware et DevOps.
- Acquérir une expérience pratique en optimisation d'inférence, benchmarking GPU et orchestration à grande échelle.
- Contribuer à des gains de performance et de coûts concrets dans la fabrication.
Processus de recrutement : entretien AI Jobzyn (25–45 min), entretien technique (1h), test pratique (2–3h), entretien final avec l'équipe NITRA et les partenaires Haldorix.