Vous rejoindrez Haldorix, un studio de startup dédié à transformer les défis opérationnels en opportunités business grâce à l’IA. Notre mission est de créer des solutions dédiées qui deviennent des produits à part entière, en particulier dans l’industrie, le retail et la logistique.
Responsabilités principales :
- Architecture & Infrastructure : Concevoir et déployer une architecture hybride edge/cloud optimisée pour l’analyse vidéo en temps réel. Définir les spécifications matérielles (Jetson Orin, RTX A2000, Intel NUC) et assurer la communication fiable entre les serveurs edge et le cloud.
- Optimisation de modèles : Convertir et optimiser les modèles de deep learning pour les GPU embarqués via ONNX Runtime et TensorRT. Appliquer la quantification (INT8, FP16) et la pruning pour réduire la latence et la mémoire.
- Pipeline MLOps : Construire et maintenir une pipeline CI/CD adaptée au déploiement edge – conteneurisation, contrôle de version, mises à jour OTA automatiques et monitoring proactif.
- Orchestration & Déploiement : Déployer et gérer des flotte de serveurs edge avec K3s/MicroK8s, ArgoCD/Flux, KubeEdge ou AWS IoT Greengrass.
- Sécurité & Conformité : Garantir la localisation des données, le chiffrement TLS/mTLS et l’anonymisation pour la conformité GDPR.
- Monitoring & Fiabilité : Mettre en place des dashboards Prometheus, Grafana, Loki pour suivre la performance, l’utilisation GPU et la disponibilité (>99%).
- Intégration LLM : Supporter le déploiement d’un serveur LLM central (Claude, GPT‑4 ou open‑source) pour des interfaces conversationnelles RAG.
- Opérations sur le terrain : Installer, valider et dépanner sur site, former les techniciens locaux et maintenir la documentation.
Profil recherché :
- 3 à 5 ans d’expérience en déploiement de modèles IA en production.
- Expertise MLOps, edge computing, GPU embarqués, TensorRT, ONNX Runtime, quantification, pruning.
- Maîtrise Python (PyTorch, TensorFlow, FastAPI), Docker, CI/CD, Ansible.
- Connaissance Kubernetes/K3s, réseaux, administration Linux.
- Expérience Prometheus, Grafana, profiling GPU.
- Compétences supplémentaires : NVIDIA Jetson, Fleet Management (AWS IoT Greengrass, KubeEdge), Stable Diffusion, LLM pipelines (RAG, Pinecone, Weaviate, ChromaDB), vision industrielle, IoT, systèmes temps réel, GDPR.
Avantages :
- Intégrer un studio de startup scaling des projets AI de prototype à production.
- Travailler sur des systèmes Edge AI de pointe déployés sur sites industriels.
- Collaborer avec une équipe agile et experte en AI, hardware et DevOps.
- Acquérir une expérience pratique en optimisation d’inférence, benchmarking GPU et orchestration à grande échelle.
- Contribuer à des gains de performance et de coût concrets dans l’industrie manufacturière.
Processus de recrutement :
- Entretien AI Jobzyn (25–45 min).
- Entretien technique (1h) avec Lead Developer ou Technical Architect.
- Test pratique (2–3h) simulant un cas de déploiement MLOps réel.
- Entretien final avec l’équipe NITRA et les partenaires Haldorix.