Depuis plusieurs articles et vidéos, je défends un thème qui me tient à cœur : l'utilisation des LLM en local. Pourquoi ? Parce que c'est la seule façon de garantir une confidentialité totale – aucune donnée sensible ne quitte votre machine, zéro risque de fuite, et conformité RGPD irréprochable. Pas d'API distante, pas de cloud qui stocke vos prompts de code propriétaire. Tout reste chez vous ! Sans parler des coûts réduits à presque zéro.
Mistral AI vient de frapper un grand coup avec Devstral 2, sorti le 9 décembre 2025 : une famille de modèles dédiés au codage agentique qui excelle dans les tâches réelles de développement. Et le meilleur ? Devstral Small 2 (24 milliards de paramètres) est parfait pour tourner entièrement en local, comme je l'ai déjà montré avec Mistral Nemo, Llama 3, Qwen 3 ou d'autres modèles. C'est le compagnon idéal pour coder en toute sécurité.
Devstral Small 2 : La star du local, accessible à tous les devs bien équipés
Oubliez les monstres inaccessibles : Devstral Small 2 est conçu pour tourner chez vous, sans compromis majeur sur les performances.
Configuration requise ?
- Sur PC Windows/Linux : une RTX 4090 (24 Go VRAM) suffit largement en quantisation Q4 ou Q5. Vous obtenez 30-50 tokens/s selon la quantisation, et le contexte complet de 256k tokens reste utilisable. Avec une 4080 ou deux 3090, ça passe aussi, mais la 4090 est le sweet spot. Ollama pourra aussi faire tourner le modèle en 100% CPU si nécessaire.
- Sur Mac : un MacBook Pro M3/M4 Max avec 64 Go de RAM unifiée (ou au minimum 32 Go) fait des merveilles grâce à MLX. Les performances sont excellentes, souvent comparables à une 4090 en quantisation optimisée.
Et la version lourde, Devstral 2 (123B) ?
C'est le vrai "monstre" avec 72,2 % sur SWE-Bench Verified, mais côté local… c'est réservé aux pros. Il faut un cluster de plusieurs GPU haut de gamme (au minimum 4 ou 8 x H100 ou équivalent en 4090 avec NVLink) pour le charger en quantisation raisonnable. Pas réaliste pour un usage personnel – mieux vaut l'utiliser via l'API Mistral (gratuite temporairement) si vous n'avez pas un data center à la maison. En revanche pour une entreprise l'investissement "one shot" peut être rapidement rentabilisé tout en respectant à 100% RGPD, et cela n'a pas de prix...
Comment installer et utiliser Devstral Small 2 en local dès aujourd'hui ?
C'est ultra-simple, comme pour les autres modèles que j'ai présentés :
1. Via Ollama (ma méthode préférée, ultra-rapide) :
ollama run devstral-small-2
Ollama télécharge automatiquement le modèle quantisé, et vous avez un agent de codage prêt en quelques minutes. Interface web intégrée, compatible avec Open WebUI pour une expérience ChatGPT-like.
2 Via Hugging Face :
Téléchargez le modèle sur https://huggingface.co/mistralai/Devstral-Small-2507 (licence Apache 2.0, totalement libre). Utilisez llama.cpp, LM Studio, ou transformers pour l'inférence.
3. Bonus killer : Mistral Vibe CLI
L'outil open-source de Mistral qui transforme votre modèle local en agent autonome dans le terminal. Il analyse votre codebase, édite plusieurs fichiers, exécute des commandes… tout en restant 100 % local ! Installez-le avec :
curl -LsSf https://mistral.ai/vibe/install.sh | bash
Puis lancez-le sur votre projet. C'est exactement le workflow que je recommande pour coder en toute confidentialité.
Des performances qui n'ont rien à envier aux géants
Même en local, Devstral Small 2 décroche 68 % sur SWE-Bench Verified – il bat des modèles 5 fois plus gros. Avec sa capacité vision (analyse d'images/screenshots), c'est parfait pour les vrais workflows de développement. Et tout ça sans envoyer le moindre octet à un serveur distant.
Pour aller plus loin : mes sites de référence
- Page officielle Mistral : https://mistral.ai/news/devstral-2-vibe-cli
- Hugging Face Devstral Small : https://huggingface.co/mistralai/Devstral-Small-2507
- Ollama Library : https://ollama.com/library (recherchez "devstral")
- LM Studio : https://lmstudio.ai/ (interface graphique simple)
- Subreddit r/LocalLLaMA : la bible des setups locaux, benchmarks et astuces
- Guide Vibe CLI : https://github.com/mistralai/mistral-vibe
Si vous codez avec des données sensibles (entreprise, projets perso, santé, finance…), passez au local avec Devstral Small 2. C'est puissant, privé, et français. Vous allez adorer la différence.
Vous l'avez déjà installé ? Partagez vos benchmarks en commentaire, et partagez l'article surtout ! 🚀🇫🇷
Stay tuned !