Notre CTO, Thibault, a participé les 23 et 24 septembre à l’événement AI Engineer Paris. Ces deux jours ont été riches d’enseignements sur l’état actuel et l’évolution rapide du secteur de l’IA. Voici les principaux points qu’il a retenus.
#1 Des LLM aux Agents IA : un nouveau paradigme
Un constat majeur est que l’attention se déplace progressivement d’une utilisation “simple” des grands modèles de langage (LLM) vers des agents IA capables de prendre des initiatives, d’exécuter des tâches de manière autonome et de s’adapter à différents contextes. Le concept de MCP (Model Context Protocol) émerge comme un standard permettant de mieux orchestrer ces agents et de gérer leur interaction avec différents outils et sources de données.
Cette évolution marque un changement fondamental : l’IA ne se limite plus à fournir des réponses textuelles, elle devient un véritable acteur dans les processus métiers.
#2 Spécialisation des modèles : plus petits, plus efficaces
Les modèles actuels restent énormes et coûteux à déployer et à maintenir. Cependant, le salon a montré que la spécialisation est la clé : en adaptant un modèle à une tâche très spécifique, on obtient de meilleurs résultats avec beaucoup moins de ressources.
Un exemple frappant : un modèle spécialisé aux échecs (AlphaZero), 50 000 fois plus petit que GPT-5, bat ce dernier dans 99 999 parties sur 100 000. Cette approche illustre comment des modèles ciblés peuvent surpasser les modèles généralistes sur des tâches précises, tout en consommant beaucoup moins de ressources (dans cet exemple, AlphaZero est environ 1000 fois moins coûteux à faire tourner).
Offrez à vos équipes un callbot qui travaille 24h/24

#3 La souveraineté des données, un enjeu encore marginal
Un constat frappant des conférences est que la souveraineté des données reste peu abordée, malgré son importance croissante pour les entreprises européennes et les institutions publiques. Une grande partie des intervenants appartenait à l’écosystème américain, fortement lié aux GAFAM éditeurs de LLM, ce qui explique en partie cette faible considération pour l’étanchéité des données.
Pour ces acteurs, l’approche consiste à centraliser et exploiter les données à grande échelle, souvent dans des environnements multi-cloud, sans se soucier de l’origine géographique des données ou de leur confidentialité. Cette stratégie contraste fortement avec les préoccupations de nombreux clients en Europe, qui demandent souvent :
- que leurs données restent localisées sur des serveurs maîtrisés,
- que l’IA utilisée soit contrôlable et auditée,
- que les informations sensibles ne quittent pas l’organisation ou ne soient pas exposées à des tiers.
Cette absence de discussions sur la souveraineté illustre une différence culturelle et stratégique majeure entre les marchés américains et européens. Elle rappelle également que les questions de protection des données, de conformité et d’indépendance technologique ne sont pas encore intégrées au cœur de la conception de nombreux modèles de pointe.
Pour les entreprises et les développeurs européens, cela souligne un défi crucial pour l’adoption de l’IA : comment bénéficier des capacités avancées des modèles tout en respectant des contraintes de souveraineté et de confidentialité ? Le débat reste ouvert, et les solutions techniques (auto-hébergement, modèles spécialisés, chiffrement, traitement local des données) commencent à peine à émerger.
#4 Les bonnes pratiques pour limiter les risques
Un autre point soulevé par les conférences est que mesurer la qualité d’un modèle pour un cas d’usage concret reste extrêmement difficile. Les métriques classiques (précision, score F1, etc.) ne reflètent pas toujours l’expérience réelle des utilisateurs.
Les nouvelles approches consistent à :
- Mettre le modèle en production et collecter des retours utilisateurs.
- Analyser ces logs, par exemple pour mesurer le taux de frustration ou la satisfaction des conversations d’un chatbot.
Cette méthodologie permet de mesurer la valeur réelle du modèle en situation réelle, plutôt que de se baser sur des scores théoriques, bien souvent trop éloignés des réalités terrain
En bref
Cet événement a confirmé que l’IA évolue à une vitesse vertigineuse, avec des innovations constantes et des visions parfois contradictoires. Les tendances clés observées : agents IA, modèles spécialisés, évaluation en situation réelle et incertitude sur l’avenir de l’écosystème.