Les progrès spectaculaires en matière d’IA ont rendu monnaie courante l’utilisation des modèles de langage dans différents secteurs d’activité. Beaucoup sont encore trop peu soucieux de la qualité des réponses de ces chatbots qui, il ne faut pas l’oublier, ont encore une marge d’erreur trop importante et hallucinent régulièrement.

Mais alors, qu’est-ce qu’une hallucination ? Quels sont les risques, les causes, les conséquences ? Comment éviter les badbuzz liés à l’IA en prévenant ces hallucinations ?

C’est quoi les hallucinations des LLM ?

Les intelligences artificielles génératives ont une capacité étonnante à établir des liens de causalité entre tout un tas d’informations. Elles s’expriment de manière si convaincante qu’on a tendance à oublier que malgré la forme, la réponse peut être totalement factice. Ces réponses incorrectes ou trompeuses générées par les LLM sont appelées des “hallucinations”.

Les modèles de langage s’entraînent sur une grande quantité de données lors de phases d’entraînements. Il suffit qu’elles souffrent d’une divergence pour que les risques de production de textes ni ancrés dans la réalité ni fidèles à la source augmentent. 

Parmi les erreurs susceptibles de provoquer des hallucinations, on peut trouver : 

  • Des données d’entraînement incomplètes, incohérentes, obsolètes, inexactes ou biaisées ; 
  • Une préparation insuffisante du modèle
  • Une absence de contexte ;

La performance de ces modèles d’IA en termes de temps de réponse, de précision et leur cohérence relative peut conduire à perdre de vue l’absence d’une garantie de véracité. Cela est problématique non seulement d’un point de vue éthique avec la possibilité de propagation d’informations erronées mais elle peut également conduire à des conséquences dramatiques d’ordre social, juridique, financier…

Quel est l’impact de ces hallucinations ?

Si elle peut porter atteinte à l’intégrité d’une personne en lui attribuant des propos ou des actions diffamantoires, l’IA peut nuire à une organisation comme ce fut le cas dans divers secteurs d’activité : droit, santé, finance… Il faut donc être méfiant et précautionneux quant à la prise de décision résultant de son utilisation en milieu professionnel.

Aujourd’hui, elle est présente dans un grand nombre d’organisations et a souvent été décriée à raison :

  • Poursuites judiciaires : OpenAI (ChatGPT) s’est fait poursuivre en justice pour diffamation après avoir déclaré à tort que Mark Walters, un animateur de radio américain avait « fraudé et détourné des fonds pour des dépenses personnelles ». Cette accusation de fraude ne figure pas dans les détails de l’affaire, c’est une hallucination de ChatGPT.

Les incidents liés à l’IA sont très nombreux et necessitent de prendre des mesures de sécurité afin d’éviter qu’ils ne se multiplient.

Le site AI Incident Data Base recense un grand nombre d’incidents liés à l’IA.

Comment éviter les risques d’hallucinations ?

La limitation et le contrôle des risques liés aux hallucinations des LLM représentent donc un enjeu crucial pour les entreprises ayant fait le choix d’adopter l’IA.

Voici 4 méthodes pour réduire les risques d’hallucinations des modèles de langage : 

  • S’assurer de la qualité des données d’entraînement : La qualité des résultats fournis par les modèles de langage et les risques d’hallucinations qu’ils comportent sont inhérents à la qualité de leurs données d’entraînement. Il est donc primordial de fournir en amont une grande quantité de données pertinentes, diversifiées et structurées. L’absence de réponses biaisées ou d’hallucinations ne sera un succès que si un travail de préparation des données est réalisé avec précision pour écarter toute information obsolète, fausse, incomplète, incohérente ou non pertinente du data set.
  • Fine-tuning : Cette approche consiste à spécialiser le modèle sur un domaine spécifique en ré-entraînant le réseau neuronal avec des données spécialisées. Cette méthode améliore donc la performance sur des données similaires mais peut perdre en efficacité sur des tâches générales en raison d’un compromis entre spécialisation et généralisation. Elle permettront cependant de réduire les hallucinations car les réponses générées seront plus ancrées dans le contexte et le domaine abordé.
  • Lier le LLM à une source de vérité type RAG : Cette méthode consiste à ajouter des informations qui viennent d’une source de données vérifiées. Elle est efficace pour réduire les hallucinations et contrôler les réponses directement liées à la source documentaire.

Si l’Intelligence Artificielle est capable de performances bluffantes et représente aujourd’hui un véritable levier concurrentiel dans de nombreux secteurs d’activité, il est préférable, voire essentiel pour les entreprises de mettre la supervision humaine au cœur de son utilisation en faisant appel à des spécialistes de l’IA pour favoriser un environnement de confiance et sécurisé afin d’éviter de faire face au revers de la médaille de cette technologie.