[Glossaire] 12 termes pour démystifier l’Intelligence Artificielle

glossaire-intelligence-artificielle
Machine Learning, Deep Learning, Traitement Automatique du Langage Naturel... l'adoption massive de l'Intelligence Artificielle dans les entreprises a entraîné la parution de dizaines d'articles au vocabulaire parfois obscur.

Chez Synapse, nous avons à cœur de vous délivrer un discours à la fois clair et juste sur l’Intelligence Artificielle, ses technologies et ses usages. Il nous semble important de démystifier l’univers de l’IA afin que chacun puisse porter un regard éclairé et averti sur ses applications métiers, son potentiel et son fonctionnement.

Nous avons donc défini pour vous 12 termes récurrents qui vous permettront de mieux comprendre ce qu’est une Intelligence Artificielle, ce qu’elle peut faire et comment.

Intelligence Artificielle faible : Se dit d’une Intelligence Artificielle qui ne fait que reproduire un comportement spécifique. Une IA faible ne comprend pas son propre fonctionnement, elle ne fait que simuler un comportement humain prévu sur un domaine ou une tâche précise.

Intelligence Artificielle forte : En comparaison d’une IA dite faible, une IA forte pourrait non seulement reproduire des comportements « intelligents » humains (analyse, raisonnement, dialogue), mais également avoir une compréhension de ses propres raisonnements. La machine serait donc apte à prendre un certain recul sur ce qu’elle fait et pourrait développer des sentiments, une conscience… Il n’existe, aujourd’hui, aucune Intelligence Artificielle forte.

Système expert : Logiciel développé pour reprendre le raisonnement logique et les mécanismes cognitifs d’un expert humain dans un domaine spécifique. Son raisonnement se fait à partir de connaissances et de règles connues, communiquées par un spécialiste humain.

Apprentissage Automatique (Machine Learning) : Selon Stéphan Clémençon, « le machine learning c’est l’idée d’apprendre à des machines à prendre des décisions efficaces dans un cadre prédéfini, via des algorithmes nourris par des exemples (les données de l’apprentissage). Le programme d’apprentissage permet à la machine d’élaborer un système de décision généralisant ce qu’elle aura « appris » de ces exemples ». La Machine Learning permet donc aux ordinateurs de s’améliorer par cet apprentissage.

Apprentissage Profond (Deep Learning) : Le Deep Learning est une branche particulière du Machine Learning qui utilise des couches de neurones pour effectuer un apprentissage hiérarchique.  Autrement dit, elles cherchent d’abord à traiter les éléments les plus simples de l’information avant de passer aux plus complexes. Une application typique est la distinction d’objets sur une image : pour distinguer un chat d’un chien, le système apprend à reconnaître des narines avant de s’attaquer aux nez. Après plusieurs de ces étapes, un système peut discriminer efficacement chien et chat à partir de concepts complexes qui n’ont pas été programmés à la main.

Réseaux neuronaux : Un réseau de neurones est une technique de calcul analogue au modèle du fonctionnement d’un cerveau humain. Un neurone réalise un calcul simple, et est connecté à d’autres neurones pour former un réseau. Ces connexions sont ajustables, et on parle d’apprentissage lorsqu’on les ajuste pour mieux réaliser une tache. Ils sont notamment utilisés par les géants du web, Google, Facebook ou Microsoft, pour des tâches diverses comme la reconnaissance d’images, le traitement de la parole, la recherche d’informations, la recommandation (film, restaurant, vin, livre…) ou la traduction automatique.

Test de Turing : Élaboré par le célèbre mathématicien britannique Alan Turing, le Test de Turing a pour objectif de tester la capacité d’une Intelligence Artificielle à se faire passer pour un humain. Concrètement, le test se déroule à travers une conversation en langage naturel. Un humain « opérateur » pose des questions, transmises ensuite à un ordinateur et à un autre humain, qui devront y répondre séparément de manière anonyme. A l’opérateur ensuite, à travers ces échanges textuels, de déterminer les réponses écrites par l’ordinateur et celles données par son homologue. S’il n’arrive pas à les discerner, alors on peut considérer que l’Intelligence Artificielle a passé le test avec succès.

Apprentissage supervisé ou non supervisé : L’apprentissage supervisé et non-supervisé sont issues de l’exploration de données (“Data Mining”) qui a comme objectif d’extraire les connaissances depuis les bases d’informations. Ce sont donc deux manières d’apprendre pour les ordinateurs. Dans le cas de l’apprentissage supervisé, une intervention humaine sera nécessaire pour entraîner la machine. Reprenons l’exemple d’un algorithme qui détecte les visages, un utilisateur devra lui montrer ce qu’est un visage et ce qui ne l’est pas afin qu’il puisse apprendre et prédire si les prochaines photos le sont ou non. En résumé, l’algorithme apprend sur des exemples, donc lors d’un apprentissage supervisé, ces exemples doivent avoir été étiquetés par une intelligence humaine afin que l’ordinateur puisse apprendre.

Dans le cas de l’apprentissage non-supervisé, il n’y a pas besoin de l’intervention d’un être humain, car l’algorithme va par lui-même comprendre comment différencier un visage d’un paysage en analysant leurs structures. C’est donc une méthode moins fiable que l’apprentissage supervisé, mais précieuse pour tirer parti de données massives sans avoir beaucoup d’annotations.

Traitement Automatique du Langage Naturel (ou NLP) : Le Traitement Automatique du Langage Naturel, dit également TALN ou NLP (Natural Langage Processing), est une discipline à la croisée de l’Intelligence Artificielle, la linguistique et l’informatique. Elle s’appuie sur des connaissances en phonétique, morphologie, syntaxe et sémantique notamment pour approfondir l’analyse de contenu linguistique. En pratique, elle consiste en l’exploitation automatique de textes pour la recherche d’information, l’analyse, la production, l’explication…

Base de connaissances : Une base de connaissances regroupe l’ensemble des informations relatives à un sujet donné. La base de connaissances d’une Intelligence Artificielle rassemble ainsi toutes les données qui vont lui permettre de répondre – ou non – aux questions qui lui seront posées.

Arbre de décision : Un arbre de décision est un schéma représentant un ensemble de choix interconnectés sous la forme graphique d’un arbre. Les ramifications (branches) représentent les différentes décisions possibles, chaque décision (nœud) pouvant mener à d’autres choix, jusqu’à un résultat final. Facile à lire et à comprendre, un arbre de décision est une représentation qui a l’avantage d’être calculable automatiquement par une Intelligence Artificielle. Elle est donc souvent utilisée pour représenter un scénario de discussion.

Analyse Prédictive : L’analyse prédictive repose sur le postulat que, dans plusieurs situations similaires, la même évolution peut se reproduire. Elle consiste donc à formuler des prédictions – ou « hypothèses prédictives » – sur les événements susceptibles de se produire, en confrontant ce qui est (situation présente) à ce qui a été (faits passés).

 

Si vous souhaitez plus d’informations ou des explications plus détaillées, n’hésitez pas à nous écrire, nous serons ravis de vous éclairer !