L'année en cours a connu une forte augmentation de l'intérêt pour les outils d'intelligence artificielle générative tels que ChatGPT, Bard et Grok, avec une attention du public portant sur les limites de l'IA et sur la question de savoir si elles peuvent être surmontées. Les outils d'IA, en particulier ceux utilisant de grands modèles de langage (LLM), se sont avérés capables de générer une prose plausible, mais ils le font souvent en utilisant de fausses, trompeuses ou inventées "faits". Ils "hallucinent" d'une manière confiante et parfois convaincante.
La nouvelle définition de l'hallucination dans le Cambridge Dictionary
Le Cambridge Dictionary, le dictionnaire en ligne le plus populaire au monde pour les apprenants de l'anglais, a mis à jour sa définition de l'hallucination pour tenir compte de cette nouvelle signification et l'a couronnée mot de l'année pour 2023.
La définition traditionnelle de l'hallucination est "sembler voir, entendre, sentir ou sentir quelque chose qui n'existe pas, généralement en raison d'un problème de santé ou parce que vous avez pris un médicament". La nouvelle définition supplémentaire est : "Lorsqu'une intelligence artificielle (= un système informatique qui possède certaines des qualités du cerveau humain, telles que la capacité de produire du langage de manière humaine) hallucine, elle produit des informations fausses".
Les hallucinations de l'IA, également connues sous le nom de confabulations, peuvent parfois sembler dénuées de sens. Mais elles peuvent aussi sembler tout à fait plausibles, même si elles sont factuellement inexactes ou finalement illogiques.
Impacts réels des hallucinations de l'IA
Les hallucinations de l'IA ont déjà eu des impacts réels. Un cabinet d'avocats américain a utilisé ChatGPT pour des recherches juridiques, ce qui a conduit à la citation de cas fictifs devant les tribunaux. Dans la vidéo promotionnelle de Google pour Bard, l'outil d'IA a commis une erreur factuelle concernant le télescope spatial James Webb.
Wendalyn Nichols, directrice de publication du Cambridge Dictionary, a déclaré : "Le fait que les IA puissent "halluciner" nous rappelle que les humains doivent toujours faire appel à leurs compétences de réflexion critique lors de l'utilisation de ces outils. Les IA sont fantastiques pour traiter de grandes quantités de données afin d'en extraire des informations spécifiques et de les consolider. Mais plus vous leur demandez d'être originales, plus elles risquent de s'égarer.
Un changement profond de perception
La nouvelle définition illustre une tendance croissante à l'anthropomorphisation de la technologie de l'IA, en utilisant des métaphores humaines lorsque nous parlons, écrivons et pensons aux machines.
Le Dr Henry Shevlin, éthicien de l'IA à l'Université de Cambridge, a déclaré : "L'utilisation répandue du terme "halluciner" pour désigner les erreurs commises par des systèmes tels que ChatGPT offre un aperçu fascinant de notre façon de penser et d'anthropomorphiser l'IA. Les informations inexactes ou trompeuses ont toujours existé, bien sûr, qu'il s'agisse de rumeurs, de propagande ou de "fausses nouvelles".
Alors que celles-ci sont normalement considérées comme des produits humains, "halluciner" est un verbe évocateur qui implique un agent vivant une déconnexion de la réalité. Ce choix linguistique reflète un changement subtil mais profond de perception : c'est l'IA, et non l'utilisateur, qui "hallucine". Même si cela ne suggère pas une croyance généralisée en la conscience de l'IA, cela souligne notre volonté d'attribuer des attributs semblables à ceux des humains à l'IA.
L'importance de résoudre les hallucinations de l'IA
La résolution des hallucinations - si elles peuvent jamais être entièrement corrigées - pourrait définir le succès futur et l'adoption de l'IA générative. Des ingénieurs et des universitaires du monde entier, notamment chez OpenAI, Google et Microsoft, travaillent à limiter les hallucinations de l'IA grâce à la "grounding", c'est-à-dire en vérifiant les sorties des LLM par rapport à des sources fiables ou des recherches sur le Web. Certains travaillent sur l'"apprentissage par renforcement à partir des commentaires humains", utilisant des personnes pour aider à lutter contre les hallucinations et à déterminer comment elles peuvent être prédites et éliminées.
Autres mots marquants de l'année 2023
Plusieurs autres mots ont suscité un intérêt et des recherches du public sur le site du Cambridge Dictionary. Ils comprennent :
- Implosion : l'action de tomber vers l'intérieur avec force ; une situation dans laquelle quelque chose échoue soudainement et complètement.
- Ennui : un sentiment d'ennui et de fatigue mentale causé par l'absence d'activités intéressantes ou excitantes.
- Grifter : une personne qui obtient de l'argent de manière malhonnête en trompant les gens.
- GOAT : l'abréviation de "Greatest Of All Time", utilisé pour désigner ou décrire la personne qui a performé mieux que quiconque, surtout dans un sport.
Nouveaux mots et nouvelles significations
Les lexicographes de Cambridge ont ajouté plus de 6 000 nouveaux mots, expressions et sens en 2023 aux plus de 170 000 définitions anglaises du Cambridge Dictionary. Parmi les ajouts liés aux développements rapides de l'IA et de l'informatique, on trouve :
- Prompt engineering : dans l'intelligence artificielle, le processus de conception de prompts qui donneront les meilleurs résultats possibles.
- Large language model : une représentation mathématique complexe de la langue basée sur de très grandes quantités de données et permettant aux ordinateurs de produire un langage qui ressemble à ce que dirait un être humain.
- GenAI : l'abréviation d'Intelligence Artificielle Générative : l'utilisation ou l'étude d'intelligences artificielles capables de produire du texte, des images, etc.
- Train : en apprentissage automatique, créer ou améliorer une représentation informatique d'un système ou d'un processus en lui fournissant des données.
- Black box : un système qui produit des résultats sans que l'utilisateur puisse voir ou comprendre comment il fonctionne.
Parmi les autres ajouts notables au Cambridge Dictionary en 2023, on trouve :
- Shadowban : une action d'une entreprise de médias sociaux limitant qui peut voir les publications de quelqu'un, généralement sans que la personne qui les a publiées le sache.
- Vibe check : une action visant à découvrir comment quelqu'un se sent ou comment il vous fait sentir, ou quelle est l'ambiance dans un lieu ou une situation particulière.
- Water neutral : (d'un développement immobilier, d'une entreprise, etc.) ne pas utiliser plus d'eau que celle qui était utilisée dans une zone avant sa construction ou son établissement, ou ne pas enlever plus d'eau qu'elle n'en remplace.
- Pick up what someone is putting down (US) : comprendre ce que quelqu'un veut dire par ses mots, sa musique, etc.
- Affrilachian : un Afro-Américain qui vient ou vit dans la région des Appalaches dans l'est des États-Unis.
- Range anxiety : la peur qu'un véhicule électrique n'ait pas suffisamment de charge de batterie pour vous emmener là où vous voulez aller.
- UBI : l'abréviation de "universal basic income" : une somme d'argent donnée régulièrement à tous ou à tous les adultes d'une société par un gouvernement ou une autre organisation, et qui est la même pour tout le monde.
Les nouveaux mots émergents envisagés pour être ajoutés sont partagés chaque lundi sur le blog du Cambridge Dictionary, "About Words".