intelligence-artificielle-lire-esprit-des-ordinateurs

Quiconque a déjà eu une interaction frustrante avec Siri ou Alexa, sait que les assistants numériques ne peuvent pas égaler parfaitement les humains. Ce dont ils ont besoin, c’est ce que les psychologues appellent la théorie de l’esprit, la conscience des croyances et le désir des autres. Dans le but de limiter cette lacune, des informaticiens ont créé une intelligence artificielle (IA) capable de sonder les «esprits» des autres ordinateurs et de prédire leurs actions – le premier pas vers une collaboration fluide entre les machines et les humains.

La théorie de l’esprit est une capacité cruciale

Selon Alison Gopnik, psychologue du développement à l’Université de Californie à Berkeley, «la théorie de l’esprit est clairement une capacité cruciale», explique Alison Gopnik, qui n’a pas participé à ce travail. Vers l’âge de 4 ans, les enfants humains comprennent que les croyances d’une autre personne peuvent s’écarter de la réalité, et que ces croyances peuvent être utilisées pour prédire le comportement futur de cette personne. Certains ordinateurs peuvent actuellement étiqueter des expressions faciales, telles que «heureux» ou «en colère» – une compétence associée à la théorie de l’esprit – mais ils ont peu de compréhension des émotions humaines ou de ce qui les motive.

Ce nouveau projet a commencé comme une tentative pour amener les humains à comprendre les ordinateurs. De nombreux algorithmes utilisés par l’IA ne sont pas entièrement écrits par les programmeurs, mais s’appuient plutôt sur l’apprentissage des machines pour résoudre séquentiellement des problèmes. Les solutions générées par ordinateur qui en résultent sont souvent des boîtes noires, avec des algorithmes trop complexes pour permettre à l’instinct humain de les pénétrer. Donc Neil Rabinowitz, chercheur à DeepMind à Londres, et ses collègues, ont créé une théorie de l’intelligence artificielle appelée « ToMnet » et l’ont fait observer par d’autres IA pour voir ce qu’ils pouvaient apprendre sur leur fonctionnement.

ToMnet est constitué de trois réseaux de neurones

ToMnet comprend trois réseaux de neurones; chacun composé de petits éléments de calcul et de connexions qui apprennent par expérience – ce qui ressemble vaguement au cerveau humain. Le premier réseau apprend les tendances des autres IA sur la base de leurs actions passées. La seconde forme une compréhension de leurs «croyances», et la troisième prend la sortie des deux autres réseaux et, selon la situation, prédit les prochains mouvements de l’IA.

Les IA à l’étude étaient de simples personnages se déplaçant autour d’une salle virtuelle, collectant des cases colorées pour avoir des points. ToMnet regardait la pièce d’en haut. Dans un test, il y avait trois «espèces» de caractère: on ne pouvait pas voir la pièce environnante, on ne pouvait pas se souvenir de ses pas, et on pouvait à la fois voir et se souvenir. Les personnages aveugles avaient tendance à suivre les murs, les amnésiques se déplaçaient vers l’objet le plus proche, et la troisième espèce formait des sous-objectifs, empoignant stratégiquement des objets dans un ordre spécifique pour gagner plus de points.

Après sa formation, ToMnet pouvait non seulement identifier l’espèce d’un personnage après seulement quelques étapes, mais il pouvait également prédire correctement son futur comportement, ont rapporté les chercheurs ce mois-ci à la Conférence internationale sur l’apprentissage automatique à Stockholm.

Un test final a révélé que ToMnet pouvait même comprendre quand un personnage détenait une fausse croyance – une étape cruciale dans le développement de la théorie de l’esprit chez les humains et les autres animaux. Dans ce test, un type de personnage a été programmé pour être myope; lorsque l’ordinateur a modifié le paysage au-delà de sa vision à mi-chemin du jeu, ToMnet a prédit avec précision qu’il resterait plus souvent sur sa trajectoire originale que les personnages plus perspicaces, qui étaient plus susceptibles de s’adapter.

Des exemples frappantes à apprendre par eux-mêmes

Gopnik explique que cette étude – et une autre présentée à la conférence qui suggère que les IA peuvent prédire le comportement d’autres IA en se basant sur ce qu’ils savent d’eux-mêmes – sont des exemples de la capacité «frappante» des réseaux neuronaux à apprendre par eux-mêmes. Mais cela ne les met pas toujours au même niveau que les enfants humains, explique-t-elle, qui réussiraient probablement cette tâche de fausse croyance avec une précision presque parfaite, même s’ils ne l’avaient jamais rencontrée auparavant.

Josh Tenenbaum, psychologue et informaticien au Massachusetts Institute of Technology de Cambridge, a également travaillé sur des modèles computationnels des capacités de la théorie de l’esprit. Il explique que ToMnet infère des croyances plus efficacement que le système de son équipe, qui est basé sur une forme plus abstraite de raisonnement probabiliste, plutôt que sur des réseaux de neurones. Mais la compréhension de ToMnet est plus étroitement liée aux contextes dans lesquels il est formé, ajoute-t-il, le rendant moins capable de prédire le comportement dans des environnements réellement nouveaux, comme son système ou même les jeunes enfants peuvent le faire. À l’avenir, explique-t-il, combiner ces approches pourrait nous diriger vers des «directions vraiment intéressantes».

Gopnik note que le type de compétences sociales que développent les ordinateurs améliorera non seulement la coopération avec les humains, mais aussi, peut-être, la tromperie. Si un ordinateur comprend les fausses croyances, il peut savoir comment les utiliser pour tromper une personne. Attendez-vous à ce que les futurs Poker Bots maîtrisent l’art du bluff.

Source : Science