intelligence-artificielle-imagination

« Avant de travailler sur l’intelligence artificielle, pourquoi ne faisons-nous pas quelque chose à propos de la stupidité naturelle ? », ironise l’informaticien Steve Polyak. Cette dernière pourrait faire de grandes choses, mais l’IA, semble-t-il, n’a fait qu’un petit pas pour les robots. Mais une nouvelle étude publiée le 14 juin dans Science rapporte que pour la première fois des scientifiques ont développé un système d’apprentissage automatique capable d’observer une scène sous plusieurs angles, et de prédire à quoi elle ressemblera sous un autre angle sans l’avoir vu.

Apprendre sans supervision humaine

Tout comme nous pouvons regarder l’appartement d’un ami d’un côté du salon et avoir une bonne idée de ce à quoi il ressemble de l’autre côté, cette nouvelle technologie peut faire cela pour une scène dans une image informatique tridimensionnelle. Conçu par des chercheurs de la société d’intelligence artificielle DeepMind – acquise par Google en 2014 – ce nouveau système peut «apprendre» la disposition en trois dimensions d’un espace sans aucune supervision humaine.

Ce réseau de requête générative (Generative Query Network), ou GQN – comme l’appellent ses développeurs, est d’abord formé en observant de simples scènes générées par ordinateur contenant différents arrangements d’éclairage et d’objets. Il peut ensuite être exposé à de multiples images d’un nouvel environnement et prédire avec précision à quoi il ressemble sous n’importe quel angle. Contrairement aux régions perceptives hypers connectées du cerveau humain, ce système apprend et traite des données comme la forme, la taille et la couleur séparément, puis assimile ces données dans une «vue» cohérente d’un espace.

« Les humains et les autres animaux ont une riche compréhension du monde visuel quant aux objets, à la géométrie, et l’éclairage », explique Ali Eslami, auteur principal du nouveau document et chercheur à DeepMind. « Cette capacité a été développée grâce à une combinaison de connaissances innées et d’apprentissage non supervisé. Notre motivation derrière cette recherche est de comprendre comment nous pouvons construire des systèmes informatiques qui apprennent à interpréter le monde visuel comme nous le ferions.  »

L’apprentissage automatique en tant que domaine d’étude a évolué ces dernières années, et la technologie GQN s’appuie sur de nombreux systèmes développés antérieurement, y compris les nombreux modèles «d’apprentissage profond» basés sur des réseaux de neurones inspirés par le cerveau humain. L’apprentissage en profondeur est une forme d’apprentissage automatique dans laquelle un ordinateur «apprend» à partir d’une une image ou d’autres données pour, par exemple, détecter les diverses caractéristiques qui font d’un objet un chat ou une cuillère. Il le fait après avoir observé de nombreuses images de scènes étiquetées pour identifier ces objets.

Une forme d’apprentissage unique et améliorée

Le GQN utilise l’apprentissage en profondeur pour construire une forme de «vision» informatisée qui permet la navigation à travers des scènes complexes. Ce qui est unique à ce sujet comparé à beaucoup d’autres systèmes, c’est sa capacité à apprendre par lui-même à partir de l’observation et sans supervision humaine. Il analyse les objets non étiquetés et l’espace dans lequel ils s’insèrent dans une scène, puis applique son apprentissage à une autre image.

«Cela donne à GQN une flexibilité accrue et nous permet de ne pas avoir à créer une grande collection de modèles pour chaque objet», explique Eslami. En d’autres termes, il peut reconnaître un nouvel objet basé sur une observation antérieure à un objet différent en utilisant des caractéristiques telles que la forme et la couleur.

Pour l’instant, ce nouveau système a été conçu uniquement pour fonctionner avec des scènes générées par ordinateur, et non pour contrôler les actions d’un robot dans le monde réel. Mais Eslami et ses collègues prévoient de continuer à développer le GQN avec une géométrie et des situations plus complexes, espérant qu’un jour, la compréhension robotique entièrement autonome d’une scène pourrait se prêter à un grand nombre d’applications industrielles.

Les robots pourraient théoriquement être formés pour une tâche et redéployés ses connaissances sur une autre sans avoir à le reprogrammer. Le GQN pourrait faire baisser les coûts de fabrication, augmenter la vitesse de production et rationaliser l’assemblage de tout ce qui est bricolé par des robots. « Ce travail est intéressant et passionnant », affirme Joshua Tenenbaum, professeur en science cognitive et de calcul au Massachusetts Institute of Technology, qui affirme également que cette technologie a encore du chemin à parcourir avant de trouver des applications pratiques.

Des systèmes plus autonomes

« Selon moi cette recherche est encore loin d’offrir des applications directes », note-t-il. « Du point de vue de l’ingénierie strictement pratique, les problèmes qu’il résout peuvent actuellement être résolus aussi bien ou mieux par d’autres moyens, qui dépendent moins de méthodes purement basées sur l’apprentissage. » Tenenbaum, qui n’était pas impliqué dans le projet, ajoute: «à long terme, ce travail pourrait aider à faire progresser l’état de la perception et du contrôle robotique, conduisant à des systèmes plus adaptatifs et autonomes que les technologies qui existent actuellement.

Alors que l’IA avance au point où les machines acquièrent des qualités réservées auparavant aux humains, il y a bien sûr des préoccupations dystopiques: à savoir que nous préparons notre propre disparition par une population plus intelligente et plus puissante que les êtres humains, quelle que soit leur forme, et comme le philosophe allemand Thomas Metzinger l’a déjà mentionné il y a plusieurs années; la création de certains états mentaux dans les machines pourrait entraîner des souffrances pour ces machines.

Ce système est encore trop limité

Tenenbaum n’est pas inquiet. « Toute crainte de développer des ordinateurs plus intelligents que nous, dans un futur en pratique accessible, n’est pas fondée », explique-t-il. « le système présenté ici est un progrès remarquable par rapport aux précédents systèmes, mais il est loin de reproduire les capacités de perception que même les jeunes enfants possèdent. Il nécessite également de grandes quantités de données d’entraînement, ce que les enfants ne font pas, suggérant que ses capacités d’apprentissage ne sont pas aussi puissantes que celles des êtres humains. »

Le test de Turing

Alan Turing, fondateur de l’informatique, a déclaré qu’un ordinateur ne pouvait être qualifié d’intelligent que s’il pouvait tromper une personne en lui faisant croire qu’il était humain. Pour qu’une intelligence artificielle puisse passer le test de Turing, cela nécessiterait une machine qui aurait une intelligence plus universelle de son environnement – comme une machine capable de calculer, de ficeler des chaussures et de préparer le souper, tout ce que les humains font déjà – un objectif qui n’est encore qu’un fantasme futuriste pour l’instant.

Source : Scientific American