Intelligence artificielle - Google fait parler un avion en papier: oui, mais à quel prix?
Publié

Intelligence artificielleGoogle fait parler un avion en papier: oui, mais à quel prix?

La firme de Mountain View a dévoilé LaMDA, une saisissante IA experte en compréhension du langage naturel. On a demandé à une chercheuse de l’Idiap de nous décrypter cette innovation.

par
Christophe Pinol
Sundar Pichai, CEO de Google, lors de la Google I/O 2021.

Sundar Pichai, CEO de Google, lors de la Google I/O 2021.

DR

Le coronavirus ayant eu raison de Google I/O 2020, la conférence annuelle pour les développeurs, celle-ci était de retour la semaine passée, plus innovante que jamais. L’occasion, pour Sundar Pichai, CEO de la firme, de présenter ses nouveautés logicielles pour l’année à venir. Mais entre du machine learning destiné à créer des versions 3D de vos photos et un changement de look radical de l’interface Android 12, il en a surtout profité pour mettre en avant ses avancées en termes d’intelligence artificielle. Et notamment leur nouveau modèle de compréhension du langage naturel.

Baptisé LaMDA, et conçu sur une architecture de réseau neuronal inventée par Google Research, à l’instar d’autres algorithmes comme BERT et GPT-3, il est censé pouvoir converser sur tous les sujets possibles. Comme les modèles précités, il est formé à l’analyse de milliards de mots, capable de comprendre leurs relations au sein d’une phrase et même de prédire des mots à venir. «Prenez la phrase «Il pleut, donc je pense que je ne vais pas…» et demandez à quelqu’un de la compléter, décrypte Lonneke van der Plas, à la tête d’un groupe de recherche en informatique, cognition et langage à l’Idiap, à Martigny, l’un des spécialistes mondiaux de l’intelligence artificielle. Eh bien cette personne va peut-être vous suggérer de terminer la phrase par «…me baigner», ou «…me promener». Si un ordinateur est lui aussi capable de deviner ces mots, c’est qu’il «comprend» le contexte, ou du moins qu’il en donne l’impression. Simplement grâce aux milliards de textes qu’il a emmagasinés et mémorisés. C’est le développement d’un modèle de langage».

Quand Google se met dans la peau de Pluton et d’un avion en papier

La particularité de LaMDA, c’est qu’il a été formé au dialogue et peut tenir une conversation d’une fluidité étonnante sur n’importe quel sujet, à des lieues des habituels «c’est bien» ou «je ne sais pas» délivrés par les chatbots, ces robots logiciels de plus en plus utilisés pour nous aider à résoudre toutes sortes de tâches en ligne. Non seulement ceux-ci œuvrent dans des champs d’action bien définis mais sont encore souvent largement déroutés par nos questions quand celles-ci sortent des sentiers battus.

C’est d’ailleurs à ce genre de job que LaMDA est dans un premier temps destiné. Mais à terme, il pourrait très bien un jour être intégré à Google Assistant, dans nos smartphones, comme l’a laissé entendre Sundar Pichai. Le CEO en a d’ailleurs profité pour démontrer les capacités de son nouveau bébé en action à travers deux scènes assez surréalistes: dans la première l’IA jouait le rôle de Pluton, la planète, répondant aux questions de quelqu’un, curieux de savoir à quoi ressemblerait un voyage sur place.

Dans le second, l’IA se retrouvait cette fois dans la peau d’un avion en papier, partageant avec son interlocuteur l’ivresse de voler, mais aussi la peur d’atterrir dans une flaque d’eau. Soit une capacité d’analyse assez folle pour une IA, capable de comprendre, notamment dans le deuxième exemple, qu’il ne s’agit pas d’un vrai avion, d’assimiler le papier à de la fragilité, le caractère dangereux de l’eau dans ce cas de figure, et d’imaginer ce que représenterait cette expérience pour une personne placée à bord de cet avion en papier… Ce qui est remarquable en termes de compréhension et de synthèse de tous les univers connectés impliqués.

«La démonstration est assez impressionnante, reconnaît la chercheuse de l’Idiap. Surtout au niveau de la façon dont l’IA semble gérer les notions de sens commun. Pour une machine, ce genre de choses est extrêmement difficile à capter à partir de textes puisque à l’écrit, les gens n’expliquent pas ce qui tient de l’évidence, comme ce qui va se passer si je tiens une bouteille dans ma main et que j’écarte mes doigts. Il faut toutefois remettre les choses en perspective. Ces intelligences artificielles sont capables de véritables prouesses mais elles peuvent aussi facilement parvenir à faire illusion et nous faire croire qu’elles ont compris une situation alors qu’il n’en est rien. Et le problème, c’est qu’elles ne sont pas encore capables d’expliquer pourquoi elles ont donné telle réponse. On ne sait donc pas ce qui se passe dans leur «tête».

La première intelligence artificielle raciste

À la décharge de Google, Sundai Pichar a bien précisé lors de la conférence n’en être qu’aux premiers stades des recherches. «Le dialogue avec LaMDA peut encore facilement tourner court ou les réponses devenir absurdes», avait-il souligné. L’intégration de l’algorithme dans la vie de tous les jours n’est donc encore pas pour demain mais en parlant des dérapages d’une intelligence artificielle, on se souvient de cette IA développée par Microsoft il y a cinq ans, Tay, conçue pour participer à des conversations sur les réseaux sociaux. Au bout d’à peine 8 heures d’existence, Microsoft avait préféré la réduire au silence après toute une série d’insultes sexistes et de commentaires racistes lâchés par la machine sur Twitter.

«Le problème, continue Lonneke van der Plas, c’est que les utilisateurs avaient intentionnellement donné à Tay des exemples politiquement incorrects. Avec LaMDA, c’est différent. On trouve de tout dans la quantité de données que ces modèles ont besoin d’absorber pour apprendre à converser: des propos racistes, misogynes, sexistes… Et on peut craindre que tout cela ressorte à un moment ou à un autre». Même si du côté de Google, on semble avoir anticipé le coup: «Nous nous sommes efforcés de faire en sorte que LaMDA réponde à des normes incroyablement élevées en termes d’équité, de sécurité et de confidentialité», a assuré Sundai Pichar.

Prochaine étape, pour LaMDA? Le développement de modèles multimodaux capables non seulement de comprendre le texte mais également les images, l’audio et la vidéo. Le CEO de Google avait d’ailleurs évoqué quelques applications qui pourraient en découler d’ici quelques années: demander à Google Maps de «trouver un itinéraire avec de belles vues sur la montagne» ou au moteur de recherche maison de dénicher un élément bien particulier dans une vidéo, comme «un lion rugissant au soleil couchant».

L’IA, une catastrophe écologique

Problème: l’entraînement de ces IA pour le traitement du langage naturel est extrêmement gourmand en termes d’énergie. Il y a deux ans, des scientifiques de l’Université du Massachusetts avaient mesuré l’empreinte carbone de plusieurs modèles d’intelligences artificielles, notamment BERT, conçu par Google, et avaient estimé qu’un algorithme de ce type, entraîné pendant 5 à 7 jours à partir d’une grande masse de données via des ordinateurs surpuissants générait autant d’équivalents CO2 qu’un être humain pendant 57 ans ou que 5 voitures pendant leur durée de vie. Et LaMDA est aujourd’hui bien plus puissant que les modèles employés il y a deux ans…

Heureusement, les chercheurs en IA tentent par tous les moyens d’utiliser des programmes moins gourmands en données et en énergie. «À l’Idiap, on travaille justement sur ces modèles dits compacts et je suis en train de soumettre un projet de recherche européen en collaboration avec le Centre de recherche allemand pour l’intelligence artificielle (DFKI) qui se concentre justement sur la construction de modèles moins énergivore, en rapport avec le pacte vert pour l’Europe».

Tout n’est pas perdu…

Votre opinion