Les chatbots d’IA deviennent si bons que les gens commencent à les considérer comme des humains. Plusieurs utilisateurs ont récemment appelé les bots leurs meilleurs amis, d’autres ont déclaré leur amour, et un ingénieur de Google en a même aidé un à engager un avocat. Du point de vue du produit, ces bots sont extraordinaires. Mais du point de vue de la recherche, les personnes qui rêvent de leur intelligence de niveau humain doivent faire face à la réalité.
Aujourd’hui, les chatbots ne sont formés qu’au texte, une limitation débilitante. L’ingestion de montagnes de mots écrits peut produire des résultats stupéfiants – comme réécrire Eminem dans un style shakespearien – mais elle empêche la perception du monde non verbal. Une grande partie de l’intelligence humaine n’est pas marquée. Nous acquérons notre compréhension innée de la physique, de l’artisanat et des émotions non pas en lisant, mais en vivant. Sans matériel écrit sur ces sujets pour s’entraîner, l’IA n’est pas à la hauteur.
“La compréhension que ces systèmes actuels ont de la réalité sous-jacente que le langage exprime est extrêmement superficielle”, a déclaré Yann LeCun, responsable scientifique de l’IA chez Meta et professeur d’informatique à l’université de New York. “Ce n’est pas un pas particulièrement important vers une intelligence de niveau humain ».
Dans un récent épisode du Big Technology Podcast, LeCun a montré la compréhension limitée du monde qu’a ChatGPT en brandissant une feuille de papier. M. LeCun a promis que le robot ne saurait pas ce qui se passerait s’il lâchait le papier d’une main. Après consultation, ChatGPT a déclaré que le papier “s’inclinerait ou tournerait dans la direction de la main qui ne le tient plus”. Pendant un moment – étant donné sa présentation et sa confiance – la réponse semblait plausible. Mais le robot avait tout faux.
Le papier de Lecun s’est déplacé vers la main qui le tenait encore, ce que les humains savent instinctivement. ChatGPT, cependant, n’a rien compris parce que les gens décrivent rarement la physique du lâcher d’un papier dans un texte. (Peut-être jusqu’à présent).
“Je peux trouver une énorme pile de situations similaires, chacune d’entre elles n’aura été décrite dans aucun texte”, a déclaré LeCun. La question à se poser est donc la suivante : “Quelle est la part du savoir humain qui est présente et décrite dans les textes ?”. Et ma réponse à cette question est une infime partie. La plupart des connaissances humaines ne sont pas réellement liées au langage. »
Sans une compréhension innée du monde, l’IA ne peut pas prédire. Et sans prédiction, elle ne peut pas planifier. “La prédiction est l’essence de l’intelligence”, a déclaré M. LeCun. Cela explique, du moins en partie, pourquoi les voitures autonomes sont toujours en train de se perdre dans un monde qu’elles ne comprennent pas complètement. Et pourquoi l’intelligence des chatbots reste limitée, même si elle est encore puissante, malgré l’anthropomorphisme.