banner
Centre d'Information
Excellents intrants, assurance qualité rigoureuse.

ChatGPT peut-il détruire l’humanité s’il ne comprend pas le monde ?

Oct 15, 2023

Aux hallucinations tant évoquées des Large Language Models (LLM), leur instabilité et leur manque d’interprétabilité, s’ajoutent désormais leur vulnérabilité aux attaques contradictoires automatisées les obligeant à produire des contenus nuisibles. Mais c’est là la moindre de leurs faiblesses. La profondeur de leur compréhension du monde humain est un obstacle bien plus important à surmonter pour les LLM avant de devenir une « superintelligence ».

Cependant, selon le créateur de ChatGPT, OpenAI, cette « technologie la plus impactante que l’humanité ait jamais inventée » pourrait « arriver cette décennie » et « conduire à l’extinction de l’humanité ».

Signe Chatbot pour le concept de service d'assistance.

Nous avons déjà entendu dire il y a des années que l’IA à l’image des humains était sur le point d’arriver. Au moment où Terry Winograd entrait aux études supérieures à la fin des années 1960, la plupart des [humains intelligents et bien informés] « croyaient qu'il ne faudrait pas longtemps avant que les machines voient, entendent, parlent, bougent et accomplissent des tâches semblables à celles des humains », a écrit John Markoff. dans Machines de grâce aimante.

Pour sa thèse de doctorat au MIT, Winograd a développé SHRDLU, un programme informatique capable de participer à des conversations sur un monde inventé, un « micromonde » composé de blocs de jouets et d'une « pince » pour les déplacer. Il répondait aux commandes en anglais pour manipuler les blocs à l'aide de sa pince et il « comprenait » les questions sur l'état de son monde.

Dans son histoire de l'intelligence artificielle, Nils Nilsson affirme que les performances impressionnantes de SHRDLU ont rendu certains chercheurs en PNL « optimistes quant au succès futur ». Mais « Winograd a rapidement abandonné cette ligne de recherche pour poursuivre des travaux consacrés à l'interaction des ordinateurs et des personnes. Peut-être parce qu’il avait une expérience directe de la quantité de connaissances nécessaires pour réussir à comprendre une langue dans quelque chose d’aussi simple que le monde des blocs, il désespérait de pouvoir jamais donner aux ordinateurs suffisamment de connaissances pour reproduire toute la gamme des compétences verbales humaines.

Plus tard, en 2006, Winograd considérait la compréhension du langage statistique, les réseaux neuronaux et l’apprentissage automatique comme de nouveaux développements orientant le domaine de l’IA vers son approche préférée de l’interaction homme-machine. « Les essais et erreurs éclairés surpassent la planification d’un intellect sans faille » sont au centre de cette approche, a-t-il écrit, reconnaissant « les limites de la connaissance et de la modélisation des complexités du monde humain réel ».

De nouveaux triomphes de l’approche d’analyse statistique de l’IA, en particulier dans le domaine de l’identification d’images en 2012, ont amené la plupart des humains intelligents et bien informés à croire que l’intelligence artificielle de type humain, ou même la « superintelligence », était, là encore, à nos portes.

La plupart, mais pas tous. Un outil populaire utilisé par ceux qui remettent en question l’intelligence de la nouvelle IA est devenu connu sous le nom de Winograd Schema Challenge. C'est l'idée originale d'Hector Levesque de l'Université de Toronto en 2010, basée sur un exemple d'ambiguïté sémantique mentionné dans « Understanding Natural Language » de Winograd de 1972. Pour surmonter les limites du « test de Turing », Lévesque a suggéré un test à choix multiples qui nécessite la résolution correcte d'un pronom ambigu dans un énoncé. Par exemple,

Le trophée ne rentre pas dans la valise marron car il est trop grand. Qu'est-ce qui est trop grand ?

A. Le trophée

B. La valise

« Le défi a suscité un intérêt considérable de la part de la communauté des chercheurs et de la presse scientifique populaire. Le caractère naturel du problème en faisait un problème équitable pour les systèmes d’IA ; la complexité des inférences impliquées semblait la placer bien au-delà de la portée de ce qui était alors la technologie actuelle », ont écrit les auteurs de « The Defeat of the Winograd Schema Challenge » (janvier 2023).

En effet, lors de la « première et dernière édition du Winograd Schema Challenge » qui a eu lieu en 2016, le plus réussi des six programmes d’IA qui y ont participé a obtenu un score de 58 % sur la série de tests, à peine meilleur que le hasard. Lors de la conférence inaugurale O'Reilly AI la même année, alors que certains parlaient des voitures sans conducteur « surhumaines » qui approcheraient à grands pas, d'autres, dont le pionnier de l'apprentissage profond Yann LeCun, mentionnaient le schéma Winograd comme un défi non résolu pour tester le système. la connaissance qu'a la machine du fonctionnement du monde.