ChatGPT est « dangereusement stupide », déclare un expert en IA : ses raisons semblent très valables

L'intelligence artificielle n'en est qu'à ses débuts, mais le danger qu'elle représente est énorme, selon Gary Marcus.

L’un des modèles d’IA les plus populaires aujourd’hui est ChatGPT. Développé par la société OpenAI, il s’agit d’un système de chat avec plus de 175 millions de paramètres, utilisant des algorithmes allant de la traduction à la génération de texte.

Son degré d’évolution génère toutes sortes d’opinions, en raison de sa capacité à donner des réponses très complètes. Mais des chercheurs comme Gary Marcus tirent la sonnette d’alarme : ChatGPT est « dangereusement stupide« . Il a utilisé cette expression dans une interview accordée au portail espagnol El Confidencial.

Mais qui est Gary Marcus et pourquoi considère-t-il que le chat sur l’intelligence artificielle d’OpenAI est stupide ?

Né à Baltimore, aux États-Unis, en 1970, Marcus est un chercheur dans le domaine de la psychologie, qui se concentre sur le langage, la biologie et l’esprit. Il a écrit des livres tels que The Algebraic Mind : Integratind Connectionism and Cognitive Science (2001) et Kluge : The Haphazard Construction of the Human Mind (2008), entre autres.

Actuellement, en plus de ses travaux de recherche sur l’intelligence artificielle, il enseigne au département de psychologie de l’université de New York et est directeur du NYU Center for Child Language.

Gary Marcus a vu plusieurs de ces chats d’IA s’effondrer, comme Galactica (Meta) et Tay (Microsoft). Avec l’essor du ChatGPT, il estime : « Ça marche mieux, ça va avoir un impact sur la société, mais on a le même problème : c’est un système dangereusement stupide« .

« Il n’est pas facile pour l’utilisateur moyen de distinguer l’intelligence d’un de ces systèmes (d’intelligence artificielle générale), mais ChatGPT ne résout aucun des problèmes de base ».

Les problèmes d’IA de ChatGPT

Le chercheur met en avant trois situations :

  • Il n’est pas très fiable, car « pour une même question, il donne parfois des informations correctes, parfois non« .
  • Ce sont des hallucinations, des informations inventées, « et il n’y a aucun signe qu’il invente quelque chose. Il invente même des références bibliographiques« .
  • L’absence de limites : « Quand on parle d’intelligence artificielle générale, on parle d’un système qui est limité par la réalité, et ChatGPT ne l’est pas« .
  • Pour Marcus, « le danger d’un tel système peut venir de son intelligence, mais aussi du pouvoir qu’on lui donne. Si ChatGPT amène une personne naïve à croire qu’il est intelligent alors qu’il ne l’est pas, c’est en soi le danger« .
A lire :   Une intelligence artificielle pour nous gouverner : réalité ou fiction ?

La création d’OpenAI prend des morceaux de texte d’un côté ou de l’autre, les colle ensemble et les reproduit, mais ne comprend pas la relation entre ces morceaux.

« Je ne pense pas que nous soyons proches des véritables systèmes intelligents, peut-être que dans 10 ans nous en serons assez proches« , souligne Gary Marcus. Entre-temps, les outils qui peuvent être utilisés pour la désinformation continuent de gagner du terrain.