ChatGPT, le logiciel capable d’écrire des petits textes confondants

Comme d’autres applications d’intelligence artificielle récentes assez impressionnantes, ce service de la société OpenAI a des limites et suscite des débats.

Par Alexandre Piquard (Le Monde)

Publié le 06 décembre

 

Dall·E  est un logiciel capable de créer une image à partir d’un texte. Il a été conçu par OpenAI, une petite entreprise de San Francisco (Californie), réputée pour ses travaux dans l’intelligence artificielle. STEFANI REYNOLDS / AFP

 

« Le 6 décembre 2022, la société OpenAI a lancé une nouvelle application de messagerie intitulée ChatGPT. Basée sur le modèle de langage GPT-3 développé par OpenAI, l’application promet d’offrir une expérience de conversation plus naturelle et fluide pour les utilisateurs. Cependant, certains experts s’inquiètent des limites et des dangers potentiels de cette technologie. Le modèle GPT-3, bien que puissant, peut encore avoir du mal à comprendre le contexte et les sous-entendus dans les conversations humaines, ce qui peut entraîner des réponses erronées ou inappropriées. De plus, il existe un risque que les utilisateurs confondent les réponses de ChatGPT avec celles d’un être humain réel, ce qui peut entraîner des conséquences graves dans certaines situations. »

Les quelques phrases ci-dessus sont le début de la réponse donnée par un nouveau logiciel de conversation, quand on lui demande : « Ecris un article dans le style du journal Le Monde sur le lancement de ChatGPT, en incluant les limites et les dangers de cette application. »

 

Seule la date est erronée : l’application a été lancée mercredi 30 novembre par OpenAI, une petite entreprise de San Francisco déjà réputée pour ses travaux dans l’intelligence artificielle. Elle a déjà fait sensation avec Dall·E 2, un des logiciels capables de créer une image à partir d’un texte. C’est aussi elle qui a créé GPT, un modèle de traitement du langage dont ChatGPT est une version conversationnelle. Disponible en libre accès, elle a déjà passé le million d’utilisateurs, selon OpenAI.

Versatile, l’application est aussi capable d’écrire « une réponse à la professeure de mon fils qui a écrit un mot dans son carnet de correspondance lui reprochant d’avoir chahuté en cours » : « Je vous remercie pour votre mot dans le carnet de correspondance concernant le comportement de mon fils en classe. Je suis désolé qu’il ait chahuté et je vais m’assurer de lui parler de l’importance d’être attentif et respectueux en cours. Merci de bien vouloir le surveiller de près pour que cela ne se reproduise pas », propose ChatGPT.

 

« Un concurrent majeur pour les métiers créatifs »

Sur le réseau Twitter, des internautes épatés s’échangent les réponses obtenues : un résumé fictif de la future victoire de l’équipe de France de football contre l’Angleterre, des conseils sur la bonne façon de mener une réunion pour un PDG, un sketch dans le style des Monthy Python sur trois pontes de l’intelligence artificielle, un programme de régime, une lettre pour expliquer à un enfant que le Père Noël n’existe pas, des idées (illustrées) pour décorer son salon

ChatGPT est « probablement le premier bon chatbot », s’enthousiasme le journaliste « tech » Alex Kantrovitz. Le logiciel « est bon à faire peur », ajoute le site Axios. Certains y voient même une menace pour le moteur de recherche Google.

ChatGPT a aussi « la capacité, assez inédite » de répondre avec du code informatique, note Alexei Grinbaum, physicien, philosophe et membre du comité national pilote d’éthique du numérique du CEA. « ChatGPT est un énorme pas en avant, insiste le chercheur. C’est un concurrent majeur pour les métiers créatifs ou les activités d’écriture de petits essais par des élèves. » Prudent, M. Grinbaum prône toutefois d’ajouter un « filigrane » informatique dans les textes pour attester qu’ils n’ont pas été écrits par un humain – une piste qu’OpenAI étudierait.

« ChatGPT est surprenant et puissant mais fait parfois des erreurs ou manque de nuance » remarque Daniela Rus, du MIT

Daniela Rus, directrice du laboratoire d’informatique et d’intelligence artificielle du Massachusetts Institute of Technology (MIT) est, elle, plus circonspecte : « ChatGPT est surprenant et puissant mais fait parfois des erreurs ou manque de nuance. Il est loin de pouvoir vous piquer votre job. » Si OpenAI a prévu des systèmes pour filtrer les contenus « inappropriés », ChatGPT « écrit parfois des réponses plausibles mais fausses ou absurdes », reconnaît l’entreprise. Il peut se tromper sur des faits simples ou affirmer qu’un auteur vivant est mort, prévient un chercheur sur Twitter.

Entraîné par la lecture des millions de pages de texte notamment tirées du Web, ChatGPT peut aussi reproduire des stéréotypes, par exemple racistes, surtout si un utilisateur l’y invite. En l’absence de certitude sur la « véracité » de ses réponses, ChatGPT « ne peut donc pas être utilisé dans des applications critiques » et « peut au mieux servir d’assistant, comme un stagiaire », croit Daniela Rus. « Vous devez rester juge de ce qui est pertinent », dit-elle. ChatGPT suggère quant à lui cette conclusion : « Reste à voir comment cette technologie sera accueillie par le grand public et comment elle évoluera à l’avenir. »


Alexandre Piquard