Malgré son titre « ChatGPT, le logiciel capable d'écrire des petits textes confondants », l'article d'Alexandre Piquard, dans le journal Le Monde du 6 décembre 2022, reprend le même vieil angle d'attaque journalistique bidon de parler surtout des risques des nouvelles technologies. Depuis les années 1995, pour l'Internet, on met en garde contre les pédophiles et les escroqueries (à l'époque on parlait aussi de fabrication d'engins explosifs), aujourd'hui les risques évoqués sont surtout les complotistes et les fakes news...
Dès le chapeau de l'article, on a droit à : « ce service de la société OpenAI a des limites et suscite des débats » pour bien montrer qu'on ne doit pas se faire d'illusions. Comme justement ChatGPT le permet, le journaliste malin lui demande : « Ecris un article dans le style du journal Le Monde sur le lancement de ChatGPT, en incluant les limites et les dangers de cette application. » Il a obtenu une réponse qui commence par :
« Le 6 décembre 2022, la société OpenAI a lancé une nouvelle application de messagerie intitulée ChatGPT. Basée sur le modèle de langage GPT-3 développé par OpenAI, l'application promet d'offrir une expérience de conversation plus naturelle et fluide pour les utilisateurs. Cependant, certains experts s'inquiètent des limites et des dangers potentiels de cette technologie. Le modèle GPT-3, bien que puissant, peut encore avoir du mal à comprendre le contexte et les sous-entendus dans les conversations humaines, ce qui peut entraîner des réponses erronées ou inappropriées. De plus, il existe un risque que les utilisateurs confondent les réponses de ChatGPT avec celles d'un être humain réel, ce qui peut entraîner des conséquences graves dans certaines situations. »
On constate ici la qualité rédactionnelle de la réponse, qui reprend bien les inquiétudes dont parle Piquard. Cela ne le satisfait pourtant pas. Au journaliste qui note que « Seule la date est erronée : l'application a été lancée mercredi 30 novembre par OpenAI », on pourrait faire remarquer que, comme disait un de mes professeurs, « dans Le Monde même la date est fausse », car ce journal du soir à Paris est daté du lendemain pour avoir la même date de diffusion en province le matin.
Pour la question classique du contexte et des sous-entendus, on peut noter que c'est aussi le cas des humains de ne pas bien les saisir. Ils devraient envisager de prendre des précautions eux aussi. Sinon, pour les risques de confusion avec un interlocuteur humain, les travaux de l'ancien CNET (Centre National d'Étude des Télécommunications) de Lannion, dans les années 1980, en tenaient compte en donnant une voix à l'allure mécanique aux robots téléphoniques. En effet, déjà à l'époque, les voix générées étaient trop parfaites et pouvaient laisser croire qu'il s'agissait d'un interlocuteur humain. Les concepteurs s'étaient d'ailleurs aussi amusés à simuler divers accents et timbres spécifiques (comme celui d'un curé breton).
Le journaliste du Monde rapporte que les internautes qui ont testé le programme ChatGPT ont été enthousiastes. Mais il note aussitôt d'autres avis plus réservés : « Le logiciel 'est bon à faire peur', ajoute le site Axios » et Alexei Grinbaum, membre du comité national pilote d'éthique du numérique du CEA, craint « un concurrent majeur pour les métiers créatifs ou les activités d'écriture de petits essais par des élèves. » Il propose « d'ajouter un 'filigrane' informatique dans les textes » (ce qui n'a pas de sens : on peut toujours faire une copie). Daniela Rus, du MIT, déclare que « ChatGPT est surprenant et puissant, mais fait parfois des erreurs ou manque de nuance. »
Le journaliste ajoute que ChatGPT « écrit parfois des réponses plausibles, mais fausses ou absurdes [comme le] reconnaît l'entreprise » ou que « ChatGPT peut aussi reproduire des stéréotypes, par exemple racistes, surtout si un utilisateur l'y invite. » Ce dernier point correspond plutôt à l'expérience précédente de TAY, chatbot de Microsoft en 2016. Les utilisateurs avaient alors volontairement cherché à le nourrir de propos racistes et sexistes. Ce qui prouve au moins que les fonctions d'apprentissage fonctionnent. J'avais eu l'occasion de dire que cela simulait donc bien la formation idéologique dans un milieu raciste et sexiste. Chercher à montrer que ChatGPT avait les mêmes limites est donc une des premières choses que certains ont voulu reproduire pour contourner les précautions qui avaient pourtant bien été installées dans ChatGPT. Elles n'ont parfois pas suffi.
Comme on le sait, ce festival de critiques est très convenu envers l'intelligence artificielle. J'avais fait un projet de thèse, Philosophie contre Intelligence artificielle, publié en 1996, pour les réfuter. En ce qui concerne ChatGPT, constater que c'est un bon chatbot, comme le concèdent les critiques eux-mêmes, ne suffit pas. Ce qu'il faut dire est plutôt que ses concepteurs ont amélioré l'analyse des questions, la mobilisation des connaissances, la génération de réponses, mais il faut surtout reconnaître qu'elles sont bien rédigées et nuancées. Ce qui semble résolu est la construction d'un discours articulé et non plus seulement la génération de la structure correcte de simples phrases. C'est tout le projet de l'intelligence artificielle. Il faut savoir reconnaître quand le but est atteint.
Le défaut des critiques de l'IA est qu'elles se fondent toujours sur un fantasme de perfection déjà réalisée dont on se complaît de relever les failles ou d'alerter sur les dangers. Dans mon livre, j'avais parlé de « mauvais maître » à propos d'une pédagogie qui ne reconnaît pas la satisfaction éprouvée de la part de l'élève (humain) dans ses réussites. C'est un biais professoral qui résulte de l'expérience évidente des enseignants face aux échecs rencontrés au cours de l'apprentissage. Cela arrive éventuellement quand on veut brûler les étapes sans faire de pause pour digérer les acquisitions. J'avais ajouté :
« La tradition philosophique, quand elle signifiait encore quelque chose comme à l'époque de Spinoza, semblait s'interroger sur la joie. On peut avancer l'hypothèse que l'humour consiste à rire de soi ou d'autrui dans des conduites d'échecs ; alors que la joie consiste inversement à éprouver et manifester le plaisir qu'on éprouve en situation de succès » (Philosophie contre Intelligence artificielle, p. 142).
On peut craindre ainsi que certains se réjouissent un peu trop des échecs du programme ChatGPT au lieu de les considérer comme des étapes à surmonter. Le modèle idéaliste de la philosophie entraîne cette conséquence pédagogique. Inversement, l'approche gradualiste de l'ingénieur est d'améliorer les procédés. La question n'est pas le quoi (du philosophe), mais le comment (du concepteur). C'est une illusion de croire qu'une bonne idée marche ou ne marche pas tout de suite. Le plus souvent, il faut y apporter des correctifs et diverses améliorations techniques ou adaptations à différents contextes ou types d'utilisateurs. C'est peut-être pour cela que les philosophes critiquent la technique dont ils ne comprennent pas l'essence (catégorie dont ils croient être les spécialistes), qui est l'empirisme. C'est la confrontation au réel qui est le critère.
Puisqu'on parle d'erreur, on peut aussi relever que le journaliste du Monde utilise versatile, anglicisme habituel en informatique : « Versatile, l'application est aussi capable d'écrire une réponse à la professeure de mon fils », ce qui correspond au sens français de polyvalent, qui est la bonne traduction. Cela peut justement prêter à confusion dans le contexte (problème dont on parlait), puisqu'il est question de possibilités d'erreur de ChatGPT (versatile signifie « instable, capricieux... » en français). On imagine qu'un chatbot bien fait corrigerait ce barbarisme et il serait utile de proposer cette rectification dans les correcteurs orthographiques des traitements de texte, pour les journalistes surtout.
Jacques Bolo
|