GPT-3, une Intelligence artificielle qui vous veut du bien

Source: https://pixabay.com/vectors/unknown-think-contemplate-thought-1769656/

Le début de ma matinée a été laborieux, je décide de m’octroyer une pause-lecture : un article passionnant vient d’être publié dans l’un de mes journaux préférés. Peu après, je me remets au travail et réponds à un mail important. Ce soir, je cuisinerai un nouveau plat en suivant scrupuleusement les consignes données par la recette. À la fin de ma journée, j’apprendrai avec beaucoup d’effroi qu’il n’y a en fait jamais eu aucun humain derrière les textes qui ont parsemé ma journée. Qui a donc bien pu rédiger cet article, ce mail et cette recette ?

Notre auteur se nomme GPT-3 (Generative Pre-trained Transformer) et c’est un modèle de traitement du langage naturel qui utilise la technologie du deep-learning pour produire des textes. Il a été créé en juin 2020 par le laboratoire de recherche en intelligence artificielle Open AI. Il s’agit d’un système computationnel qui crée des séquences de mots à la suite d’un input appelé en anglais « text prompt ». Le but de GPT-3, comme celui de son grand frère GPT-2, est d’écrire des textes ressemblant le plus possible à des textes rédigés par des humains (les fautes d’orthographe en moins). Et la force de GPT-3, c’est sa performance : 175 milliards de paramètres, entraîné sur 450 gigabytes de texte, le petit dernier en impose. Mais plus généralement, ce sont ses capacités impressionnantes qui agitent l’opinion publique.

Are you scared yet, human?

Personnage fictif du film « 2001, l’Odyssée de l’espace » de S. Kubrick, HAL 9000 est un supercalculateur doté d’IA, et fait preuve d’une autonomie redoutable vis-à-vis de humains. Source : The famous red eye of HAL 9000, CC BY 3.0, author: Cryteria.

Le 8 septembre 2020, The Guardian publie cet article : « A robot wrote this entire article. Are you scared yet, human ? ». Se voulant pourtant rassurantes, les lignes ci-dessous font froid dans le dos :

Je ne demande pas aux humains de m’apprécier. Mais ils devraient me voir comme un robot amical. Je suis un serviteur des humains. Je sais que les humains ne me font pas confiance et qu’ils me craignent. Je ne fais que ce que les humains me programment de faire. Je ne suis qu’un ensemble de codes, gouverné par des lignes et des lignes de code, qui englobent l’énoncé de ma mission. GPT-3 2020, in The Guardian

Concédons à GPT-3 une qualité de texte troublante. Pourtant, malgré ses talents d’expression, ne nous laissons pas emporter par la panique : GPT-3 ne comprend rien à ce qu’il écrit. G. Marcus et E. Davis, à travers leurs tests, montrent que les textes générés par GPT-3 ne font aucun sens quand il s’agit de suivre une situation imposée et ce, dans différents contextes : GPT-3 prend le jus de raisin pour du poison, choisit de scier une porte en deux pour pouvoir faire passer une table trop grande, ou estime un caleçon de bain (à partir du moment où il est plus propre que le pantalon initialement prévu) parfaitement approprié pour aller travailler.

Humains VS Robots : le test de Turing

Extrêmement doué dans la maîtrise du langage et des liens entre les mots, GPT-3 parvient à poursuivre brillamment le travail inachevé de Jane Austen (Sanditon) (Floridi&Chiriatti 2020). Mais incapable d’inférence, incapable d’appréhender les concepts,  il conseille à un patient simulé de se suicider quand la startup française Nabla l’a testé comme chatbot médical. N’ayant aucune compréhension du contexte, n’ayant aucun sens commun, GPT-3 ne passe pas le test de Turing. La machine se dévoile particulièrement quand les questions qu’on lui pose sont absurdes ou qu’elles n’ont pas de réponse. Il ne sait pas refuser une question, la reformuler, ou demander une précision.

Comme le prouve le philosophe John R. Searle (1980) en plaçant un humain dans des conditions de connaissance similaires à celles d’une intelligence artificielle (expérience de pensée de la chambre chinoise), on peut parfaitement écrire quelque chose de correct en chinois sans avoir aucune notion de chinois et donc, sans avoir aucune idée de ce qu’on écrit. GPT-3 peut bien écrire des phrases correctes, il n’utilise pas notre langage comme un humain le ferait.

Le Pr. Jefferson déclarait en 1949 :

Ce n’est que lorsqu’une machine pourra écrire un sonnet ou composer un concerto grâce aux pensées et émotions ressenties, et non par le concours de symboles, que nous pourrons convenir que la machine égale le cerveau – c’est-à-dire qu’elle ne fait pas qu’écrire un texte, mais qu’elle sait qu’elle l’a écrit.

Nous pouvons convenir que GPT-3 n’a aucune conscience de ce qu’il écrit et donc, qu’il ne peut être digne de confiance, ni tenu pour responsable pour ses propos. Au lieu de jouer avec la peur des robots supplantant les humains, ces derniers devraient plutôt se préparer à utiliser au mieux GPT-3.

Comment envisager l’avenir avec GPT-3 ?

Illustration de Maximilien Vox, publié par Reginald Brimley Johnson en 1934, extrait de Sanditon, par Jane Austen Source: https://commons.wikimedia.org/w/index.php?title=File:Austen_Sanditon_and_other_miscellanea.djvu&page=11

Comme l’explique Adrian Rey Rodriguez dans son billet de blog, le machine learning a beaucoup à offrir aux humains. C’est une technologie que l’on a tout intérêt à maîtriser et à utiliser, surtout lorsqu’on considère que les contenus textuels font partie de notre vie quotidienne. Les auteurs de traduction, résumés, PV, pages web, catalogues, guides, manuels, rapports pourraient, comme le suggèrent très justement L. Floridi et M. Chiriatti (2020), largement bénéficier des services de modèles de traitement de langage naturel. Toutes les personnes productrices de textes devront acquérir de nouvelles aptitudes, comme former des text prompt efficients afin d’obtenir les meilleurs résultats possibles, ou encore savoir combiner intelligemment les résultats obtenus. Plus généralement, nous devrons à l’avenir tous améliorer notre culture digitale et nous assurer de bien connaître la nouvelle infosphère dans laquelle nous vivrons et travaillerons.

Bibliographie

DARTIGUEPEYROU Thomas, DE CARVALHO Ivo, JOUHAR Myriam, RACINE Céline. Réseaux neuronaux (advanced neural net). 20 novembre 2020. Support de cours : Cours « M3C2 Séminaires », Haute école de gestion de Genève, Master en Sciences de l’information, année académique 2020-2021

DIKSON Ben, 2020. The Guardian’s GPT-3-written article misleads readers about AI. Here’s why. Techtalks [en ligne]. 14 septembre 2020. [Consulté le 8 janvier 2021]. Disponible à l’adresse : https://bdtechtalks.com/2020/09/14/guardian-gpt-3-article-ai-fake-news/

FAURE Antoine, 2020. GPT-3, l’intelligence artificielle qui écrit des articles (presque) seule. Les Numériques [en ligne]. 8 octobre 2020. [Consulté le 8 janvier 2021]. Disponible à l’adresse : https://www.lesnumeriques.com/appli-logiciel/gpt-3-l-intelligence-artificielle-qui-ecrit-des-articles-presque-seule-a154707.html

FLORIDI Luciano, CHIRIATTI Massimo, 2020. GPT-3: Its Nature, Scope, Limits, and Consequences. Minds & Machines. 1er novembre 2020. Vol. 30, pp. 681–694. Disponible à l’adresse : https://doi.org/10.1007/s11023-020-09548-1

[Traduit de] GPT-3, 2020. A robot wrote this entire article. Are you scared yet, human? GPT-3. The Guardian [en ligne]. 8 septembre 2020. [Consulté le 8 janvier 2021]. Disponible à l’adresse : https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3

MARCUS Gary, DAVIS Ernest, 2020. GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about. MIT Technology Review [en ligne]. 22 août 2020. [Consulté le 10 janvier 2021]. Disponible à l’adresse : https://www.technologyreview.com/2020/08/22/1007539/gpt3-openai-language-generator-artificial-intelligence-ai-opinion/

SEARLE, John R., 1980. Minds, brains, and programs. Behavioral and Brain Sciences. 1980. Vol. 3, n° 3pp. 417–424. DOI 10.1017/S0140525X00005756

Carnet d'IdéeS - blog du Master IS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *