Browse By

Intelligence artificielle: comment savez-vous qu’un humain a écrit cela?

OPN_190410-rédaction-d'un-e-mail-1554899113986
Crédit d’image: Getty Images / iStockphoto

Je ne me suis jamais vraiment inquiété que les ordinateurs ne soient pour mon travail. Pour dire la vérité, souvent, je prie pour cela. À quel point ma vie serait-elle meilleure – à quel point la vie serait-elle meilleure, sans parler des pauvres lecteurs – si je pouvais demander à une machine omnisciente de suggérer la meilleure façon de commencer cette chronique? Cela battrait sûrement mon processus d’écriture habituel, qui consiste à griffer mon cerveau avec une pioche rouillée dans le faible espoir que quelques flocons de sagesse et de perspicacité pourraient, comme des pellicules, se déposer sur la page.

Tu vois ce que je veux dire? Un ordinateur aurait pu y aider. (Comme? C’est ce avec quoi tu vas, Farhad?) Mais nous, les écrivains, pouvons être un groupe arrogant. L’écriture est une sorte d’astuce inexplicable, et cela ressemble, comme raconter une blague ou faire un souffle, à une entreprise inviolablement humaine.

Je n’ai jamais vraiment craint qu’un ordinateur ne prenne mon travail, car cela n’a jamais semblé possible à distance. Il n’est pas rare que mon téléphone pense que je voulais écrire le mot «esquiver». Un ordinateur écrivant une chronique de journal? Ce sera le jour.

Eh bien, amis écrivains, le jour est proche. Le mois dernier, OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco, a commencé à autoriser un accès limité à un logiciel qui est à la fois incroyable, effrayant, humiliant et plus qu’un peu terrifiant.

Le nouveau logiciel d’OpenAI, appelé GPT-3, est de loin le «modèle de langage» le plus puissant jamais créé. Un modèle de langage est un système d’intelligence artificielle qui a été formé sur un énorme corpus de texte; avec suffisamment de texte et suffisamment de traitement, la machine commence à apprendre les connexions probabilistes entre les mots. Plus simplement: GPT-3 peut lire et écrire. Et pas mal non plus.

Un logiciel comme GPT-3 soulève la perspective d’une utilisation abusive effrayante. Si les ordinateurs peuvent produire de grandes quantités de texte semblable à l’homme, comment pourrons-nous jamais distinguer les humains et les machines?

Un logiciel comme GPT-3 pourrait être extrêmement utile. Des machines capables de comprendre et de répondre aux humains dans notre propre langue pourraient créer des assistants numériques plus utiles, des personnages de jeux vidéo plus réalistes ou des enseignants virtuels personnalisés selon le style d’apprentissage de chaque élève. Au lieu d’écrire du code, vous pourriez un jour créer un logiciel simplement en disant aux machines ce qu’elles doivent faire.

OpenAI a donné à quelques centaines de développeurs de logiciels l’accès à GPT-3, et beaucoup ont rempli Twitter au cours des dernières semaines avec des démonstrations de ses capacités surprenantes, qui vont du banal au sublime au peut-être assez dangereux.

Pour apprécier le danger potentiel, il est utile de comprendre le fonctionnement de GPT-3. Les modèles linguistiques doivent souvent être formés pour des utilisations spécifiques – un robot de service client utilisé par un détaillant peut avoir besoin d’être affiné avec des données sur les produits, tandis qu’un robot utilisé par une compagnie aérienne aurait besoin de se renseigner sur les vols. Mais GPT-3 n’a pas besoin de beaucoup de formation supplémentaire. Donnez à GPT-3 une invite en langage naturel – « Je démissionne de Dunder-Mifflin » ou « Cher John, je vous quitte » – et le logiciel remplira le reste avec un texte étrangement proche de ce qu’un humain ferait produire.

Prose originale, cohérente et factuelle de la machine

Ce ne sont pas des réponses standardisées. GPT-3 est capable de générer une prose entièrement originale, cohérente et parfois même factuelle. Et pas seulement de la prose – il peut écrire de la poésie, des dialogues, des mèmes, du code informatique et qui sait quoi d’autre.

La flexibilité de GPT-3 est une avancée majeure. Matt Shumer, le PDG d’une société appelée OthersideAI, utilise GPT-3 pour créer un service qui répond aux e-mails en votre nom – vous écrivez l’essentiel de ce que vous aimeriez dire, et l’ordinateur crée une image complète et nuancée. , email poli hors de vos puces.

Une autre société, Latitude, utilise GPT-3 pour créer des personnages réalistes et interactifs dans des jeux d’aventure textuels. Cela fonctionne étonnamment bien – le logiciel est non seulement cohérent, mais peut également être assez inventif, absurde et même amusant.

Stew Fortier, un écrivain, a créé une satire loufoque en utilisant le logiciel comme une sorte de muse.

Fortier a lancé à GPT-3 une étrange invite: «Voici une transcription d’une interview où Barack Obama expliquait pourquoi il avait été banni de Golden Corral à vie.» Le système a ensuite rempli le reste de l’interview, fonctionnant avec le concept qu’Obama avait été banni d’un buffet à volonté.

Obama: Oui. C’est vrai. Je ne suis plus autorisé à Golden Corral.

Interviewer: Est-ce à cause de votre vaste politique sur les crevettes et les pattes de crabe?

Interviewer: Quelle est votre politique générale sur les crevettes et les pattes de crabe?

Obama: Oh, eh bien, en bref, ils offraient un buffet de pattes de crevettes et de crabe à volonté, et je n’ai pas hésité. Après avoir mangé tellement de crevettes et de crabe que mon estomac me faisait mal, je me faufilais tranquillement et jetais plus de crevettes et de crabe dans mon assiette. Je l’ai fait encore et encore jusqu’à ce que j’aie nettoyé le buffet et qu’il soit plein de crevettes-n-crabe.

Pourtant, des logiciels comme GPT-3 soulèvent la perspective d’une utilisation abusive effrayante. Si les ordinateurs peuvent produire de grandes quantités de texte semblable à l’homme, comment pourrons-nous jamais distinguer les humains et les machines? Dans un document de recherche détaillant le pouvoir de GPT-3, ses créateurs citent une litanie de dangers, notamment «la désinformation, le spam, le phishing, l’abus de processus juridiques et gouvernementaux, la rédaction d’essais universitaires frauduleux et le prétexte d’ingénierie sociale».

Précautions contre les biais

Il y a d’autres problèmes. Comme il a été formé sur du texte trouvé en ligne, il est probable que GPT-3 reflète de nombreux préjugés constatés dans la société. Comment pouvons-nous nous assurer que le texte qu’il produit n’est ni raciste ni sexiste? GPT-3 n’est pas non plus bon pour distinguer les faits de la fiction. «Je lui ai donné mes trois phrases originales sur les baleines, et il a ajouté un texte original – et la façon dont je pouvais dire que c’était original, c’est que c’était complètement faux», m’a dit Janelle Shane, qui dirige un blog intitulé AI Weirdness. .

À son honneur, OpenAI a mis en place de nombreuses précautions. Pour l’instant, la société ne laisse qu’un petit nombre de personnes utiliser le système et vérifie chaque application produite avec lui. La société interdit également à GPT-3 d’usurper l’identité d’humains – c’est-à-dire que tout texte produit par le logiciel doit indiquer qu’il a été écrit par un robot. OpenAI a également invité des chercheurs extérieurs à étudier les biais du système, dans l’espoir de les atténuer.

Ces précautions peuvent suffire pour l’instant. Mais GPT-3 est si efficace pour reproduire l’écriture humaine que cela m’a parfois donné des frissons. Dans peu de temps, votre humble correspondant pourrait être mis au pâturage par une machine – et vous pourriez même me manquer quand je serai parti.

– Farhad Manjoo est un chroniqueur et auteur américain renommé