DNActu • Appel à contributions ​ • Revue Intellectica – n° 81 « Philosophies de l’IA : penser et écrire avec les Large Language Models » • 15/01/2024

📢 DNActu • Appel à contributions ​​ / Intellectica – n° 81

➡️ « Philosophies de l’IA : penser et écrire avec les Large Language Models »

📅 Soumission d’article : 15/01/2024

Intellectica est une revue francophone créée par l’ARCo en 1985. Elle est consacrée à la publication de travaux théoriques, épistémologiques et historiques, éclairant les problématiques actuelles, dans le domaine des sciences de la cognition sous la forme de longs articles réflexifs, critiques et/ou prospectifs. Le choix éditorial de la revue est d’exclure les contributions à caractère strictement empirique (toute forme confondue : expérimentation, observation, etc.), ces travaux bénéficiant de la multitude des revues dédiées à ce type de recherche. Le comité de rédaction veille cependant à ce que les travaux réflexifs présentés soient en phase avec l’actualité empirique du domaine et, si nécessaire, qu’ils soient exposés synthétiquement au sein des articles.

De la rédaction d’annonces immobilières à la réponse à des questionnaires d’examen, les usages potentiels extrêmement variés de GPT-3 et de sa déclinaison grand public, ChatPGT, ont frappé aussi bien le grand public que les écrivains et les artistes, ouvrant à un large faisceau de questions d’ordre philosophiques qu’il importe d’examiner par-delà l’effet de fascination initiale. Comment caractériser et décrire le mode d’intelligence d’un LLM ? Quelles sont les limites à ses capacités « cognitives » et quelles perspectives technologiques se dessinent-telles ? Quelles réponses nous apportent de tels outils sur les rapports entre langage et pensée ? Quelle humanité et quelle conscience manquent-elles (encore) à GPT-3, et, en amont, existe-t-il une notion de conscience qui pourrait faire consensus, dont on se demanderait ensuite si tel ou tel système en est pourvu ? Indépendamment même de ses états possiblement mentaux, peut-on attribuer une agentivité au LLM ?
A ces questions épistémologiques ou ontologiques s’ajoutent des interrogations suscitées par l’usage même des LLM, au vu de leurs performances étonnantes. Un champ en croissance, l’éthique de l’IA, s’interroge déjà sur la responsabilité morale et juridique de tels outils : qui répondrait d’usages malveillants d’un LLM (la panique entourant les fake news vient à l’esprit immédiatement) ? Mais en-deçà des interrogations morales légitimes sur notre usage des LLM et de l’IA en général il faut se demander ce que font ces machines elles-mêmes – et les conséquences que leur existence et leur fonctionnement ont sur les concepts par lesquels nous pensons l’activité en général, et en particulier, l’activité dite créatrice. S’il est consensuel d’admettre qu’un humain pourvu d’un outil engage toujours une action humaine, cette intuition se maintient-elle lorsque l’outil est un LLM et produit de lui-même un sonnet ou une nouvelle ? L’action se ramène-telle alors à l’énonciation de ce « prompt » à partir duquel le LLM génère son texte ?
Ainsi, avec les systèmes d’intelligence artificielle dévolus au langage et aux relations du langage avec autre chose (image ou musique), tels que ces LLM, des questions spécifiques s’imposent. Certes, l’histoire de l’écriture s’accompagne d’une histoire d’outils – plumes, stylos, machines à écrire, traitements de texte. La possibilité même d’écrire, le statut de l’écrit, changent avec les innovations scripturaires. Qu’arrive-t-il au sujet de l’écrit dès lors qu’un LLM est en jeu ? S’il est clair que l’écrivain doté d’un correcteur d’orthographe ou de grammaire, éventuellement de style (Grammarly), fait à peu près la même chose qu’un écrivain d’antan ouvrant régulièrement dictionnaire ou Bled, GPT-3 – dont certains usages ressemblent à un wikipedia survitaminé, à un Google sachant écrire – est-il davantage qu’une amélioration incrémentale de ces outils ? Ou bien, l’usage du LLM et de sa manière spécifique de nouer les mots, à partir de distances probabilistes plutôt que d’une sémantique, nous entraine-t-il ailleurs ? Et comment définir cet ailleurs ? Ce numéro spécial s’inscrira dan l’espacé de ces questions neuves.
Autrement dit, plutôt que de demander si oui ou non l’écrivain qui s’aide de GPT, comme le plasticien « assisté » de Dall-E ou Midjourney (et que signifie d’ailleurs « assisté », terme omniprésent dans ce champ lexical ?), sont des « auteurs », ce numéro tentera de réfléchir à ce que tels outils nous disent sur des notions comme l’originalité et l’auctorialité, et comment le droit peut réguler de tels usages. Plutôt que de se demander si un LLM prouve quelque chose, on réfléchira à ce que les essais de preuves par Intelligence artificielle nous disent de ce qu’est une preuve. Et plutôt que de s’alarmer de machines qui penseraient quelque chose, on se demandera, à supposer qu’elles veuillent dire quelque chose, ce que ce vouloir-dire peut nous dire de la signification et du langage en général.

Ce numéro spécial rassemblera sur cette problématique des philosophes, spécialistes des sciences cognitives, juristes, linguistes et théoriciens de la littérature.

ℹ️ https://intellectica.org/fr/numeros/philosophies-de-l-ia-penser-et-ecrire-avec-les-llm

About author
Submit your comment

Please enter your name

Your name is required

Please enter a valid email address

An email address is required

Please enter your message

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Partage à l'Identique 2.0 France.
Designed by WPSHOWER
Powered by WordPress
ISSN : 2647-8447