DNActu • Evénement / Colloque
➡️ “Colloque Implications philosophiques de l’IA”
27/05/25
ℹ️ un colloque sur les implications philosophiques de l’intelligence artificielle organisé par la chaire de métaphysique et philosophie de la connaissance du Pr. Claudine Tiercelin se déroulera au Collège de France les mardi 27 et mercredi 28 mai 2025.
Résumés : colloque implications philosophiques de l’IA
Cyrille Imbert (Archives Henri Poincaré / CNRS) : Fiabilité, fiabilisme, et problème de la généralité : perspective à partir de l’IA et des machines épistémiques
Résumé : Les IAs sont de plus en plus impliquées dans les processus de traitement de l’information à partir desquels nous élaborons nos croyances. Dans ces conditions, il est légitime de se demander dans quelles circonstances il est légitime de considérer que de tels processus sont fiables et donc que nous sommes justifiés à entretenir nos croyances – c’est typiquement en clarifiant cette question qu’on peut espérer décrire ce que constitue un usage ou une mise à disposition responsable d’une IA.
Cette question est déjà abondamment étudiée dans le cadre du courant fiabiliste en épistémologie. Un des problèmes principaux rencontrés dans ce contexte est le problème dit de la généralité : pour étudier la fiabilité d’un processus particulier qui produit des croyances, on doit lui assigner un type donné. Par exemple, un processus particulier peut être décrit comme mettant en jeu la vision d’un animal, celle d’un homme, celle d’un homme de 60 ans, celle d’un homme de 60 ans le soir, etc., et il convient donc de se demander quel type doit être choisi pour caractériser la fiabilité du processus. Cette présentation sera consacrée à la discussion de cette question dans le cas où des IAs et, plus généralement, des machines épistémiques comme les simulations numériques, sont utilisées dans un processus.
Artūrs Logins (université Laval) : L’IA explicable et la philosophie des raisons
Résumé : Il s’agira de réfléchir à l’opacité des modèles d’IA et à la manière dont les approches dites « explicables » (XAI), souvent post-hoc, pourraient être améliorées en déplaçant l’attention de l’explication causale vers l’explication par des raisons.
Giovanni Tuzet (Université Bocconi, Milan) : IA et témoignage
Résumé : Après avoir présenté ce que j’appelle le cadre des « limites de la raison » et situé l’IA au-delà de la limite supérieure de la raison humaine, j’examinerai si les sorties verbales des systèmes d’IA peuvent être considérées comme une forme de témoignage et si cela oblige à une révision de notre concept de témoignage comme source de connaissance.
Éloïse Boisseau (Aix Marseille Université) : Experts de papier, de carbone et de silicium : déférence et technologies épistémiques aux temps du tout-IA.
Résumé : Les questions épistémologiques classiques gravitant autour des notions de confiance, de dépendance et d’expertise dans l’acquisition de connaissances prennent aujourd’hui une nouvelle tournure avec l’émergence de ce que l’on appelle parfois des « technologies épistémiques » (Alvarado, 2023), soit des systèmes artificiels hautement performants et présentés sans scrupule comme étant capables de « prendre des décisions », « faire des prédictions », « émettre des diagnostics », « catégoriser », etc. La question des liens de dépendance, de délégation et de déférence, naguère limitée aux experts humains, semble désormais s’étendre aux systèmes artificiels, lesquels font alors office d’agents épistémiques à part entière. Comment appréhender ce rapport inédit de l’humain à la machine en contexte épistémique ? L’article récent de Stéphane Chauvier « IA : le test de la déférence » (2023) me servira de tremplin pour aborder la question du statut épistémique de tels systèmes artificiels.
Daniel Andler (Sorbonne Université/ENS) : Discuter avec un LLM ?
Résumé : Les grands modèles de langage (LLM) semblent capables de soutenir une discussion sur toutes sortes de sujets. Devant ce constat, trois réactions sont possibles. On peut attribuer aux LLM une forme d’intelligence, qui inclut une certaine compréhension du contenu de la discussion. On peut leur dénier toute intelligence et toute compréhension. On peut enfin interroger l’usage du terme « discussion » pour désigner le processus en question. Cette dernière voie sera explorée : qu’est-ce qu’une discussion entre interlocuteurs humains, et à quels changements conduit le remplacement de l’un des interlocuteurs par un LLM ?
Denis Bonnay (Université Paris Nanterre) : Faut-il réfléchir avant de parler ? ou les implications philosophiques du Chain of Thought
Résumé : Les derniers progrès en date de l’IA générative reposent sur une technique appelée « Chain of Thought » (CoT), qui consiste à faire en sorte que la machine « réfléchisse » avant de répondre. Il s’agit initialement d’une stratégie utilisée dans les requêtes adressées aux Large Language Models (LLM) classiques, stratégie consistant à demander dans la requête le raisonnement conduisant au résultat avant le résultat lui-même, plutôt que directement et uniquement le résultat (Wei 2023). Cette façon de faire a ensuite été internalisée, avec des LLMs intégrant nativement le CoT tels que les modèles o1 ou o3 d’openAI ou r1 de DeepSeek.
Le CoT représente une avancée technologique importante, avec une amélioration significative des performances pour les tâches complexes. Au-delà, je voudrais interroger dans cet exposé la signification de cette technologie pour les débats philosophiques concernant la nature des compétences des modèles d’IA générative, débats qui opposent ceux qui pensent que ces modèles possèdent en propre des compétences cognitives et ceux qui considèrent qu’ils ne font que simuler de telles compétences. Plus précisément, je soutiendrai que ces débats doivent être tranchés sur la base d’une analyse fonctionnelle des LLMs et que l’analyse fonctionnelle des LLMs intégrant nativement le CoT donne de nouveaux arguments contre la thèse simulationniste
Alexandre Gefen (CNRS / Université Sorbonne Nouvelle / ENS) : Les enjeux philosophiques de l’art augmenté
Résumé : Que change l’IA à l’esthétique ? Cette communication s’intéressera aux conséquences des pratiques artistiques augmentées par l’IA sur notre rapport à l’art et sur sa philosophie, en les replaçant dans l’histoire de l’art moderne et de ses débats. Elle s’interrogera également sur la manière dont l’art nous aide à penser les enjeux éthiques de l’IA, ses biais, ses limites, tout en nous permettant de réfléchir à nos relations aux machines et aux agents artificiels.
Pascal Ludwig et Hélie Bazin de Jessey (Paris Sorbonne Université) : L’interprétation des IA connexionnistes
Résumé : Les productions, notamment linguistiques, de certaines intelligences artificielles se rapprochent de plus en plus des productions humaines. Dans ce contexte, il semble souvent pertinent d’attribuer des états intentionnels à ces programmes. Néanmoins, une telle attribution d’intentionnalité soulève des difficultés pour les IA connexionnistes. S’il est en effet facile d’identifier les représentations servant de véhicules aux processus computationnels des IA classiques, cette tâche est bien plus ardue pour les réseaux de neurones : on considère en effet que l’information est représentée par ces programmes comme des patterns d’activations, d’une manière distribuée et non de façon locale. Dans notre présentation, nous discuterons deux questions principales : d’une part la façon dont les véhicules représentationnels peuvent être identités dans les réseaux de neurones ; et d’autre part, le type de contenu informationnel qu’on peut attribuer à ces véhicules. Cela nous conduira à aborder le débat récent sur les états intentionnels putatifs des « Large language Models ».
Jim Gabaret (Paris Sorbonne Université) : L’art des IA et le critère de l’intentionnalité
Résumé : Les IA génératives proposent aujourd’hui des productions textuelles, musicales ou picturales de teneur « artistique », dont les internautes comme les artistes professionnels font usage. Mais au-delà du nouvel outil qui s’offre ici, avec ses avantages, ses biais et ses risques, y a-t-il un ajout artistique de la part de l’IA elle-même ? Le sceptique résiste en général à l’idée d’une IA artiste en invoquant le manque d’intentionnalité créatrice de ces algorithmes désincarnés et sans lien référentiel au monde. Mais la nécessité de l’intentionnalité pour qualifier un objet d’artistique s’interroge, autant que l’absence d’intentionnalité des IA génératives. Nous proposons d’interpréter les modèles donnés en apprentissage, le processus de prompting et le maillage culturel dans lequel celles-ci s’insèrent comme autant d’« intentionnalités médiées » ou « dialogiques ». En émergent non seulement un sens référentiel, mais une valeur artistique véritable, aux effets esthétiques nouveaux.
Philippe Huneman : Profiler et générer : l’empire des statistiques.
Résumé : Partant de l’idée qu’un glissement épistémologique depuis l’identification des causes vers des espaces de données massives saturées de corrélations fortes caractérise aussi bien la plupart des algorithmes enserrent notre vie – tels que les algorithmes de recommandation -, que l’intelligence artificielle générative telle que les LLM l’illustrent, cet exposé proposera quelques concepts susceptibles de dessiner un cadre pour rendre intelligible les nouvelles configurations épistémiques et politiques ouvertes par l’IA.
Je partirai du concept de profil (défendu dans Les sociétés du profilage, Payot 2013) comme point dans un hyperespace de données, puis j’exposerai la notion connexe de classement (ranking probabiliste), et celle de ‘score’ qui en découle et inonde nos existences (score de crédit, crédit social, score polygénique de risque, score d’allocataires, etc.)..
Considérant ensuite les conséquences ontologiques du profilage, je défendrai la pertinence des notions de boucle et de miscibilité. J’en montrerai la pertinence sur les questions des images générées, et des biais algorithmiques.
Océane Fiant (Université Côte d’Azur) : Interroger l’explicabilité des systèmes d’IA : étude de la conception d’une IA médicale intelligible
Résumé : L’explicabilité des intelligences artificielles (IA) est souvent présentée comme essentielle pour l’adoption de ces systèmes par les médecins. Toutefois, son approche habituelle présente deux limites : d’une part, l’absence d’ancrage dans des situations professionnelles concrètes, entraînant un décalage entre les solutions proposées et les attentes des utilisateurs, et d’autre part, une focalisation excessive sur le fonctionnement des IA, au détriment d’autres aspects de leur conception pouvant également induire un défaut d’intelligibilité des résultats. Cet exposé présentera un projet d’IA en anatomie et cytologie pathologiques, une spécialité médicale centrale dans la prise en charge des cancers, qui propose une perspective inédite sur l’intelligibilité des IA, mettant l’accent sur la construction de leur « vérité de terrain ». L’examen de la stratégie mise en œuvre par ce projet plaide alors en faveur d’une approche contextuelle de l’intelligibilité des IA, permettant de développer des solutions réellement alignées sur les attentes des professionnels de santé.
Pierre Saint-Germier : L’expressivité musicale profonde
Résumé : Les applications récente d’IA générative musicale peuvent désormais générer des morceaux de différents genres musicaux avec des niveaux d’expressivité inattendus. Une critique ancienne et courante de la musique générée par algorithme découle de son incapacité supposée à exprimer les émotions humaines. La mesure dans laquelle l’expressivité des morceaux générés par des modèles génératifs profonds approche celle des performances enregistrées par des humains reste une question empirique délicate. En supposant qu’un certain niveau d’expressivité (même s’il n’est pas toujours profond ou nuancé) soit atteint par les modèles génératifs récents, il est intéressant d’examiner ce qui reste de l’objection d’inexpressivité. Une version courante de cette objection est que les apparences superficielles d’expressivité musicale dans la production des modèles génératifs ne suffisent pas à montrer une véritable expressivité musicale. Ma communication explore différentes façons d’articuler et d’évaluer cet argument à la lumière des faits concernant les modèles génératifs profonds et les théories philosophiques contemporaines de l’expressivité musicale. Je soutiens que les théories philosophiques les plus influentes de l’expressivité musicale conduisent au point de vue selon lequel la musique générée par l’IA fait preuve d’une expressivité véritable. Une autre leçon que je propose de tirer des exemples récents d’expressivité musicale artificielle est que l’importance de l’expressivité en tant que telle pour la valeur de la musique a peut-être été exagérée, par opposition à la mise en œuvre de l’expressivité musicale dans le cadre d’un projet compositionnel ou interprétatif.
Carina Prunkl (université d’Utrecht) : L’IA en tant que bureaucratie
Résumé : Le processus décisionnel piloté par l’IA est souvent évalué à l’aune du jugement humain individuel – les algorithmes sont-ils plus rapides, plus justes ou moins biaisés que les humains ? Dans cet exposé, je remets en question ce cadre, en soutenant que la classe de comparaison la plus appropriée pour la prise de décision pilotée par l’IA n’est pas le jugement humain individuel, mais la prise de décision bureaucratique. Comme les systèmes bureaucratiques, la prise de décision par l’IA dépend de la quantification, de la standardisation, de l’autorité dépersonnalisée et des tâches spécialisées. Elle ne supprime pas entièrement le pouvoir discrétionnaire de l’homme, mais le répartit tout au long du processus, depuis la sélection des données et la conception du modèle jusqu’à la mise en œuvre et la supervision. Les bureaucraties et l’IA visent toutes deux la cohérence et l’impartialité, mais elles sont également critiquées pour leur opacité, leur rigidité et leur insensibilité au contexte. Dans cet exposé, je montrerai comment le fait de passer d’un cadre humain contre machine à un cadre algorithme contre bureaucratie ouvre des voies nouvelles et plus productives pour réfléchir à la responsabilité, au pouvoir discrétionnaire et à la légitimité dans les systèmes d’IA