Le séminaire Les concepts de l’éthique algorithmique reprend du service pour une deuxième saison.
Ce séminaire est organisé par la chaire Éthique & IA (Institut de Philosophie de Grenoble, Institut MIAI, Université Grenoble-Alpes).
Il se veut être un lieu de partage et d’exploration autour de travaux portant sur la définition et l’approfondissement des concepts et notions de l’éthique de l’intelligence artificielle, de l’algorithmie, et plus largement des sciences computationnelles.
Nous vous convions à sa première séance annuelle lors de laquelle nous avons le plaisir de recevoir :
Giada Pistilli – Doctorante en philosophie à la Sorbonne-Université, affiliée CNRS, laboratoire « Sciences, Normes, Démocratie »
General AI vs Narrow AI : enjeux éthiques
Le cas des modèles de langage
Lundi 28 novembre 2022 , 14h – 15h30
La séance aura lieu sur place et en visioconférence :
Maison de la Création et de l’Innovation
339, avenue Centrale 38400 Saint-Martin-d’Hères
Salle 204
Lien de la réunion :
https://univ-grenoble-alpes-fr.zoom.us/j/97555800242?pwd=ZFQ0TzlrcjJzR3BGSUNHMWdFMjAxQT09
ID de réunion : 975 5580 0242
Code secret : 175119
Résumé de l’intervention
La tendance technologique actuelle, dans la recherche académique en Machine Learning mais aussi dans la recherche industrielle, est de développer des modèles toujours plus grands (milliards de paramètres, milliards de données dans son jeu de données…). Cette tendance trouve ses racines dans un imaginaire célèbre et répandu : l’envie de pouvoir s’adresser à une IA dite « générale », c’est-à-dire capable de multiples compétences différentes ( General AI ). Cela s’applique aux modèles de génération de sons, de vidéos, d’images et de textes, sans oublier les nouvelles architectures de Machine Learning qui permettent la combinaison de plusieurs modèles différents, appelés modèles multimodaux, qui ouvrent le champ des possibilités à la course à la General AI . Dans cet exposé, nous allons nous focaliser sur les modèles d’IA qui permettent l’interaction entre humains et machines : les modèles de langage. En effet, au cours des dernières cinq années, nous avons remarqué une croissance exponentielle des modèles de langage, qui s’opposent à une contre-tendance dans le milieu de la recherche académique et industrielle qui vise à développer des modèles dits « distillés » ou de Narrow AI . De l’anglais « étroit », ces modèles sont consacrés à des tâches spécifiques et sont entrainés sur une part plus réduite de données, avec des applications précises envisagées au moment du développement (ex. DistilBERT, générateur de code, résumés de textes…). Dans ce scénario, qu’est-ce que l’éthique peut apporter au débat autour des deux tendances opposées de développement d’Intelligence Artificielle ? Comment peut-on évaluer moralement des modèles à des multiples capacités ( General AI ), développés sans une application et un objectif concrets ? Quid de la dignité et moralité des humains impliqués dans le développent de ces modèles d’IA, mais aussi ceux affectés et évalués par ces derniers ? Enfin, dans une perspective éthique, quelle tendance choisir entre les deux, et pour quelles raisons ? Nous allons introduire rapidement le sujet de l’IA conversationnelle et des modèles de langage, pour ensuite appuyer le débat sur deux cas d’études, un pour chaque tendance, pour illustrer nos hypothèses et dérouler nos arguments.
Cette séance est co-organisée par Thierry Ménissier et Louis Devillaine avec l’assistance de Valérie Perret.
Pour plus d’informations, vous pouvez consulter le site de la chaire. Il est également possible d’y retrouver, sur demande, les vidéos des précédentes séances. Enfin, si vous avez la moindre question, sentez-vous libre d’envoyer un mail à louis.devillaine@univ-grenoble-alpes.fr.
Calendrier des prochaines séances :
12/12/2022 : Éric Pardoux – Quand l’IA fait système (?)
09/01/2023 : Ambre Davat – Biais, un concept technosolutionniste ?