DNActu • Appel | Numéro • AIntelligences » – Socio-anthropologie n°52 • 01/12/24

Appel | Numéro

AIntelligences » – Socio-anthropologie n°52
01/12/24

ℹ️ https://journals.openedition.org/socio-anthropologie/17680

 

Coordinateurs

Olivia Chevalier, docteure en philosophie des sciences, chargée de recherche à l’Institut-Mines-Telecom-BS

Jean-Sébastien Vayre, maître de conférence en sociologie,Université Côte d’Azur, GREDEG UMR – 7321

Argumentaire

À rebours des discours ambiants qui mettent souvent en avant le caractère uniforme des IA, ce numéro de la revue Socio-anthropologie vise à comprendre comment, au cours de son histoire, l’intelligence artificielle questionne et définit l’intelligence, mais aussi comment elle participe, plus ou moins directement, à l’institution de diverses formes d’intelligence dont les externalités sont plus ou moins positives du point de vue de nos activités de formation, de travail ou encore de loisir.

Dans ce numéro, nous tiendrons compte des trois acceptions du concept d’IA. Suivant Andler (2023), nous distinguerons l’IA comme (i) discipline (l’« IA »), (ii) comme objets produits par l’IA (les systèmes d’intelligences artificielles, SAI) et (iii) l’objet visé (une intelligence de type artificielle). Les contributions attendues devront se focaliser sur une ou plusieurs de ces acceptions étant donné que chacune d’entre elles implique des difficultés particulières qu’il faudra préciser.

L’IA apparaît approximativement au 2e quart du XXe siècle, avec la notion d’ordinateur, qui implique celles de computation, de calcul, avec des moyens électroniques. De ce fait, la relation entre IA et intelligence repose et prolonge une question très ancienne : celle de savoir si « penser, c’est calculer » (uniquement). C’est pourquoi, l’histoire de l’intelligence artificielle (cf. Crevier, 1997 ; Rose, 1986) montre que les chercheurs de cette discipline se sont souvent nourris de cette multiplicité, tel Norbert Wiener (1948) et sa conception cybernéticienne de l’intelligence. Au cours de son développement, l’intelligence artificielle s’est en effet structurée autour de deux grands paradigmes : le paradigme symbolique et le paradigme connexionniste (devenu néo-connexionniste) et qui se subdivisent en une grande diversité d’approches. Ces approches ont une histoire ancienne comme le montre par exemple la perspective symbolique, aussi dites computo-représentationnelle, qui a prédominé jusqu’aux années 1980. La philosophie au fondement de l’IA (comme discipline) semble ainsi reformuler la thèse qui soutient que l’intelligence humaine, en tant que faculté de raisonnement, est de nature « calculatoire ». Elle prolonge une longue tradition philosophique regroupant des auteurs d’« écoles » très différentes (cf. Pratt, 1995). Dans un cadre matérialiste, Thomas Hobbes (1650) déclare dans le De corpore (1,2) : « By ratiocination, I mean computation ». Dans le cadre rationaliste de Gottfried W. Leibniz (1684) lequel va plus loin en introduisant le symbolisme et une méthode de type algorithmique, l’intelligence est alors combinatoire et s’exprime idéalement dans une « caractéristique universelle ». George Boole (1854) poursuit ce travail en créant une algèbre binaire, et Turing fournira le modèle de la machine « pensante » qu’est l’ordinateur. L’IA et ses productions seraient-ils la confirmation de ces thèses ?

Il s’agira d’aborder cette question sous un angle pluridisciplinaire. Le cœur du numéro portera sur les implications sociologiques et anthropologiques, mais aussi, épistémologiques, des IA. Ce qui présuppose de considérer les fondements techniques qui sont à la base des modèles d’IA, en mettant notamment en lumière la variété des modes d’intelligences auxquels ils se rattachent.

Au milieu des années soixante-dix, Seymour Papert (cité par Folgoas, 1976) un des pionniers de l’IA, remarquait plusieurs choses. Premièrement, que l’intelligence artificielle est une science d’un type particulier dans la mesure où elle vise moins à produire des programmes informatiques destinés à intégrer le marché des innovations numériques qu’à développer une nouvelle théorie de la connaissance. Deuxièmement, il mettait en avant le fait que la notion d’intelligence artificielle, aussi mal choisie qu’elle puisse paraître aux yeux de certains fondateurs de cette discipline (e.g., Newell et Simon, 1972) a le mérite de souligner le caractère « construit » de l’intelligence et, par voie de conséquence, de questionner la conception que nous avons de l’intelligence.

Du point de vue de la littérature, la notion d’intelligence suscite de nombreux débats, Cependant, à notre connaissance, il n’existe pas de définition consensuelle, unique et fixée de ce qu’est l’intelligence, même dans le cas particulier de l’intelligence humaine. Il n’en reste pas moins que la grande majorité des travaux (e.g., Proust, 2000, Vauclair, 2017) qui étudient l’intelligence du point de vue de l’ensemble de la variété du vivant montrent que l’intelligence est multiple et qu’il est difficile de hiérarchiser cette multiplicité. Concernant l’IA, Daniel Andler (2023) offre la synthèse la plus récente de comparaison entre intelligences humaine et artificielle tout en insistant sur le fait que l’intelligence est une notion normative et que c’est ce caractère normatif qui la rend particulièrement difficile à définir à partir d’un ensemble de propriétés communes. Cette difficulté explique d’ailleurs, au moins en partie, pourquoi les chercheurs parlent plus volontiers de « cognition ».

Il ne s’agit pas seulement de prendre en compte les transformations induites par l’IA sur nos pratiques (sujet déjà bien documenté). L’objet de ce numéro est de compléter ces approches par une analyse et une compréhension fine des formes d’intelligences que les IA mobilisent, produisent, font disparaître, en insistant sur ce que cela révèle en retour de nos représentations de l’intelligence.

Ce numéro propose ainsi aux chercheurs en sciences humaines, sociales et en sciences informatiques de revenir sur un problème de fond qui est à l’origine même de l’intelligence artificielle, c’est-à-dire de questionner la manière dont cette discipline – par le biais des chercheurs et des professionnels qui l’animent, mais aussi par celui des connaissances et des technologies qu’elle produit (des IA) – contribue à faire exister la frontière entre ce qui est ou non intelligent. Comment l’intelligence artificielle participe-t-elle à définir ce qu’est l’intelligence ? Quelles sont les formes d’intelligence qu’encapsulent les modèles d’intelligence artificielle ? Comment ces types d’intelligences algorithmiques interagissent-ils avec les intelligences plus ou moins collectives que nous développons durant nos activités de formation, de travail, ou encore de loisir ? Et comment impactent-ils notre « intelligence » individuelle (que dire par exemple de l’effet qu’ont les modèles génératifs, par exemple, sur la manière de la mobiliser – ou pas) ? Quelles sont les formes d’intelligence individuelle et collective que mettent en œuvre les chercheurs et les professionnels qui conçoivent les modèles d’intelligence artificielle ?

Ce numéro sera plus exactement structuré autour de trois grands axes de recherche qui renvoient, pour chacun d’entre eux, à des questionnements différents. Quels sont les « modèles » d’intelligence visés et produits par l’IA ? (Axe 1). Ces « modèles » nous disent-ils quelque chose de la façon nous envisageons l’intelligence, de nos imaginaires à son sujet ? De quelles façons l’IA (et ces IA) impactent-elles la mobilisation de notre intelligence dans nos pratiques ? En révèlent-elles de nouvelles formes ? (Axe 2). Quelles sont les types intelligences mises en œuvre par les chercheurs, producteurs d’IA, ceux des petites mains de la labélisation des données ou usagers d’internet, ou encore des chercheurs ? (Axe 3).

Les contributions s’inscriront dans un des trois axes suivants.

Axe 1. L’intelligence des modèles d’IA

D’une manière générale, l’intelligence artificielle s’est fondée sur deux grandes façons de représenter matériellement le fonctionnement de l’intelligence (Cardon, Cointet et Mazières, 2018 ; Olazaran, 1996). La première repose sur le modèle de l’ordinateur (cf. le EDVAC de John von Neumann, 1945), et a donné lieu à la conception de plusieurs programmes d’intelligence artificielle visant à représenter l’intelligence de l’expert (cf. le General Problem Solver ; Simon et Newell, 1959 ; le système expert Dendral ; Lindsay et al., 1993). La deuxième repose sur le modèle du perceptron (McCulloch et Pitts, 1943) et a donné lieu à la conception de programmes informatiques visant à représenter l’intelligence de l’enfant (cf. les réseaux neuronaux ; Hinton et Sejnowski, 1999). Mais il existe en réalité une très grande diversité de modèles d’intelligence artificielle qui ont été développés au cours du temps. Certains chercheurs comme Le Cun et Wilensky, ont par exemple travaillé à développer des programmes informatiques visant à encapsuler l’intelligence sociale que recouvre le sens commun (Le Cun, 2019 ; Wilensky, 1983), ou encore celle qui est en jeu dans la conduite des relations publiques (Brent et al., 1989). En outre, plusieurs chercheurs en sciences sociales (e.g., Gras, 1994 ; Dreyfus, 1972 ; Dubey, 2001 ; Searle, 1984) ont depuis longtemps travaillé à critiquer le caractère réaliste des modèles d’IA et des simulations qu’ils permettent de développer. Dans la continuité des travaux de Wolfe (1991) qui montrent les limites des modèles de l’ordinateur et du perceptron au regard de la théorie de l’esprit de Mead, ou encore, de ceux de Williams et de ses collègues (2022) qui défendent la pertinence de cette théorie pour développer une intelligence artificielle sociale, les contributions visant à intégrer ce premier axe doivent se donner pour objectif de saisir l’altérité des intelligences artificielles (Cristianini, 2023) mais aussi de souligner leurs limites des points de vue sociologique et anthropologique.

Axe 2. L’impact des technologies d’IA sur la redéfinition des métiers.

Les modèles d’intelligence que conçoivent les chercheurs et les professionnels en intelligence artificielle, une fois encapsulés dans des programmes informatiques qui sont concrètement utilisés, sont dotés d’une agentivité (Pickering, 1993). Ces programmes sont en effet porteurs de scenarii d’usages qui sont autant de prescriptions d’action (Akrich, 1989 ; Freyssenet, 1990). Ces prescriptions d’action, qui peuvent évidemment être détournées, participent à structurer les formes d’intelligence pratique que mettent en œuvre leurs utilisateurs pour effectuer leurs activités de formation, de travail, ou encore, de loisir. Par exemple dans le cas des mathématiques, les programmes informatiques de type symbolique ont l’avantage de donner des méta explications sur les procédures qu’ils mettent en œuvre pour résoudre un problème (Pitrat, 2011). De telle sorte que leurs utilisateurs peuvent les apprendre et ainsi développer leur réflexivité sur le fonctionnement de la machine, mais aussi sur leur propre fonctionnement cognitif. Mais l’agentivité des programmes informatiques d’intelligence artificielle ne se joue pas seulement au niveau des interactions hommes-machines : elle se joue également aux niveaux organisationnels. Par exemple dans le cas de la radiologie (cf. Millepied, 2020 ; Anichini & Geffroy, 2021), l’utilisation des nouvelles technologies d’intelligence artificielle participe à redéfinir la division du travail entre les radiologues, les manipulateurs, les patients et à instituer ainsi une nouvelle forme d’intelligence au travail dont la pertinence économique et sociale mérite d’être questionnée. La question de savoir à qui devrait revenir la décision devient alors très délicate (Weizenbaum, 1976). Ainsi, il est attendu que les contributions visant à s’intégrer dans ce deuxième axe montrent par exemple comment les managers des organisations, s’ils font souvent preuve d’un enthousiasme inconditionnel pour l’innovation, ont généralement une mauvaise connaissance de l’intelligence du travail des employés qu’ils dirigent et de la manière dont l’implémentation des technologies d’intelligence artificielle l’affectent (cf. Einola & Khoreva, 2020), ou encore, de la façon dont ces technologies participent à instituer des formes d’intelligences sociales et économiques qui renforcent le développement d’inégalités structurelles (cf. Joyce et al., 2021).

Axe 1. L’intelligence (ou les intelligences) mobilisée(s) par les chercheurs et les professionnels en IA

Les pionniers de l’intelligence artificielle ont passé beaucoup de temps à étudier la littérature académique en sciences humaines et sociales, parfois à réaliser des études empiriques plus ou moins expérimentales (e.g., Bateson, 1979) afin de concevoir leurs modèles d’intelligence artificielle (Crevier, 1997 ; Rose, 1986). Ils mettent ainsi en œuvre, de manière collective, une intelligence que l’on peut qualifier de réflexive et de compréhensive dans le sens où ils cherchent à développer des modèles d’intelligence dont le fonctionnement est compréhensible et est évalué à partir de sa capacité à exprimer correctement de petites fonctions cognitives dans des environnements contrôlés (cf. le cas du jeu d’échec de Arthur Samuel, 1959 ; ou encore, le cas de la formalisation syntaxique chez Terry Winograd, 1972).

Les nouveaux modèles que conçoivent aujourd’hui les chercheurs et, surtout, les professionnels de l’intelligence artificielle, sont conçus de façon très différente. Ces chercheurs et professionnels passent beaucoup de temps à trouver les bons modèles d’apprentissage et les bonnes façons de structurer les bases de données de manière à pouvoir permettre à la machine d’apprendre à faire des prédictions correctes, sans vraiment pouvoir comprendre exactement comment. Parce qu’elle a une finalité essentiellement prédictive, on peut qualifier de pragmatique cette intelligence mise en œuvre, notamment dans la mesure où elle est évaluée en fonction de sa seule capacité à prédire correctement le réel (Burrell, 2016 ; Cardon, 2015 ; Lipton, 2016). Mais, parfois les préoccupations peuvent être au contraire presque exclusivement théoriques (Lowrie, 2018). Il existe évidemment bien d’autres formes d’intelligence que mettent en œuvre les concepteurs de programme d’intelligence artificielle, et qui varient en fonction des projets de recherche et d’innovation à l’intérieur desquels ces mêmes concepteurs sont engagés (cf. par exemple les travaux de Florian Jaton, 2021). Peut-être que les contributions visant à s’insérer dans cet axe pourront s’inscrire dans la continuité des travaux de Rosental (2003), qui montrent comment se construit la crédibilité d’un théorème en intelligence artificielle, ou encore, de ceux de Borch et Hee Min (2022), qui montrent comment la construction de l’explicabilité des modèles d’intelligence artificielle renvoie à des interactions particulières entre les concepteurs et leurs machines. De façon plus générale, ces contributions pourraient par exemple chercher à mieux comprendre comment la conception des technologies d’intelligence artificielle renvoie à un travail de conception qui engage des formes d’intelligences humaine, sociale et économique qui ont varié au cours de l’histoire de l’intelligence artificielle.

Modalité de soumission

Il est attendu des auteur·rices une proposition argumentée d’environ 5 000 signes (espaces et notes comprises) qui devra être envoyée au plus tard le 01 décembre 2024. Elle précisera l’objet et le questionnement de recherche, les données et la méthodologie mobilisées, comme les enseignements tirés, afin de faciliter le travail d’arbitrage.

Cette note d’intention doit être adressée aux deux coordinateurs du numéro : olivia.chevalier [at] @imt-bs.eu ; jean-sebastien.vayre [at] univ-cotedazur.fr.

La sélection des propositions sera communiquée aux auteurs le 1er décembre. La remise des articles rédigés (entre 25 000 et 35 000 signes espaces compris) est ensuite fixée au 30 mars 2025. Les évaluations des textes en double aveugle seront retournées aux alentours du 30 mai 2025. Enfin, les versions finales des articles acceptés seront attendues pour 15 juillet. La parution du numéro 52 « AIntelligences » est prévue pour décembre 2025.

Bibliographie

Des DOI sont automatiquement ajoutés aux références par Bilbo, l’outil d’annotation bibliographique d’OpenEdition.
Les utilisateurs des institutions qui sont abonnées à un des programmes freemium d’OpenEdition peuvent télécharger les références bibliographiques pour lequelles Bilbo a trouvé un DOI.

Akrich, M. (1989). La construction d’un système socio-technique. Esquisse pour une anthropologie des techniques. Anthropologie et Sociétés, 13 (2), 31-54.
DOI : 10.7202/015076ar

Andler, D. (2023). Intelligence artificielle, intelligence humaine : la double énigme. Gallimard : Paris.

Anichini, G. & Geffroy, B. (2021). L’intelligence artificielle à l’épreuve des savoirs tacites. Analyse des pratiques d’utilisation d’un outil d’aide à la détection en radiologie. Sciences sociales et santé, 39, 43-69.

Bateson, G. (1979). Mind and Nature. New York: E.P. Dutton.

Boole, G. (1854). An Investigation of the Laws of Thought, on Which Are Founded the Mathematical Theories of Logic and Probabilities. London: Walton & Maberly.
DOI : 10.1017/CBO9780511693090

Borch, C., & Hee Min, B. (2022). Toward a sociology of machine learning explainability: Human–machine interaction in deep neural network-based automated trading. Big Data & Society, 9(2). https://doi.org/10.1177/20539517221111361.
DOI : 10.1177/20539517221111361

Brent, E., Glazier, J., Jamtgaard, K., Wetzel, E., Hall, P., Dalecki, M., & Bah, A. (1989). Erving: a program to teach sociological reasoning from the dramaturgical perspective. Teaching Sociology, 17, 38-48.

Burrell, J. (2016). How the Machine ‘Thinks:’ Understanding Opacity in Machine Learning Algorithms. Big Data & Society, January–June 2016: 1–12
DOI : 10.1177/2053951715622512

Cardon, D. (2015). À quoi rêvent les algorithmes : nos vies à l’heure des big data. Paris : Seuil.

Cardon, D., Cointet, J. & Mazières, A. (2018). La revanche des neurones : L’invention des machines inductives et la controverse de l’intelligence artificielle. Réseaux, 211, 173-220.
DOI : 10.3917/res.211.0173

Crevier, D. (1999). À la recherche de l’intelligence artificielle. Paris : Flammarion.

Cristianini, N. (2023). The Shortcut. Boca Raton, New York, London: CRC Press.
DOI : 10.1201/9781003335818

Dreyfus, H. L. (1972). What computers can’t do: a critique of artificial reason. New York: Harper & Row.

Dubey, G. (2001). La simulation à l’épreuve du lien social. Le travail humain, 64, 3-28.
DOI : 10.3917/th.641.0003

Einola, K., Khoreva, V. (2020). Best friend or broken tool? Exploring the co-existence of humans and artificial intelligence in the workplace ecosystem. Human Ressource Management, 62 (1), 117-135.
DOI : 10.1002/hrm.22147

Folgoas, G. (1976). L’avenir du futur. Les ordinateurs peuvent ils être intelligents ?.

Freyssenet, M. (1990). Les techniques productives sont-elles prescriptives ? L’exemple des systèmes experts. Cahiers de recherche du GIP « Mutations Industrielles », (45), 1-39.

Gardner, H. (1983). Frames of Mind: A Theory of Multiple Intelligences. New York: Basic Books.

Gras, A. (1994). Les sciences de la communication en pratique : le paradigme cognitif dans le cas de l’aviation civile. Quaderni, 23, 97-118.

Hinton, G. & Sejnowski. T. J. (1999). Unsupervised Learning: Foundations of Neural Computation. MIT Press : Cambridge.
DOI : 10.7551/mitpress/7011.001.0001

Hobbes, T. (1655). De Corpore.

Jaton F (2021) The Constitution of Algorithms: Ground-Truthing, Programming, Formulating. MIT Press: Cambridge.

Joyce, K., Smith-Doerr, L., Alegria, S., Bell, S., Cruz, T., Hoffman, S. G., Noble, S. U., & Shestakofsky, B. (2021). Toward a Sociology of Artificial Intelligence: A Call for Research on Inequalities and Structural Change. Socius, 7. https://doi.org/10.1177/2378023121999581.
DOI : 10.1177/2378023121999581

Le Cun, Y. (2019). Quand la machine apprend. Paris : Odile Jacob.

Leibniz, G.W. (1684). « Nova methodus pro maximis et minimis”. Acta Eruditorum. Leipzig.

Lindsay, R., Buchanan, B., Feigenbaum, E. & Lederberg, J. (1993). DENDRAL: a case study of the first expert system for scientific hypothesis formation. Artificial Intelligence, 61 (2), 209-261.
DOI : 10.1016/0004-3702(93)90068-M

Lipton, Z. (2016). The Mythos of Model Interpretability. arXiv:1606.03490
DOI : 10.1145/3236386.3241340

Luria, A.R. (1966). Higher Cortical Functions in Man. New York: Basic Books.
DOI : 10.1007/978-1-4615-8579-4

Lowrie, I. (2017). Algorithmic rationality: Epistemology and efficiency in the data sciences. Big Data & Society. January–June 2017: 1–13

Millepied, A.-C. (2020). Visualiser l’endométriose. Revue d’anthropologie des connaissances, 14-3, en ligne.
DOI : 10.4000/rac.6867

Newell, A. & Simon, H. (1972). Human problem solving. Englewood Cliffs: Prentice-Hall.

Newell, A., Shaw, J. C., Simon, H. A. (1959). Report on a general problem-solving program. Santa Monica : Rand Corporation.

Neumann (von), J. (1945). First Draft of a Report on the EDVAC. School of Electrical Engineering: University of Pensylvania.
DOI : 10.1109/85.238389

McCulloch, W.S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115–133.
DOI : 10.1016/S0092-8240(05)80006-0

Olazaran, M. (1996). A sociological study of the official history of the perceptrons controversy. Social Studies of Science, 26(3), 611-659.
DOI : 10.1177/030631296026003005

Pickering, A. (1993). The mangle of practice: agency and emergence in the sociology of science. American Journal of Sociology, 99 (3), 559-589.
DOI : 10.2307/j.ctv11smg5w

Pitrat, J. (2011). Raisonnement de l’homme et raisonnement de la machine. Dans C. Garbay & D. Kayser, Informatique et sciences cognitives. Influences ou confluence ? (pp. 11-46). Paris : Maison des sciences de l’homme.

Pratt, V. (1995). Machines à penser. Une histoire de l’intelligence artificielle. Paris : Presses Universitaires de France.

Proust, J. (2000). « La cognition animale et l’éthique », Le Débat, vol. 108, no. 1, 2000, pp. 175-183.
DOI : 10.3917/deba.108.0175

Rose, F. (1986). L’intelligence artificielle. Histoire d’une recherche scientifique. Paris : Payot.

Rosental, C. (2003). Certifying knowledge: the sociology of a logical theorem in artificial intelligence. American Sociological Review, (68), 623-644.
DOI : 10.1177/000312240306800407

Samuel, A. (1959). 1959. Some Studies in Machine Learning Using the Game of Checkers. IBM Journal of Research and Development (Volume:44, Issue:1.2).
DOI : 10.1147/rd.33.0210

Searle, J. R. (1984). Minds, brains, and science. Cambridge: Harvard University Press.

Spearman, C. (1904). ‘General intelligence,’ objectively determined and measured. The American Journal of Psychology, 15(2), 201–293.
DOI : 10.2307/1412107

Sternberg, R.J. (1985). Beyond IQ : a triarchic theory of human intelligence, New York : Cambridge University Press.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 49, 433-460.
DOI : 10.1093/mind/LIX.236.433

Vauclair, J. 52017). L’intelligence de l’animal. Paris : Points Seuil sciences.

Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment To Calculation. San Francisco: W. H. Freeman.

Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. Boston: MIT Press.
DOI : 10.1119/1.1989561

Wilensky, R. (1983). Planning and understanding: a computational approach to human reasoning. Boston: Addison-Wesley.

Williams, J., Fiore, S.M., Jentsch, F. (2022). Supporting artificial social intelligence with theory of mind. Frontiers in Artificial Intelligence, (5), en ligne : https://doi.org/10.3389/frai.2022.750763.
DOI : 10.3389/frai.2022.750763

Winograd, T. (1972). Understanding Natural Language. New York: Academic Press.
DOI : 10.1016/0010-0285(72)90002-3

Wolfe, A. (1991). Mind, self, society, and computer: artificial intelligence and the sociology of mind. American Journal of Sociology, 96 (5), 1073-1096.

About author
Submit your comment

Please enter your name

Your name is required

Please enter a valid email address

An email address is required

Please enter your message

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Partage à l'Identique 2.0 France.
Designed by WPSHOWER
Powered by WordPress
ISSN : 2647-8447