6 décembre 2024, Sylvain FONTAINE soutient sa thèse « The diffusion of Artificial Intelligence into Neuroscience: A multiscale approach of the genericity of a research-technology »
à 14h, dans la salle de conférence au rez-de-chaussée de l’UAR CNRS Pouchet, 59-61 rue Pouchet, Paris 17e
Une thèse menée sous la codirection de Michel Dubois (CNRS)
Jury (par ordre alphabétique) :
- Stefano BIANCHINI – Maître de conférence HDR, Université de Strasbourg (examinateur)
- Michel DUBOIS – Directeur de recherche, CNRS, Sorbonne Université (directeur de thèse)
- Floriana GARGIULO – Chargée de recherche, CNRS, Sorbonne Université (co-encadrante de thèse)
- Laura HERNANDEZ – Maîtresse de conférence HDR, CY Cergy Paris Université (examinatrice)
- Gianluca MANZO – Professeur des universités, Sorbonne Université (examinateur)
- Béatrice MILARD – Professeure des universités, Université Toulouse Jean Jaurès (rapportrice)
- Camille ROTH – Directeur de recherche, CNRS, EHESS (rapporteur)
- Cassidy R. SUGIMOTO – Professeure, Georgia Institute of Technology (examinatrice)
Résumé de la thèse :
La diffusion de l’intelligence artificielle dans les neurosciences: Une approche multi-échelle de la généricité d’une recherche technologique
Depuis la dernière décennie, l’intelligence artificielle (IA) se révèle être un outil de choix dans la recherche scientifique, comme en témoigne son utilisation toujours plus accrue dans presque toutes les disciplines. Cette dernière suscite de nombreuses réflexions et critiques, notamment sur sa capacité à supplanter d’autres outils traditionnellement mobilisés dans ces disciplines et à créer de nouvelles connaissances capables de révolutionner des paradigmes théoriques déjà bien établis. Dans ce contexte, cette thèse s’intéresse à l’impact épistémique de l’IA dans la recherche scientifique, et plus particulièrement dans un domaine multi-disciplinaire, les neurosciences. À travers l’identification et l’explication des mécanismes d’intégration et de diffusion de l’IA au sein de ces dernières, cette thèse vise notamment à établir dans quelle mesure elle devient omniprésente (ou non) dans la production des savoirs propres à ce domaine de recherche. S’appuyant sur une méthode multi-échelle, cette thèse se divise en deux temps.
Premièrement, au moyen d’une analyse numérique de données bibliométriques représentant la littérature neuroscientifique entre 1970 et 2020, nous montrons que l’IA s’applique bel et bien à un vaste ensemble de thématiques portées par les neurosciences entre 1970 et 2020 (généricité en application), mais peine à s’articuler avec les cadres théoriques majeurs de ces dernières (généricité en conceptualisation), ne lui permettant donc pas de bousculer des paradigmes entiers. L’étude de ce corpus révèle également que quelques scientifiques bien particuliers recourent à l’IA dans leurs écrits : formés et évoluant au sein des mathématiques, de l’informatique ou de divers pans de l’ingénierie, ces derniers publient majoritairement ensemble et peu aux côtés de neuroscientifiques plutôt impliqués dans la recherche médicale et constituant pourtant le cœur des professionnels recensés dans notre base de données.
Deuxièmement, en mobilisant des données d’entretiens semi-directifs réalisés en 2021 auprès de membres d’une équipe de recherche clinique spécialisée dans la neuro-imagerie et les neurosciences computationnelles, nous montrons une réalité du travail interdisciplinaire de construction de l’IA par divers acteurs des recherches informatique et médicale, et ce à travers deux éléments. D’abord, les spécialistes de l’IA, premiers diffuseurs de cet instrument de recherche, doivent se conformer aux attendus des professionnels de santé et ainsi transformer leurs pratiques de recherche qu’ils ont pu acquérir dans le passé avant de rentrer dans l’équipe. Ensuite, l’IA se retrouve progressivement adoptée par l’ensemble des informaticiens et cliniciens affiliés à cette dernière, car elle participe à l’accroissement de la visibilité des recherches produites auprès d’autres scientifiques et institutions représentant les mondes académique et industriel, et ce malgré des performances encore limitées ou similaires à des outils déjà utilisés pour les tâches scientifiques à accomplir dans l’équipe.
Ces deux approches qualitatives et quantitatives montrent finalement que l’IA est loin de remplacer l’ensemble des outils de recherche utilisés par les neurosciences, en raison de sa généricité encore limitée.
———————–
English abstract:
The diffusion of Artificial Intelligence into Neuroscience: A multiscale approach of the genericity of a research-technology
Over the past decade, Artificial Intelligence (AI) has been increasingly used by a wide range of scientific disciplines to advance their respective research agendas. This phenomenon is the subject of ongoing discussions and criticism, particularly with regard to its potential to supplant other tools traditionally used in these disciplines, and to create new knowledge capable of revolutionizing already well-established theoretical paradigms. In this context, this thesis examines the epistemic impact of AI in scientific research, and specifically in a multidisciplinary field, neuroscience. By identifying and explaining the mechanisms of integration and diffusion of AI within the latter, this thesis aims to determine the extent to which AI is becoming pervasive (or not) in the production of knowledge specific to this research domain. Using a multiscale approach, this thesis is divided into two parts.
Firstly, a numerical analysis of bibliometric data representing the neuroscience literature between 1970 and 2020 demonstrates that AI is applicable to a vast array of topics covered by neuroscience in these years, but fails to merge with the fundamental knowledge that structures the core of their respective conceptual frameworks, and therefore to become a central part of knowledge creation or entire paradigms upheaval. Thus, we argue that AI is generic in neuroscience in terms of applications, but not conceptualization. The study of this corpus also reveals that only a small number of scientists, mostly mathematicians, computer scientists, or engineers segregated at the periphery of the entire neuroscience collaboration network, employ AI in their publications. In particular, they tend to publish mostly together and little alongside neuroscientists engaged primarily in medical research, who nevertheless represent the core of the professionals listed in our database.
Secondly, by mobilizing data from semi-structured interviews conducted in 2021 with members of a clinical research team specializing in neuroimaging and computational neuroscience, we demonstrate the interdisciplinary nature of AI development, which involves various collaborators from computer science and medical research. We distinguish two elements. First, AI specialists, as the initial broadcasters of this research tool, are required to align their practices with the expectations of healthcare professionals, and thus transform the research practices they may have acquired in the past before joining the team. Second, although its performance remains limited or comparable to tools that are already used for the scientific tasks carried out in the team, AI is rapidly adopted by
all the members of the team, whether they are computer scientists or clinicians, as it contributes to enhance the visibility of the output of their research to other scientists and
institutions within academic and industrial realms.
The combination of these two qualitative and quantitative approaches finally demonstrates that AI is far from replacing all the research tools used by neuroscientists, due to its current limited genericity.