Formation complète
Mardi 25 novembre 2025
Mode
Présentiel
Format
En salle de formation avec le formateur
Date limite des inscriptions
Lundi 10 novembre 2025
Programme
Depuis le lancement public de ChatGPT en novembre 2022, et sa propagation fulgurante dans tous les domaines, personnels ou professionnels, une prise de conscience large s’est faite sur les potentialités des intelligences artificielles, mais aussi sur les risques et les questionnements que leur développement soulève. Néanmoins, comme le rappellent de récentes journées d’études ou dossiers, la question des intelligences artificielles dans le monde de la recherche est bien plus large et plus ancienne. La particularité des technologies d’intelligences artificielles génératives (IAGen) comme ChatGPT est de proposer des outils d’aide à la création de contenus, ce qui bouleverse les métiers en lien avec la production de connaissances en général, et scientifiques en particulier.
La construction des connaissances scientifiques est un processus complexe qui s’élabore dans un temps long et au sein de collectifs de personnes et d’institutions qui se veulent garants d’une production a priori objective et vérifiable. Ce processus n’est déjà pas exempt d’erreurs, de heurts, de désaccords et il n’est pas non plus à l’abri des falsifications. Mais l’introduction des intelligences artificielles génératives renouvelle ce questionnement, et l’émergence de ces outils dans le processus de recherche doit nous amener à réfléchir aux impacts et aux enjeux, à la fois individuels et collectifs, positifs et négatifs.
Si les intelligences artificielles questionnent en général les enjeux sociaux, économiques et écologiques qu’elles impliquent, cela ne sera cependant pas l'objet de cette journée d'étude, qui ne portera pas non plus sur les outils, les techniques ou les méthodes d’application et d’utilisation dans la recherche.
Dans quelle mesure les IAGen représentent-elles des opportunités pour la recherche, par exemple pour se repérer dans la masse d’informations, accompagner la rédaction et la traduction, analyser les données, favoriser la créativité et faire émerger de nouvelles idées ? Ou au contraire doit-on craindre davantage de risques, par exemple une multiplication des erreurs, biais et autres mésusages, et une homogénéisation, voire un appauvrissement des connaissances produites ? Les IAGen permettront-elles de remédier aux inégalités scientifiques ou conduiront-elles à de nouvelles fractures entre des acteurs capables de l'utiliser à bon escient et d'autres maîtrisant mal ses possibilités ? Comment assurer la responsabilité et l’intégrité sur l’ensemble du processus scientifique ? Dans un contexte technologique et méthodologique évolutif, les IAGen sont-elles une révolution ou une simple étape dans la manière de faire de la recherche ?
Afin de poser un cadre à partir duquel réfléchir à ces enjeux et prendre la mesure de ces évolutions, nous avons souhaité prendre comme point de départ une réflexion sur la manière dont se construisent les cultures scientifiques et sur ce que les IAGen peuvent y changer, avant de développer ces questions autour de trois axes :
Celui des processus de production : jusqu’à quel point les IAGen transforment-elles les processus de réflexion, de création, de nouveauté et de découverte scientifiques ? Que changent-elles aux compétences informationnelles et rédactionnelles ?
Celui des processus de diffusion : dans quelle mesure les IAGen transforment-elles la validation et la communication de la recherche ? Comment prendre en compte la généralisation de ces outils dans les normes professionnelles ?
Celui des enjeux institutionnels et politiques : comment favoriser un cadre garantissant transparence et souveraineté pour des usages scientifiques ? Comment assurer la maîtrise raisonnée et critique de ces outils pour tous les acteurs de la recherche ?
version PDF de cet argumentaire
Programme
programme publié sous réserve de modifications mineures
9h15-9h45 : Ouverture
Marc Bergère, président du GIS Réseau URFIST
Florence Thiault, co-responsable de l’URFIST Bretagne-Pays de la Loire
9h45-10h45 : Conférence introductive
Alexandre Hocquet, Et le gagnant est... Alphafold !
Après un bref rappel de ce qu'a désigné la marque « Intelligence artificielle » au cours des dernières décennies et des façons très différentes de faire de la science qu'elle a impliquées, nous nous attarderons sur un exemple concret actuel : le repliement des protéines et le prix Nobel de chimie 2024 gagné par les créateurs d'Alphafold, une intelligence artificielle générative qui ne génère pas des mots ni des images mais des structures tridimensionnelles de protéines. Le but ne sera pas de comprendre les détails de ce sous-domaine de la biologie structurale mais de comprendre de quelle façon de faire de la science il s'agit : corporate, basée sur des concours très codifiés (d'où le titre), mais aussi sur le régime de la promesse (pour l'industrie pharmaceutique), la culture de la "démo" propre à la Silicon Valley, la gamification, et l'openwashing. Alphafold est une IA à prendre très au sérieux parce qu'elle est effectivement entrée dans les pratiques des biologistes structuraux, et comprendre sa façon de fonctionner peut nous servir à appréhender ce que peut être l'IA dans le domaine scientifique.
Ex-chimiste théoricien, Alexandre Hocquet est historien des sciences à l’université de Lorraine (Archives Henri-Poincaré). Il s'intéresse aux conditions de production de la science computationnelle, au carrefour des relations entre logiciel, épistémologie et politique. Son axe de recherche consiste par une approche de « Science and Technology Studies » à s'interroger sur les relations entre le théoricien et l'ordinateur, en particulier en quoi l'importance croissante du logiciel a modifié les pratiques scientifiques de la communauté.
11h00-12h00 : Session 1 - IA génératives et processus de production
modération : Sandrine Wolff, maîtresse de conférence en économie à l’université de Strasbourg (BETA et URFIST de Strasbourg)
Floriana Gargiulo, L’histoire de la diffusion de l’IA dans la littérature scientifique
Née dans les sciences dures, l’intelligence artificielle s’est progressivement diffusée dans tout le paysage scientifique. En analysant des grands corpus bibliométriques, je propose une cartographie inédite de son expansion historique et interdisciplinaire, révélant comment l’IA transforme les savoirs autant qu’elle s’en nourrit.
Floriana Gargiulo est chargée de recherche au GEMASS-CNRS. Avec une formation en physique de systèmes complexes, son activité de recherche s’inscrit dans les sciences sociales computationnelles. En particulier, son sujet d’étude principale touche aux dynamiques de découverte et exploration de la connaissance scientifique. Elle cordonne un projet de recherche interdisciplinaire sur les dynamiques de diffusion de l’IA dans l’écosystème scientifique.
Pierre Pelletier, Chat‑PhD: Le rôle des LLM dans l’élaboration des pratiques de recherche et la productivité de jeunes chercheurs
En nous appuyant sur les données de theses.fr, nous étudions l’impact de ChatGPT sur la composition des thèses de doctorat.
En appariant des doctorants ayant les mêmes directeurs de thèse, nous comparons les travaux soutenus avant et après l’apparition de ChatGPT.
L’objectif est de déterminer si les doctorants explorent davantage l’espace de recherche, à travers des indicateurs bibliométriques de nouveauté basés sur les références.
Cette analyse est complétée par une enquête auprès des doctorants ayant soutenu après la sortie de ChatGPT.
Pierre Pelletier est maître de conférences en économie et management à l’université de Strasbourg et co‑coordinateur du MSc « Data Science for Economics and Business » (DS2E). Après un doctorat en économie à l’université de Strasbourg, il a effectué un post‑doctorat d’un an au CPS de l’université de Turin. Ses principaux axes de recherche portent sur l'économie de la science et la scientométrie.
12h-13h30 : Pause déjeuner buffet
13h30-15h : Session 2 - IA génératives et processus de diffusion
modération : Gabriel Gallezot, maître de conférences en sciences de l’information et de la communication à l’Université Côte d’Azur
Ophélie Fraisier-Vannier, (Més)usages de l’IA générative pour la production scientifique
L’explosion récente de l'IA générative a eu un impact profond sur la société, notamment grâce aux nouvelles possibilités offertes par les outils de génération de texte (ChatGPT en étant l'exemple le plus connu).
La communauté scientifique n'a pas été épargnée par ce phénomène.
Dans cette présentation, j'aborderai l'utilisation de cette technologie par les chercheurs, en mettant l'accent sur son rôle dans les pratiques de recherche discutables liées à la publication scientifique, et les questions plus larges que cela soulève pour l'écosystème de la recherche dans son ensemble.
Ophélie Fraisier-Vannier est maîtresse de conférences en informatique à l’université de Toulouse (IRIT), spécialisée en fouille de données. L'un de ses axes de recherche actuels porte sur la détection et l'analyse des pratiques de recherche discutables par fouille de textes et de graphes dans la littérature scientifique, telles que l'utilisation de phrases torturées ou la manipulation de citations.
Thomas Parisot, IA et édition scientifique : du mariage de raison à la belle histoire ?
L’IA n’a plus à démontrer son intérêt ni à convaincre de son potentiel. Alors que l’édition de fiction peine à donner toute sa place à cette révolution, ce n’est plus le cas dans le secteur de l’édition scientifique, qui déploie désormais largement des innovations mobilisant l’IA pour la création, la découvrabilité, la préparation des œuvres et plus largement l'interopérabilité des publications. Cela ne doit pas empêcher de continuer à questionner les effets de ces innovations ni les enjeux de plus long terme de cette révolution dans laquelle les acteurs du secteur sont largement engagés.
Thomas Parisot est directeur général adjoint de Cairn.info, président du Groupement français de l'industrie de l’information (Gf2i), vice-président du groupe universitaire du Syndicat National de l’Édition (SNE) et administrateur de l’Association des professionnels de l’information et de la documentation (ADBS).
Sébastien Perrin, IA académique, IA de confiance, IA éditoriale : nouveaux cadres de l'information scientifique et technique ?
Les services d'information scientifiques ont pu paraître dépassés par la promesse d'un accès immédiat à toute information. Mais la capacité à construire une expertise documentaire est plus que jamais une compétence à acquérir pour les doctorants et jeunes chercheurs. Ces institutions y jouent un rôle essentiel : formations, mise à disposition d'outils d'IA de « confiance », dans un cadre juridique régulé et de bonne utilisation des données. Ces nouveaux services, alimentés par les collections, offrent de nouvelles pratiques à la recherche.
Sébastien Perrin est conservateur des bibliothèques, directeur de la Bibliothèque de l'École des Mines de Paris-PSL, et membre de la coordination exécutive de Couperin.org, premier consortium d'acquisition numérique européen. Après une expérience au sein du Département de l'économie du livre (ministère de la Culture et de la communication), il a exercé en tant que responsable de la politique documentaire ou de la formation, puis a occupé des postes de directions dans différents services d'universités.
15h15-16h15 : Session 3 - IA génératives et enjeux institutionnels et politiques
modération : Annaïg Mahé, maîtresse de conférences en sciences de l’information et de la communication à l’École nationale des chartes (URFIST de Paris)
Pascale Solon, La Charte Intelligence Artificielle de l'Université d’Orléans. Un an après, retour d’expérience de la bibliothèque universitaire
Le 18 octobre 2024, le CA de l’Université d’Orléans a approuvé la Charte sur l’utilisation de l’Intelligence artificielle au sein de l’Université d’Orléans. La bibliothèque universitaire a participé activement à l’élaboration de la charte. Elle est partie prenante de sa diffusion auprès de la communauté universitaire et de la définition de la feuille de route institutionnelle sur l’IA. Un an après l’adoption de la Charte IA, la présentation propose, du point de vue de la BU, un retour sur les principaux jalons et enseignements, sur la coopération inter-services et sur les défis à relever.
Pascale Solon est conservatrice des bibliothèques, responsable des services d’appui à la recherche du SCD de l’Université d’Orléans et responsable de la BU Lettres, Langues, Sciences humaines. Formation universitaire à l’université de la Sarre, département d’études romanes, à l’université de Metz, département d’études germaniques et à l’Université Laval, faculté des lettres et sciences humaines. Parcours professionnel en bibliothèque universitaire à l’université de Caen (2011-2014) et à l’université d’Orléans (depuis 2015).
Olivier Wong-Hee-Kam, Vision stratégique sur l’IA générative intégrant les enjeux de soutenabilité d'impact environnemental et budgétaire, et les perspectives de mutualisation
L'impact environnemental du numérique en France est en augmentation selon la dernière évaluation de l'impact du numérique en France (ADEME-ARCEP) et "cette hausse va très probablement se poursuivre - en particulier du fait de l'IA générative" (source).
Un usage raisonné des outils d'IA générative est-il envisageable dans une trajectoire de soutenabilité ? La mutualisation (usages, compétences, infrastructures), tournée vers la résilience et la robustesse, apparaît comme une piste pertinente à discuter.
Olivier Wong-Hee-Kam est vice-président en charge du numérique pour l’université de Rennes et porteur du projet AIR, lauréat de l’AMI Démonstrateur numériques dans l’Enseignement Supérieur (DemoES). Il s’investit sur les enjeux liés à la cybersécurité, à l’IA et à la mutualisation en tant que Président de l’association VP-NUM qui regroupe les vice-présidents numérique de l’enseignement supérieur. Depuis 2024, il coordonne et contribue à différents projets en IA générative, sur Rennes (RAGaRenn) et à l’échelle nationale (ILaaS) afin d’alimenter la vision stratégique sur l’IA générative par des actions et des réflexions sur les usages, leurs impacts et leur cadrage, tout en répondant aux enjeux de mutualisation sur les services numériques et les infrastructures de calcul.
16h15-16h45 : Carte blanche
- Etienne Ollion. S'augmenter. Comment utiliser l’IA pour analyser finement des corpus massifs en SHS
Si l'IA se diffuse dans la société, elle est aussi employée de manière croissante dans les sciences humaines et sociales. Que peut-on faire avec des outils d'intelligence artificielle dans ces disciplines, pour quels résultats, et avec quelles conséquences ? La présentation défend l'idée qu'une des pistes les plus fécondes à l'heure actuelle est d'employer ces techniques pour s'augmenter, c'est-à-dire pour effectuer des tâches qu'on faisait à petite échelle - voire qu'on renonçait à faire, faute de temps. On présente cet argument sur le cas de l'annotation et de l'extraction de contenu, deux domaines où les changements les plus nets ont eu lieu.
Etienne Ollion est directeur de recherche au CNRS, professeur de sociologie à l'Ecole polytechnique. Ses travaux portent sur le champ politique, exploré à travers différents outils dont les méthodes computationnelles. Il est l'auteur de Les candidats. Novices et professionnels en politique (PUF, 2021) et de Une étrange victoire. L'extrême droite contre la politique (avec M. Foessel, Seuil, 2024).
16h45-17h : Conclusion
Mariannig Le Béchec, professeure en sciences de l’information et de la communication à l’université de Lorraine (CREM)
Informations pratiques
La journée est gratuite, mais requiert une inscription.
Elle se tiendra uniquement en présentiel, sur le Campus Condorcet à Aubervilliers.
Une captation vidéo est prévue, sans retransmission en direct.
Pistes bibliographiques
Andersen, J. P., et al. (2025). Generative Artificial Intelligence (GenAI) in the research process – A survey of researchers’ practices and perceptions. Technology in Society, 102813. https://doi.org/10.1016/j.techsoc.2025.102813
Bianchini, S., Müller, M., & Pelletier, P. (2022). Artificial intelligence in science: An emerging general method of invention. Research Policy, 51(10), 104604. https://doi.org/10.1016/j.respol.2022.104604
Binz, M., et al. (2025). How should the advancement of large language models affect the practice of science? Proceedings of the National Academy of Sciences (PNAS), 122(5). https://doi.org/10.1073/pnas.2401227121
Commission européenne. (2023). Use and impact of artificial intelligence in the scientific process – Foresight. Publications Office of the European Union. https://data.europa.eu/doi/10.2828/10694
Commission européenne. (2024). Living guidelines on the responsible use of generative AI in research. European Research Council Executive Agency. https://european-research-area.ec.europa.eu/news/living-guidelines-responsible-use-generative-ai-research-published
Dillaerts, H., & Slouma, M. (Dir.). (2024). Intelligence(s) artificielle(s) générative(s) et créativité(s) : Stratégies, pratiques et usages. Transformations ? Ruptures ? (Dis)Continuités ? COSSI, 13. https://revue-cossi.numerev.com/numeros/1257-revue-13-intelligences-artificielles-generatives-et-creativites-strategies-pratiques-et-usages-transformations-ruptures-discontinuites
Hosseini, M., et al. (2024). Open Science at the generative AI turn: An exploratory analysis of challenges and opportunities. Quantitative Science Studies, 1-24. https://doi.org/10.1162/qss_a_00337
Messeri, L., & Crockett, M. J. (2024). Artificial intelligence and illusions of understanding in scientific research. Nature, 627(8002), 49-58. https://doi.org/10.1038/s41586-024-07146-0
Mézard, M. (2019). L’intelligence artificielle et la démarche scientifique. Le Débat, 2019/5(207), 148-156. https://doi.org/10.3917/deba.207.0148
OCDE. (2023). Artificial Intelligence in Science: Challenges, Opportunities and the Future of Research. https://www.oecd.org/publications/artificial-intelligence-in-science-a8d820bd-en.htm
OFIS. (2024). Systèmes d’intelligence artificielle générative : quelques points de vigilance. https://www.ofis-france.fr/lintegrite-scientifique-dans-la-loi/
Resnik, D. B., & Hosseini, M. (2024). The ethics of using artificial intelligence in scientific research: New guidance needed for a new tool. AI Ethics, 1-23. https://doi.org/10.1007/s43681-024-00493-8
The Royal Society. (2024). Science in the age of AI: How artificial intelligence is changing the nature and method of scientific research. https://royalsociety.org/-/media/policy/projects/science-in-the-age-of-ai/science-in-the-age-of-ai-report.pdf
Van Noorden, R., & Perkel, J. M. (2023). AI and science: What 1,600 researchers think. Nature, 621(7980), 672-675. https://doi.org/10.1038/d41586-023-02980-0
Vinchon, F., et al. (2023). Artificial Intelligence & Creativity: A Manifesto for Collaboration. The Journal of Creative Behavior, 57(4), 472-484. https://doi.org/10.1002/jocb.597