• contexte de l'intelligence artificielle
  • principes de fonctionnement des intelligences artificielles génératives
  • moteurs de recherche IA et recherche d’informations académiques (ChatGPT, Bing, Perplexity, etc.)
  • outils de recension bibliographique (Elicit, SciSpace, Consensus, etc.)
  • outils d’analyse (Scite, ResearchRabbit, etc.)
  • d’autres outils d’assistance encore
  • intérêts et limites de ces outils dans la recherche de littérature académique

Cette formation est une formation généraliste, ne nécessitant pas de compétence technique

  • le contexte actuel de la recherche d’informations : évolutions des moteurs de recherche, robots conversationnels et intelligence artificielle
  • principes de fonctionnement des intelligences artificielles génératives
  • le cas ChatGPT
  • impact de l’IA sur les moteurs de recherche classiques (Bing, Google, etc.)
  • autres exemples de moteurs de recherche IA textuelles et multimédias (Perplexity, etc.)
  • l’art du prompt
  • intérêts et limites de ces outils dans la recherche d’information
  • bibliographie 
Cette formation est une formatio

Claire Tignolet

Fonctions

  • Co-responsable de l'URFIST depuis avril 2022
    • Formatrice
    • Coordinatrice administrative de l'URFIST (en alternance tous les deux ans).
 

Domaines de compétences

Visibilité du jeune chercheur en ligne

     - Contexte et repères : enjeux actuels de la visibilité du chercheur ; son importance pour le doctorant
     - Présentation des principaux outils : outils de profils (CV, LinkedIn), outils de diffusion et de publication (archives ouvertes, ResearchGate, Academia, Google scholar, ORCID), outils de communication (Twitter, blogs)
     - Stratégies possibles et bonnes pratiques


Publier et diffuser ses travaux sur le web : quelle visibilité pour le (jeune) chercheur ?

Comment évaluer au mieux cet ensemble disciplinaire pour le moins hétérogène, en tenant compte de ses spécificités épistémologiques, méthodologiques et éditoriales ? Dans quelle mesure peut-on utiliser les mêmes sources de données et les mêmes indicateurs que pour les sciences de la vie et de la matière ? Quelles alternatives ont pu être proposées en France et en Europe ? En quoi la science ouverte peut-elle contribuer à changer la donne ?

Depuis son « invention » dans les années 1960, la bibliométrie a suscité de nombreux débats, au sein de la communauté scientifique mais aussi parmi les décideurs politiques, les financeurs de la recherche, et même le grand public. En cause : son association quasi-systématique avec la notion d’évaluation de la recherche, dont les principes n’ont cessé d’évoluer depuis ces dernières décennies.

Avant tout outil interne d’aide à la conception d’un projet de recherche et à la définition de bonnes pratiques, il s’agit également d’une pièce à usage externe, dont la rédaction est exigée par de plus en plus de financeurs de la recherche. L’ANR (depuis 2018) et la Commission européenne (depuis 2017), entre autres, exigent ainsi des chercheurs qui soumettent une demande de financement qu’ils fournissent un plan de gestion détaillé des données de recherche qu’ils comptent utiliser.

Pages