Groupe de réflexion sur l’analyse et la caractérisation de la production scientifique – Outils et Méthodes
Onzième réunion du 23 mars 2012, au Conservatoire des Arts & Métiers (CNAM) Paris, animée par Anthony F.J. Van Raan, Professeur à l’Université de Leiden (Pays-Bas)
Organisation de l’Atelier et rédaction du rapport : Manuel Durand-Barthez
Pour une meilleure compréhension de certains éléments du commentaire, nous avons extrait 4 d’entre elles (14, 20, 21 et 35). Dans chaque cas, elles sont précédées de l’annotation (Dia nn). M.D.-B.
Le classement de Leiden : environnement scientifique et configuration
Le classement dit « de Leiden »[1] (ou, en français : de Leyde) est conçu par le CWTS (Centrum voor Wetenschap- en Technologie Studies) de l’université située dans cette ville des Pays-Bas. Ton Van Raan[2] anime l’équipe qui en assure le constant développement.
La méthodologie de ce classement est de fait en permanente évolution. Elle est fondée sur le Web of Science de Thomson Reuters. Elle résulte d’environ 25 ans d’expérience en la matière. Elle vise 500 entités de recherche et d’enseignement supérieur dont l’activité s’impose comme particulièrement significative à l’échelle mondiale.
L’évolution de cette méthodologie reflète une élaboration permanente de nouveaux outils d’évaluation. En aucune manière, ce classement ne veut se substituer à d’autres : il offre des alternatives qui permettent d’enrichir notablement la réflexion.
Le CWTS développe par ailleurs des indicateurs strictement relatifs à l’impact des journaux, destinés à l’application Scopus d’Elsevier[3]. Ils se déclinent sous l’appellation SNIP (Source normalized impact per paper)
Le présent exposé concerne spécifiquement le classement des institutions ; il a donc une tout autre orientation.
Il convient de préciser dès l’abord que la part des Lettres & Sciences humaines (LHS) est infime dans une telle configuration. Quand bien même elles seraient incluses, leur apport n’est en aucune manière significatif. C’est le motif pour lequel elles ne sont pas prises en compte dans le classement de Leiden, inadéquat en la matière. Leur présence dans les revues internationales ne joue pas un rôle suffisamment patent pour qu’elles soient considérées comme un facteur déterminant dans ce type de classement, axé de manière incontestablement dominante sur le secteur STM (Sciences, Technologie, Médecine) et sur les Subject categories agréées par le Social Sciences Citation Index du Web of Science.
Les indicateurs de Leiden
Définitions
- Journal Citation Score (multiple) = nombre moyen de citations / articles publiés dans toutes les revues dans lesquelles publie l’institution → JCSm (le « m » signifie que plus d’un journal est pris en compte dans l’ensemble considéré = multiple. Même sens plus bas)
- Citations per Publication = nombre moyen de citations / articles publiés par l’institution → CPP
- Field Citation Score (multiple) = nombre moyen de citations / articles publiés dans toutes les revues de chacun des champs disciplinaires dans lesquels l’institution est active → FCSm
- CPP / FCSm = ce rapport est en quelque sorte l’indicateur générique du classement de Leiden (encore appelé Crown Indicator). Contrairement au MNCS décrit ci-après, il donne la prééminence aux articles anciens qui drainent naturellement plus de citations au fil du temps. Il est fondé sur le calcul d’un ratio de moyennes.
- Mean normalized citation score : il n’accuse aucune différence entre les articles pris dans leur globalité et ne laisse donc pas de côté les articles récents supposés drainer moins de citations que les anciens et n’en produire généralement qu’au bout d’un an. → MNCS. Il est fondé sur le calcul d’une moyenne de ratios[4]. Il comporte deux variantes :
- MNCS1 où la totalité des publications, y compris celles de l’année en cours lors de l’analyse, sont prises en compte.
- MNCS2 où sont exclues les publications ayant nécessité moins d’un an pour acquérir des citations, par rapport à la date de l’analyse.
La différence entre ces deux variantes s’illustre par le biais d’un exemple allemand. L’université de Göttingen a publié en 2008 un article « phare » dans Acta Crystallographica Section A, qui a drainé presque immédiatement 3521 citations en 2008[5], 6916 en 2009 et un total cumulé de 59 499 repéré en mai 2012. Il concerne un outil informatique utilisé en analyse cristallographique très largement utilisé par la communauté spécialisée dans ce type d’expérimentation. Sans qu’il ne s’agisse là d’un texte de type Review, on ne peut pas parler d’un Research article proprement dit, mais d’un document « de référence », donc abondamment cité. A l’inverse du rapport CPP / FCSm qui ne tend pas à favoriser les publications plus les plus récentes, le MNCS1 de Göttingen est, du fait de cette « anomalie » très élevé en 2011 (1,66) par rapport au CPP / FCSm qui est de 1,06 seulement. Tandis que ce MNCS1 est lui-même bien plus élevé que le MNCS2 (1,01) qui exclut la publication susmentionnée du fait que des citations (de surcroît ici en très grand nombre) sont acquises dans un délai inférieur à un an, dans le contexte de la période analysée. Il apparaît par ailleurs que cette seule publication de Göttingen a suffi à engendrer une hausse notable du Facteur d’impact Web of Science d’ Acta Crystallographica Section A.[6]
- Proportion of Publications in the Top 10% : dénombre les publications détenues par une entité, dont le facteur d’impact se situe dans le décile supérieur lorsque l’on considère la distribution des publications d’un même champ disciplinaire au niveau mondial → PP(top10%) Dans le classement des 500 premières universités, pour chacune d’elles est calculé ce PP(top10%) au sein de chacune des Subject Categories du Web of Science (en 2010 : 174 pour le secteur STM et 56 pour le secteur Sc. Soc.)
A l’inverse du MNCS qui concerne des moyennes, le PP(top10%) concerne une distribution (médianes) ; il apparaît donc plus équitable. La position très élevée de Göttingen est ainsi considérablement rabaissée si l’on considère le Top 10% et non plus le MNCS avec un comptage brut. Le PP (top10%) ne tient compte que du nombre d’articles évalués en fonction de critères disciplinaires distribués et non de leurs citations cumulées.
Interactions
Le rapport entre FCSm d’une part et CPP et JCSm d’autre part, présente des caractéristiques inversées lorsque l’on considère, sur le schéma qui suit (Dia 14 ), deux catégories de domaines diamétralement différents dans leurs pratiques de publication :
- couleur bleue : les sciences appliquées, de l’ingénieur et sociales, dont la densité moyenne de citations est faible (Low FCSm). Dans cette configuration, on prend l’exemple d’une unité de recherche travaillant dans un champ où le taux de citation est donc en général plutôt modéré.
Supposons – pour renforcer le trait de la démonstration – que cette unité publie dans les meilleures revues de ce champ ; elle obtient en outre, par rapport aux autres institutions du même type, les meilleurs taux de citation (CPP).
- au « niveau du sol », ou sur la surface plane du schéma, le nombre et la densité des petits cercles – qui représentent les publications considérées en rapport avec le taux de citations du champ auquel elles appartiennent – sont faibles
- sur ce même plan, on a le FCSm corrélé aux petits cercles. Il s’agit du taux de citations propre au champ disciplinaire proprement dit (plus exactement, comme dit plus haut : le nombre moyen de citations par articles publiés dans toutes les revues de chacun des champs disciplinaires dans lesquels l’institution est active). Il est représenté par un cercle qui inclut les deux cylindres qui suivent
- On notera que le diamètre des cercles (tant ceux qui représentent les publications que celui-ci qui symbolise le FCSm) n’a en soi aucune signification particulière, ni de taille ni de poids. Ces cercles ne servent qu’à identifier ces concepts sur le graphique
- un premier cylindre (donc une figure circulaire mais en 3D, en élévation) d’un diamètre inférieur au cercle du FCSm : c’est le JCSm (on a mentionné dans cet exemple les meilleures revues, d’où l’élévation relativement haute)
- dans lequel est encastré un deuxième cylindre, d’un diamètre inférieur au précédent et plus haut : le CPP (on a mentionné dans cet exemple les meilleurs taux de citations, d’où l’élévation relativement haute aussi)
- couleur rouge : la recherche fondamentale du champ biomédical à forte densité de citations. Soulignons que la différence primordiale avec le champ bleu réside dans le caractère élevé de cette densité (High FCSm).
Trois caractéristiques principales sont inversées :
- au « niveau du sol », ou sur la surface plane du schéma, le nombre et la densité des petits cercles, corrélés au taux de citations propre au champ, sont élevés
- le cercle figurant le FCSm ne varie pas puisque son diamètre n’est pas significatif
- un premier cylindre (le JCSm) qui part en profondeur et non pas en hauteur
- un deuxième cylindre (le CPP), également descendant, mais proportionnellement moins long que son homologue bleu
La différence de densité, discriminante entre les deux domaines, peut aller jusqu’à des écarts de l’ordre de 20
Plus le FCSm est dense (high) et plus les caractéristiques subséquentes (JCSm et CPP) sont faibles (low). Ce n’est pas qu’il y ait, dans le domaine rouge, peu de publications ou de citations, c’est qu’il y en a au contraire tellement qu’elles sont « diluées ». La taille du CPP est, dans ce domaine, moindre que dans le bleu. Mais les cercles rouges qui reflètent la forte densité des publications du champ sont plus visibles ; ce n’est là cependant qu’un effet de nombre qui accroît la dilution du JCSm et du CPP.
A l’inverse, dans le cercle bleu, les cercles sont moins nombreux et plus distants, mais cette faible densité n’est qu’apparence : elle ne reflète en aucune manière un faible niveau qualitatif. Nous parlions, dans le cas précédent, d’un effet de nombre. Alors que, dans le cas présent, la qualité est bien là et ce sont précisément les indicateurs du classement alternatif de Leiden qui doivent la révéler.
On voit donc l’importance du FCSm. Celui-ci peut varier de 3 à 9, par exemple, en fonction de la dominante disciplinaire d’un organisme. S’il s’agit d’institutions focalisées sur les sciences de l’ingénieur, leur taux de citations est extrêmement modéré, à l’inverse de celles qui ont une dominante biomédicale. L’évaluation globale d’une institution comportant une variété de départements s’en ressent, bien évidemment.
Etendue de la fenêtre d’évaluation
On ne peut certes pas attendre trop longtemps, au niveau administratif, pour évaluer. Cependant, la période sur laquelle court l’évaluation doit être impérativement modulée en fonction des disciplines. En physique, les sommets de nombres de citations apparaissent au bout de 2 à 3 ans. Vis-à-vis de cette discipline, une fenêtre de 4 ans peut sembler raisonnablement adéquate.
En sociologie, le nombre de citations est sensiblement plus bas, leur densité est moindre et 7 à 8 ans peuvent être nécessaires à l’obtention d’un nombre notable de citations.
D’où l’inadéquation de l’Impact factor classique conçu sur deux ans, tant par rapport à la Physique qu’à la Sociologie. Il ne s’agit là que de deux exemples susceptibles de représenter d’autres expressions de cette inadéquation du facteur d’impact classique dans d’autres champs disciplinaires.
Filtres
Plusieurs champs d’interrogation apparaissent sur la fenêtre de requête du site du classement.
Nous nous proposons de commenter trois d’entre eux, relativement originaux.
Stabilité d’intervalles
L’indicateur de stabilité d’intervalles (Stability intervals) met en évidence d’éventuelles fluctuations notoires dans les ensembles d’articles publiés par une entité d’une année sur l’autre. L’exemple de l’article exceptionnel de Göttingen susmentionné fait ainsi apparaître un écart important de ce type, matérialisé graphiquement par une ligne dont la largeur est proportionnelle à l’ « anomalie » ainsi détectée. Son affichage est actif lorsque la requête portant sur l’impact du MNCS fait activer la fonction Show stability intervals proposée dans la fenêtre d’interrogation.
Taille vs. Nombre d’institutions
Envisageons la taille des institutions (Normalize for university size) et la taille du corpus analysé (Number of universities ; 50, 100, 200, 300, 400 + l’option All countries = 500). Prenons un exemple particulièrement significatif des variations générées par les variantes de leur combinaison. Lorsqu’on limite l’affichage aux cinquante premières universités européennes « par la taille », alors l’EPFL (Ecole polytechnique fédérale de Lausanne) n’apparaît pas. Lorsque l’échantillon s’étend à cent, incluant donc des unités de taille plus modeste, la même institution se retrouve en première position[7]. On ne saurait trop insister sur l’importance capitale de cette « mutation ». A première vue paradoxale, elle correspond en fait à une évidence statistique. C’est le facteur qualitatif qui l’emporte dans le second cas sur le quantitatif de la taille. Celui-ci recule ou se « dilue » dans un plus grand nombre d’unités analysées. Cette variable, qui ressort d’une modalité de calcul parmi d’autres, met en valeur le rôle particulièrement bénéfique que joue ce classement en vue d’assigner à chacun, en quelque sorte, « le rang qui lui est dû ».
Ecarts géographiques en collaboration
Existe également un facteur de distanciation géographique. Elle est en moyenne de 2 à 300 km pour les organismes européens. En Australie, la collaboration implique évidemment des sollicitations beaucoup plus lointaines. Ce facteur est aussi visible dans des tableaux spécifiques. A cet effet, on sélectionne « Collaboration » dans le champ d’interrogation Dimension of scientific performance et « MGCD – Mean Geographical Collaboration Distance » ou bien « PP (>1000 km) » dans le champ Rank universities based on...
La présence des universités nord-américaines dans les parties hautes des classements mondiaux est quasi généralisée et constante. Il ne s’agit pas seulement de leur excellence propre, mais aussi du fait que les entités géographiquement situées hors de ce champ territorial ont naturellement tendance à citer les organismes états-uniens pour des raisons de prestige. De plus, l’opinion répandue selon laquelle les Américains ne s’intéresseraient qu’à leurs propres champs de recherche, est dénuée de fondement. Un flux interactif de citations est en fait constaté dans les publications américaines vis-à-vis des européennes ou des entités situées dans les pays dits « émergents ». De plus, ces derniers ont tendance à générer un flux migratoire de chercheurs vers les U.S.A. plutôt que vers l’Europe, et plus particulièrement l’Allemagne ou la France, ne serait-ce que pour des raisons linguistiques ; ce qui nous renvoie aux modalités de classement avec ou sans les publications en langues française ou allemande.
Analyse de la production des unités de recherche
En vue d’obtenir de l’information sur le profil d’une institution :
- soit on la puise directement auprès des départements
- soit on caractérise ce profil en fonction des champs disciplinaires
Dans le premier cas, c’est du bottom-up, alimentation de type input data, les chercheurs doivent faire remonter l’information. Dans le second cas, le domaine disciplinaire s’impose d’en haut, en quelque sorte, à l’université, et c’est du top-down. Ce sont les Subject Categories du Web of Science qui s’imposent. Par là, aucune information n’est requise de la part de l’administration universitaire, une exploitation intelligente des données de Thomson s’y substitue (à condition, bien sûr, que les données soient nettoyées – clean data – tâche souvent considérable dont l’administration peut rarement se dispenser).
Prenons l’exemple de l’analyse d’une unité de recherche. Le laboratoire de Radiologie de Leiden est ici considéré sur la période 1997-2009.
La ligne chronologique est tuilée avec superposition d’années : 1997-2000 / 1998-2001 / 1999-2002…
Sont pris en compte :
- le nombre total de publications
- le nombre total de citations (en soi pas forcément très intéressant)
- le CPP
- le Pnc, c’est-à-dire le pourcentage de publications non citées : en moyenne 30 à 40 % sur une période de 4 ans. Si l’on considère une période plus longue, ici 1997-2009, la proportion est réduite à 17%. Ainsi, même dans le domaine biomédical, certains papiers nécessitent beaucoup de temps avant d’être cités, parfois jusqu’à 8-10 ans. Ce sont en quelque sorte des sleeping beauties.
- le JCSm et le FCSm
- le rapport entre ces deux indicateurs et le CPP
- le pourcentage d’auto-citations
Il peut y avoir des changements de domaines. Ainsi le Département de Radiologie peut-il être amené à publier en Pathologie ou par la suite en Oncologie et bien sûr en Radiologie proprement dite. Il s’ensuit un mélange des domaines de publication et donc des journaux. De ce fait, les valeurs du FCSm et du JCSm changent également. D’où la nécessité de pondérer et normaliser.
Le rapport CPP/FCSm gravite autour d’une valeur de référence mondiale égale à 1.
1,2 est significativement au-dessus de la moyenne, l’approche de 2 équivaut à un très bon département.
L’auto-citation suit un parcours relativement identique à celui des « non-cités ». Son taux est plus élevé sur le court terme que sur le long. Ce qui signifie que les auteurs ont tendance à cesser de se citer eux-mêmes avant de cesser de citer les autres.
On peut comparer la courbe des CPP/FCSm suivie par 2 unités de recherche au sein de ce Département de Radiologie.
Un histogramme (Dia 20) montre une diversité de disciplines (correspondant à 17 Subject categories du Web of Science) dans lesquelles ce département publie. C’est un schéma classique de « Research profile ».
En abscisse figure le nombre de publications par discipline par segments de 5 représentatifs de leur proportion en pourcentage. La discipline qui engrange le plus grand nombre de publications est Radiology, nuclear medicine & medical imaging avec 30 articles. On saisit alors en séquence les 16 autres catégories de sujet dans l’ordre décroissant du nombre de publications.
En ordonnée, on range les valeurs numériques du rapport CPP/FCSm. Les barres de l’histogramme apparaissent en 3 couleurs qui correspondent à 3 groupes d’impact (faible, moyen, élevé / blanc, rayé, noir). Le rapport CPP/FCSm le plus élevé équivaut à 4,02 ; il appartient au domaine General & internal Medicine et ne dépasse pas 3 % des publications. La discipline qui détenait 30 articles n’a, sous ce rapport, qu’une valeur bien moindre : 1,63.
Un autre graphique (Dia 21), relatif au Département de Neurosciences, montre le rapport CPP/FCSm sur deux colonnes :
- d’un côté ce rapport pour l’output dans 5 catégories de sujet du Web of Science
- de l’autre ce même rapport pour l’impact de ces outputs sur 20 catégories (dont les 5 d’origine) 4 ans après la publication. Parmi les 15 autres catégories impactées, certaines enregistrent un score dépassant en pourcentage les 5 catégories de référence telles qu’affichées en première colonne (ex. : pharmacologie).
Cela démontre bien la transversalité de l’impact des publications hors du champ présumé optimal des revues initialement ciblées.
Problématique de la langue
A ces nuances disciplinaires s’ajoute le phénomène linguistique, avec le taux de publications en langues française et allemande. Ces deux langues conviennent mieux, dans leur aire géographique d’origine, à une population de doctorants, de praticiens et d’ingénieurs. Aux premiers parce qu’il s’agit d’un diplôme national (bien qu’en France, par exemple, les thèses rédigées en anglais soient de plus en plus nombreuses), aux autres parce qu’ils sont impliqués dans une problématique de performance socio-économique dont l’aspect international n’est pas forcément prioritaire.
Le rôle de la langue anglaise est discriminant. Le classement de Leiden propose des classements différenciés pour les deux secteurs francophone et germanophone. Par exemple, si l’on ne tient pas compte des publications en langue française, les universités françaises remontent dans le classement. Des fleurons de l’université française perdent des points si l’on comptabilise les articles en français.
Ce type de requête est obtenu en cochant la case Leave out non-English language publications.
Dans la perspective d’une recherche sur la littérature scientifique des pays émergents, on notera que Scopus couvre bien la littérature brésilienne et chinoise. De ce fait, les pays concernés en font l’acquisition mais doivent convenir à certains égards que leurs taux de citations restent singulièrement faibles.
Cartographie
La cartographie est un élément dérivé de la bibliométrie qui permet de doter celle-ci d’une valeur ajoutée très importante en regard de l’aspect basique et purement comptable des citations et de l’impact qui en dérive sans nuances.
Clusters de journaux
Comme on l’a vu, il existe une différence de nature entre une catégorie de sujet présumée optimale par une équipe publiante (que celle-ci est instinctivement incitée à cibler pour soumettre un article) et de tout autres catégories dont relèveront les journaux qui, en réalité, le citeront. Ainsi trouvera-t-on des articles sur le cancer de la peau dans des revues de dermatologie et pas seulement dans des revues sur le cancer ; ou bien des articles sur le cancer dans Nature. Il est clair que les facteurs d’impact dans les catégories directement rattachées au cancer sont sans commune mesure avec ceux de la catégorie Dermatology. De même, Nature relève de la catégorie « multidiscipinaire » et, bien évidemment, pas spécifiquement de l’oncologie. Il est indispensable, dans ce cas, de modifier les rattachements d’articles cités dans ces revues multidisciplinaires à des catégories spécifiques ; travail minutieux et long.
Des liens triangulaires entre articles, revues et champs seront cartographiés, applicables à toute entité institutionnelle analysable. La disposition géométrique des clusters, la topologie des points et des disciplines, ne sont pas dues à une intervention humaine arbitraire. Elles sont générées par le flux des citations.
On peut aussi tracer des cartes de concepts[8]. Cela permet de définir l’importance relative de tel ou tel thème par rapport à un environnement géographique donné. Exemple : la coexistence, dans la période 2006-2008, de « governance » , « housing market » et « price », est significative de la crise américaine de l’immobilier et du logement.
Les mêmes thèmes sont transposés sous l’apparence de plusieurs genres de graphismes, somme toute assez classiques dans les modèles en vigueur de ce type : cercles colorés de taille variable en fonction de l’importance du thème ou bien « planisphère » sur lequel les concepts correspondent à des étendues colorées de dimension et d’intensité tonale graduées. L’autre intérêt que présente ce genre d’application est la séquence « filmique » des cartes sur plusieurs années où l’on suit l’évolution d’une grappe de concepts (Dia 35).
Fondamental et Appliqué
De nombreux champs disciplinaires sont caractérisés par une double approche. Le secteur médical est une illustration typique de ce phénomène. Ainsi, en neurochirurgie, la plupart des articles sont publiés dans le champ de la neurologie clinique. Or, paradoxalement, ce champ de la neurologie clinique est dominé par la recherche fondamentale et non par des articles publiés par des chirurgiens. Ceux-ci sont systématiquement moins cités que ceux de la recherche fondamentale. Cette remarque incite les bibliomètres de Leiden à faire des investigations sur les variations de densité de citations à l’intérieur d’un même champ et non plus en comparant plusieurs champs. Même observation vis-à-vis de la chirurgie cardio-vasculaire, entre clinique et recherche. Dans les deux cas, la couleur bleue représente un faible taux de citation, par opposition au rouge qui est plutôt dévolu aux chercheurs proprement dits (intensément cités) et non aux chirurgiens[9].
On peut donc être amené à travailler dans une spécialité qui draine moins de citations que la discipline englobante.
Une normalisation par la moyenne sur l’ensemble du champ ne rend pas compte de ces nuances.
Le benchmarking
Le centre CWTS, concepteur du classement de Leiden, effectue également à la demande des opérations de benchmarking spécifiques sur 30 champs disciplinaires jugés essentiels. Une comparaison est effectuée, champ par champ, sur dix ans, entre un organisme cible et 20 autres dont l’activité est apparentée. Cela permet à une entité de se comparer en termes d’impact inférieur, équivalent ou supérieur vis-à-vis des vingt autres, champ par champ, sur dix ans. Les paramètres varient en fonction de l’output scientifique, de la taille et de l’impact généré en proportion. La langue de publication est bien entendu prise en considération, tout autant que la taille et la discipline et ses usages associés en matière de publication. Les taux peuvent varier aussi en fonction de la collaboration éventuelle de l’organisme cible avec les organismes de comparaison. Enfin, les facteurs de type MNCS ou Top 10% peuvent cohabiter avec du compte de présence ou fractionnaire.
Le rôle des comptes de présence d’une part, et fractionnaire d’autre part[10], est en effet discriminant. En mode fractionnaire, par exemple, des institutions axées sur les sciences de l’ingénieur sont très bien classées : en effet, leurs références bibliographiques ne sont généralement assorties que d’une seule ligne d’adresse, la leur. Ils ne pâtissent donc pas du fractionnement très fréquent et handicapant dans les grandes universités qui co-écrivent avec d’autres, spécialement dans les domaine du « biomédical », de la chimie et de la physique (notamment dans le sous-domaine de l’astronomie).
Conclusion
Ainsi que nous l’avions spécifié en introduction, le classement de Leiden n’a aucunement l’ambition de se substituer à celui de Shanghai ni à quelque autre du même type.
Il se veut un terrain d’étude, un laboratoire d’analyse statistique dont le travail de développement est permanent. L’équipe du CWTS veut simplement rappeler qu’il existe « d’autres manières de voir » en bibliométrie. Elle n’est certes pas la seule à viser un tel objectif (par exemple, des institutions françaises se sont dotées depuis environ dix ans, parfois plus, d’une cellule spécialisée qui œuvre dans le même sens). Sa mission est néanmoins exemplaire. Il revient à Ton Van Raan et à ses collaborateurs le mérite d’avoir mis au point un environnement de développement propice à la réflexion dans le domaine de la caractérisation et de l’évaluation. Il appartient à ce que nous conviendrions d’appeler « l’école flamande » qui, de Leyde[11] à Louvain[12] en passant par Anvers[13], insuffle un esprit nouveau à la bibliométrie.
[2] Professeur émérite, spécialisé en scientométrie (Quantitative Studies of Science), il effectue régulièrement des tournées de conférences internationales sur ce sujet, à l’image de cette réunion de l’Atelier Bibliométrie de l’URFIST de Paris
[4] Sur cette problématique du « ratio of sums » versus « sums of ratios », voir un exemple concret, particulièrement explicite, appliqué à un tout autre domaine sous :
http://www.pep-net.org/fileadmin/medias/pdf/files_events/5th_ethiopia/Razzaque.pdf en haut de la page 8
[5] Sheldrick, G. M. A short history of SHELX (2008). Acta Cryst. A64, 112-122.
[6] Sur cette question des deux MNCS, voir la publication du CWTS de Leiden :
[7] Paramètres de la requête sur le site du classement 2011-2012: Regions Europe Country All countries Number of universities 50 puis 100 largest Dimension of scientific performance Impact Rank universities based on PP (Top 10%) – Cocher toutes les cases présentes.
[8] Le CWTS de Leiden utilise à cet effet le système VOS Viewer téléchargeable gratuitement sous : http://www.vosviewer.com/
[9] Une remarque identique peut être mentionnée vis-à-vis de la psychologie, entre chercheurs et praticiens
[10] Sur les notions de comptes de présence et fractionnaire, cf. notamment la page 4 de
www.obs-ost.fr/fileadmin/medias/tx_ostdocuments/Memento_operateursP150Vagues2008_OST.pdf
[11] Où travaille également Henk F. Moed, très actif dans le domaine : http://www.cwts.nl/hm/moed_hf_cv_20111121.pdf
[12] Avec notamment les travaux de Wolfgang Glänzel : https://lirias.kuleuven.be/cv?u=U0039966
[13] Mentionnons la conception du facteur G, par Leo Egghe http://doclib.uhasselt.be/dspace/bitstream/1942/981/1/theory%20&%20practice.pdf
mis en valeur par le rapport de l’Académie des Sciences (France) du 17 janvier 2011 Du bon usage de la bibliométrie pour l'évaluation individuelle des chercheurs, page 21