Bibliométrie: Indicateurs de performance des revues

Indicateurs bibliométriques associés à la notoriété des revues

Le présent guide traite des principaux indicateurs bibliométriques associés à la notoriété des revues, soit le facteur d’impact (FI), le CiteScore, le SCImago Journal Rank (SJR), le Source Normalized Impact per Paper (SNIP), l’Eigenfactor, l’Article Influence (AI), l’indice h5 et la médiane h5 (consulter les onglets respectifs pour les détails. Pour un ouvrage général sur les indicateurs bibliométriques, consulter Larivière et Sugimoto (2018). Le lecteur est également encouragé à prendre connaissance de la Déclaration de San Francisco sur l'évaluation de la recherche (DORA), déclaration signée en novembre 2019 par les cinq principaux bailleurs de fonds de la recherche au Canada, et qui aborde le sujet du bon usage des indicateurs de performance des revues.

Un tableau récapitulatif des différentes caractéristiques de ces indicateurs se retrouve sous le dernier onglet de ce guide.

Le plus ancien de ces indicateurs, le FI, inventé par Eugene Garfield, fondateur en 1959 de « Institute for Science Information » (ISI), avait pour but de guider les bibliothécaires de l’ISI quant au choix des revues à inclure dans leur base de données. Depuis sa création, plusieurs autres indicateurs ont vu le jour, certains visant à corriger des lacunes associées au FI, d’autres résultants probablement plus d’une lutte de pouvoir dans le milieu très compétitif de l’édition savante entre grandes corporations (Clarivate Analytics pour le FI et Elsevier pour le CiteScore). Au fil des ans, l’usage du FI, et maintenant de toutes ses formes alternatives, a dérivé de sa fonction initiale et l’on observe que ces indicateurs sont souvent employés comme outil de marketing par les revues en leur conférant un statut de qualité. Plus important encore, ces données sont utilisées à tort dans l’évaluation d’articles ou de chercheurs, et non pas de revues comme il se doit (Gingras, 2014). Cette dérive se base sur la présomption fausse qu’un article publié dans une revue possédant un FI, ou son équivalent, élevé, est forcément de meilleure qualité qu’un autre paru dans une revue moins bien cotée.

Il est important de noter que pour l’ensemble de ces indicateurs, le nombre de citations attribuées aux articles des revues est un facteur déterminant dans leur calcul respectif. Bien évidemment, le nombre de citations potentielles pouvant être obtenues pour un périodique donné variera en fonction de plusieurs paramètres. Entre autres, ceux-ci incluent la langue (p. ex., les revues rédigées en français se trouvent pénalisées dû à leur faible lectorat et indexation comparativement à l’anglais), la discipline (p. ex., les humanités où les livres sont fréquemment cités — mais dont les citations ne sont pas comptabilisées dans le calcul des indicateurs bibliométriques- sont pénalisées par rapport aux sciences biomédicales où l’on cite plutôt des articles), le bassin de chercheurs (une revue dédiée à un domaine de recherche où l’on ne compte que peu de chercheurs recevra moins de citations et sera donc défavorisée dans le calcul de son indice bibliométrique), les pratiques de citation (la longueur des bibliographies, et donc des citations fournies, varient en fonction des disciplines; p. ex., en mathématiques on cite peu comparativement aux sciences biomédicales), etc.

Finalement, le nombre de citations attribuées à une publication varie en fonction de l’outil employé pour les repérer. Les principaux outils sont Web of Science (WoS), Scopus et Google Scholar. Les indicateurs bibliométriques considérés ici ne tirent pas tous leurs données de citations de la même source. Pour les indicateurs FI, Eigenfactor et AI, les citations sont tirées de la base de données WoS; la détermination du CiteScore, du SJR et du SNIP repose sur les données de citations de Scopus; le calcul de l’indice h5 et de la médiane h5 est basé quant à lui sur les données citationnelles de Google Scholar. Il s’ensuit qu’il ne sera pas possible d’obtenir le FI d’une revue qui n’est pas indexée dans WoS (souvent le cas pour les revues de langue française) ou bien le CiteScore d’une revue non indexée dans Scopus.

De ces considérations, il découle qu’il faut être prudent lors de l’utilisation des indicateurs bibliométriques reliés au prestige des revues et s’assurer de bien comprendre les divers éléments impliqués dans leur détermination. De façon générale, on évitera de comparer entre elles les données bibliométriques de revues appartenant à des disciplines différentes ou rédigées dans des langues qui ne sont pas les mêmes.

Référence

Gingras, Y. (2014). Les dérives de l'évaluation de la recherche: Du bon usage de la bibliométrie. Paris : Raisons d'agir.

Larivière, V. et Sugimoto, C. R. (2018). Mesurer la science. Montréal : Les Presses de l'Université de Montréal. Récupéré de https://pum.umontreal.ca/catalogue/mesurer-la-science