Outils bibliométriques pour la validation de la qualité d'une revue

Avant d'y soumettre un article à une revue, qu'elle soit en libre-accès ou non, il est impotant d'en valider la qualité et la respectabilité car une CV remplie de publications douteuses peut être très dommageable pour un jeune chercheur.

Facteur d'impact (FI): Bien qu'imparfaite (voire même controversée dans certains milieux), cette mesure (ou métrique) est la plus connue et la plus fréquemment utilisée, du moins en sciences exactes, entre autre pour l'évaluation de dossiers (embauche, financement, bourses, etc.). En parallèle, elle peut évidemment aussi être utilisée pour choisir une revue où publier son article. En gros, le FI est le nombre moyen de citations aux articles d'une revue deux ans après leur publication, établissant ainsi la valeur moyenne d'un article publié dans la revue en cause. Il s'agit d'une mesure propriétaire (i.e. propriété d'une entreprise privée) qui date de la fin des années 1940 et dont les données sont disponibles via le Journal Citation Report.
http://jcr.incites.thomsonreuters.com/JCRJournalHomeAction.action

Attention! Depuis quelques années, de faux facteurs d'impact circulent sur Internet, qui sont le fait d'éditeurs prédateurs cherchant à se donner une apparence de crédibilité. Ils ne se fondent sur aucune statistique ou analyse que ce soit, leur objectif n'étant que de faire paraitre respectable des publications prédatrices. Or l'habit ne fait pas le moine.

Ils portent généralement des noms quasi similaires à "facteurs d'impact", tel que Universal Impact Factor (UIF), Global Impact Factor (GIF) ou Citefactor. Leur mention dans un dossier (demande de bourses, application, etc.) peut s'avérer très dommageable et leur usage est à proscrire absolument.

Pour en savoir plus: 10.14661/2015.1069-1072

Il existe néanmoins plusieurs autres métriques similaires ou rapprochées

Eigenfactor: L'Eigenfactor a été développé par des chercheurs de University of Washington au début des années 2000. Tout comme dans le facteur d'impact, les revues sont classées selon le nombre de citations qui leur est accordé, mais la valeur des citations provenant des revues de haut niveau est supérieure à celles provenant de revues moins connues.
http://www.eigenfactor.org/projects/journalRank/journalsearch.php

Article influence score: L'Article Influence Score est une métrique priopriétaire (Thomson Reuters). Il cherche à déterminer l'influence moyenne des articles d'une revue au cours des cinq premières années suivant leur publication. En gros, un score supérieur à 1,00 indique que chaque article du journal a une influence supérieure à la moyenne. Un score inférieur à 1,00 indique que chaque article du journal a une influence inférieure à la moyenne. 
http://jcr.incites.thomsonreuters.com/JCRJournalHomeAction.action

CiteScore: Comparable au Facteur d'impact mais sur une base de trois ans de citations au lieu de deux, et limité exclusivement aux revues couvertes par la base de données Scopus d'Elsevier, ce qui donne néanmoins une couverture plus vaste de la littérature que celle du Facteur d'impact, qui est nettement plus restrictif. Accessible via Scopus seulement.
https://www.scopus.com/sources.uri?zone=TopNavBar&origin=sbrowse

SNIP : Source Normalized Impact per Paper. Une autre métrique propriétaire (Elsevier). Elle mesure les citations reçues par une revue mais en relation avec la moyenne attendues des citations reçues par les revues du même domaine. Cette approche diminue la distortion évidente entre domaines de recherche. Accessible via Scopus seulement.
https://www.scopus.com/sources.uri?zone=TopNavBar&origin=sbrowse

SJR : Scimago journal rank. Le SJR mesure le poids des citations reçues par une revue selon le sujet (domaine de recherche) et le prestige de la revue qui cite. Il s'agit donc en gros d'un assemblage entre le SNIP et le Eigenfactor.
http://www.scimagojr.com/

h-index: Initialement conçu pour tenter de mesurer la productivité et l'impact d'un chercheur, l'indice h peut aussi être appliqué à la productivité et l'impact d'une revue, d'un groupe de chercheurs, d'un département, d'une université, voire d'un pays. Il mesure le nombre de publications h ayant obtenu un nombre h de citations. Le classement h-index de revues est disponible à plusieurs endroits, dont GoogleScholar
https://scholar.google.ca/citations?view_op=top_venues&hl=fr
h-index

 

Quelques autres métriques sérieuses existent et pourraient avoir un certain intérêt pour valider la qualité d'une revue ou pour déterminer l'impact d'une publication. Par contre, leur diffusion est parfois plus restreinte. Par exemple

Altmetrics: Le petit dernier des métriques de crédibilité, Altmetrics compile toutes une grande famille de données plus ou moins reliéesn pour en faire un indice de classement (visualisation de l'article en différent formats, citations dans des commentaires, blogues, Wikipedia, twitter, Facebook et autres réseaux sociaux, inclusion dans des outils collaboratifs tel que Mendeley, CiteULike, citations classiques dans d'autres articles scientifiques, recommandations par des experts dans divers canaux, etc. Bien qu'Altmetrics soit surtout perçu comme une métrique pour les articles individuels, il peut s'appliquer aux personnes, aux revues, aux données, aux sites web, etc. L'indice se présente sous forme de badge en forme de  beigne coloré, chaque couleur étant associée à une source de citations. L'accès est sur abonnement seulement mais les données Altmetrics sont visibles partiellement ou non dans différents outils lorsque les éditeurs de ces outils ont des ententes avec Altmetrics (ex: Scopus).