lundi 30 novembre 2009

Tenurometer: un concurrent pour Publish or Perish

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 30/11/09

Jean Kempf signalait, la semaine dernière, sur la liste "revues-shs" la naissance d'un logiciel concurrent au Publish or Perish de Anne-Wil Hartzing: Tenurometer, qui fonctionne comme un module de Firefox. Il permet, en utilisant Google Scholar, de produire les index H et G de chercheurs, et de compter leurs publications référencées.

Selon les "inventeurs" du programme, Tenurometer a de belles perspectives:

"There is a twist. By using Tenurometer you help tag authors and
contribute to a social database of annotations, associating authors, papers, and disciplines. We plan to make this data publicly available for research purposes. All you do is use Tenurometer for your own purposes, and submit one or more discipline tags when you query. Statistics from the annotations are available on the Tenurometer website.
In addition to providing various established impact measures such as the h-index, Tenurometer leverages the statistics collected from user annotations to make it possible for the first time to compute the "universal h-index" (Radicchi  & al, PNAS 2008). This measure is designed to quantitatively compare the impact of authors in different disciplines, with different citation patterns. While citation analysis has its well-known limitations and must be used with care, the universal h-index and its Tenurometer implementation may represent an important step toward meaningful comparative evaluation of research impact across diverse disciplines in science, the social sciences, arts and humanities.
"

Cette multiplication des "outils" bibliométriques, simples à utiliser en apparence, appelle à réfléchir sur leur aptitude à répondre à des attentes déjà bien incorporées par une partie de la communauté scientifique. Comme le fait remarquer Yves Gingras dans différentes interventions (voir en particulier: «La fièvre de l'évaluation de la recherche. Du mauvais usage de faux indicateurs», que l'on peut télécharger ici): "any number beat no number", et s'il faut démontrer l'illogisme et le caratère contre-productif des indices actuellement utilisés, on ne peut faire l'économie d'une réflexion plus poussée sur la possibilité de construire des indicateurs plus intelligents. Il ne s'agit pas défendre ici la primauté d'une évaluation quantitative, qui n'a aucun sens par elle-même, mais d'envisager une réponse argumentée, qui consiste à rendre aux indicateurs leur valeur d'outils potentiels dans un cadre d'évaluation plus large (voir à ce sujet les usages que les astrophysiciens font des indicateurs bibliométriques tels que les a présentés Yves Langevin, lors de la journée "Evaluer, dévaluer, réévaluer l'évaluation" du 30 novembre 2007). L'un des moyens d'échapper à cette évaluation "automatique" passe peut être par l'appropriation d'un phénomène qui semble difficile à ignorer, sous forme d'indicateurs dont la production et l'usage seraient contrôlés par les pairs, dans le cadre d'évaluations contradictoires et collègiales.


 
 

Ce que vous pouvez faire à partir de cette page :