lundi 30 novembre 2009

Tenurometer: un concurrent pour Publish or Perish

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 30/11/09

Jean Kempf signalait, la semaine dernière, sur la liste "revues-shs" la naissance d'un logiciel concurrent au Publish or Perish de Anne-Wil Hartzing: Tenurometer, qui fonctionne comme un module de Firefox. Il permet, en utilisant Google Scholar, de produire les index H et G de chercheurs, et de compter leurs publications référencées.

Selon les "inventeurs" du programme, Tenurometer a de belles perspectives:

"There is a twist. By using Tenurometer you help tag authors and
contribute to a social database of annotations, associating authors, papers, and disciplines. We plan to make this data publicly available for research purposes. All you do is use Tenurometer for your own purposes, and submit one or more discipline tags when you query. Statistics from the annotations are available on the Tenurometer website.
In addition to providing various established impact measures such as the h-index, Tenurometer leverages the statistics collected from user annotations to make it possible for the first time to compute the "universal h-index" (Radicchi  & al, PNAS 2008). This measure is designed to quantitatively compare the impact of authors in different disciplines, with different citation patterns. While citation analysis has its well-known limitations and must be used with care, the universal h-index and its Tenurometer implementation may represent an important step toward meaningful comparative evaluation of research impact across diverse disciplines in science, the social sciences, arts and humanities.
"

Cette multiplication des "outils" bibliométriques, simples à utiliser en apparence, appelle à réfléchir sur leur aptitude à répondre à des attentes déjà bien incorporées par une partie de la communauté scientifique. Comme le fait remarquer Yves Gingras dans différentes interventions (voir en particulier: «La fièvre de l'évaluation de la recherche. Du mauvais usage de faux indicateurs», que l'on peut télécharger ici): "any number beat no number", et s'il faut démontrer l'illogisme et le caratère contre-productif des indices actuellement utilisés, on ne peut faire l'économie d'une réflexion plus poussée sur la possibilité de construire des indicateurs plus intelligents. Il ne s'agit pas défendre ici la primauté d'une évaluation quantitative, qui n'a aucun sens par elle-même, mais d'envisager une réponse argumentée, qui consiste à rendre aux indicateurs leur valeur d'outils potentiels dans un cadre d'évaluation plus large (voir à ce sujet les usages que les astrophysiciens font des indicateurs bibliométriques tels que les a présentés Yves Langevin, lors de la journée "Evaluer, dévaluer, réévaluer l'évaluation" du 30 novembre 2007). L'un des moyens d'échapper à cette évaluation "automatique" passe peut être par l'appropriation d'un phénomène qui semble difficile à ignorer, sous forme d'indicateurs dont la production et l'usage seraient contrôlés par les pairs, dans le cadre d'évaluations contradictoires et collègiales.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Tenurometer: un concurrent pour Publish or Perish

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 30/11/09

Jean Kempf signalait, la semaine dernière, sur la liste "revues-shs" la naissance d'un logiciel concurrent au Publish or Perish de Anne-Wil Hartzing: Tenurometer, qui fonctionne comme un module de Firefox. Il permet, en utilisant Google Scholar, de produire les index H et G de chercheurs, et de compter leurs publications référencées.

Selon les "inventeurs" du programme, Tenurometer a de belles perspectives:

"There is a twist. By using Tenurometer you help tag authors and
contribute to a social database of annotations, associating authors, papers, and disciplines. We plan to make this data publicly available for research purposes. All you do is use Tenurometer for your own purposes, and submit one or more discipline tags when you query. Statistics from the annotations are available on the Tenurometer website.
In addition to providing various established impact measures such as the h-index, Tenurometer leverages the statistics collected from user annotations to make it possible for the first time to compute the "universal h-index" (Radicchi  & al, PNAS 2008). This measure is designed to quantitatively compare the impact of authors in different disciplines, with different citation patterns. While citation analysis has its well-known limitations and must be used with care, the universal h-index and its Tenurometer implementation may represent an important step toward meaningful comparative evaluation of research impact across diverse disciplines in science, the social sciences, arts and humanities.
"

Cette multiplication des "outils" bibliométriques, simples à utiliser en apparence, appelle à réfléchir sur leur aptitude à répondre à des attentes déjà bien incorporées par une partie de la communauté scientifique. Comme le fait remarquer Yves Gingras dans différentes interventions (voir en particulier: «La fièvre de l'évaluation de la recherche. Du mauvais usage de faux indicateurs», que l'on peut télécharger ici): "any number beat no number", et s'il faut démontrer l'illogisme et le caratère contre-productif des indices actuellement utilisés, on ne peut faire l'économie d'une réflexion plus poussée sur la possibilité de construire des indicateurs plus intelligents. Il ne s'agit pas défendre ici la primauté d'une évaluation quantitative, qui n'a aucun sens par elle-même, mais d'envisager une réponse argumentée, qui consiste à rendre aux indicateurs leur valeur d'outils potentiels dans un cadre d'évaluation plus large (voir à ce sujet les usages que les astrophysiciens font des indicateurs bibliométriques tels que les a présentés Yves Langevin, lors de la journée "Evaluer, dévaluer, réévaluer l'évaluation" du 30 novembre 2007). L'un des moyens d'échapper à cette évaluation "automatique" passe peut être par l'appropriation d'un phénomène qui semble difficile à ignorer, sous forme d'indicateurs dont la production et l'usage seraient contrôlés par les pairs, dans le cadre d'évaluations contradictoires et collègiales.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

SCIMago Ranking

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 30/11/09

Scopus (banque de données bibliométrique de l'éditeur Elsevier) est également à l'origine d'un classement international des institutions de recherche et d'enseignement supérieur : SCImago Institutions Ranking. La particularité de ce classement est de découler entièrement des indicateurs bibliométriques produit par Scopus. Il est présenté dans le blog « global higher education », mais surtout envisagé à cette occasion comme un outil valable de mesure de l'efficacité des systèmes d'enseignement supérieur et de recherche.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

SCIMago Ranking

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 30/11/09

Scopus (banque de données bibliométrique de l'éditeur Elsevier) est également à l'origine d'un classement international des institutions de recherche et d'enseignement supérieur : SCImago Institutions Ranking. La particularité de ce classement est de découler entièrement des indicateurs bibliométriques produit par Scopus. Il est présenté dans le blog « global higher education », mais surtout envisagé à cette occasion comme un outil valable de mesure de l'efficacité des systèmes d'enseignement supérieur et de recherche.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

samedi 28 novembre 2009

Financer selon la performance (6)

 
 

Envoyé par io2a via Google Reader :

 
 

via Les blogs Educpros.fr de admin le 27/11/09

Conclusion des 5 chroniques sur le financement selon la performance. Personne et en particulier aucun enseignant-chercheur fonctionnaire ne peut être sérieusement contre un tel financement : les universités doivent optimiser les ressources attribuées par l'Etat pour atteindre les résultats les meilleurs en matière de taux de succès aux examens, de diminution des abandons sans diplôme, d'insertion professionnelle des diplômés. De plus, personne de sensé ne peut s'opposer au principe de l'évaluation qui estime la performance. Les principes de la LOLF : oui !

Que ces principes admissibles soient opérationnalisés chaque année dans la loi de finances par des programmes, des objectifs à atteindre et des indicateurs de performance : oui ! Encore faut-il que les objectifs soient atteignables, que les indicateurs de performance aient quelque chose à voir avec la réalité. Ce n'est pas le cas : les 3 indicateurs de la LOLF analysés dans ces chroniques (taux de diplômés du supérieur dans une classe d'âge, taux d'obtention de la licence en 3 ans, taux de cadres et de professions intermédiaires chez les diplômés du supérieur, 3 ans après leur sortie de formation initiale) ne tiennent pas du tout la route soit parce qu'ils sont trop ambitieux, soit parce qu'ils ne peuvent être calculés rigoureusement. La LOLF est ainsi dévoyée : il faut que les taux des indicateurs progressent toujours ! Pour atteindre un jour 100% ? Lire aussi la chronique, : "le PAP du PLF de la MIRES".

Trois autres points faibles de ce qui n'est, en définitive et hélas, qu'une idéologie du financement selon la performance. Les universités ne peuvent être concernées par les même taux de performance à atteindre pour la simple raison qu'elles n'ont pas toutes la même population étudiante et les mêmes ressources. Le financement sera-t-il un bonus ou un malus ? Pas de réponse. Et quelle sera l'importance du financement selon la performance par rapport à l'ensemble des financements d'Etat ? 2%, 10% ou 30 % ? Pas de réponse.

Le président d'université est une personne sensée. Il a compris que ce n'est pas demain la veille que son université sera financée selon la performance de ses formations. Il aurait cependant tort de ne pas tenter en interne un financement selon cette logique. Cela suppose d'avoir un outil (un observatoire) à même de calculer des indicateurs et d'en suivre l'évolution dans la durée. Trois indicateurs suffisent. 2 indicateurs de résultats pour chacun des diplômes : taux de succès en licence et en master (mise en place de suivis de cohortes d'entrants), conditions d'insertion professionnelle des diplômés à 18 mois (taux d'emploi, de répartition dans les différentes catégories socioprofessionnelles, de contrats stables, de salaire) ; ce qui suppose des enquêtes annuelles. Un indicateur de coût : le coût complet par étudiant par diplôme (ce qui suppose une comptabilité analytique).

Au vu des résultats des indicateurs, l'université doit récompenser la performance et sanctionner la contre-performance. Sanctionner = fermer les diplômes qui ont de manière récurrente des mauvais résultats ou des coûts trop élevés ; il faut en avoir le courage politique et ce serait d'ailleurs un moyen de freiner l'explosion de l'offre de formation.

Mais comment récompenser la performance ? Il est mieux de ne pas verser de primes aux individus ; la réussite est une oeuvre collective et il est malsain de créer des jalousies. Il faut une récompense collective qui assure la performance du diplôme dans la durée : financement d'une certification qualité externe, attribution d'un secrétariat plus étoffé, financement d'une campagne de communication, participation au financement d'une chaire d'excellence, financement sur contrat privé de professionnels payés au prix du marché et qui accroîtraient encore la performance (lire la note)… Il faut être honnête : les universités et les universitaires ne sont pas prêts à accepter cette logique de l'attribution de moyens additionnels selon la performance observée. "On ne déshabille pas Pierre pour habiller Paul, surtout quand Paul a déjà les moyens qui lui ont permis de réussir !".

Et paradoxe final : les diplômes performants (bons taux de succès aux examens et en insertion) n'ont, en fait, pas besoin d'être récompensés ! Le financement selon la performance ne les intéresse pas ! Ces formations sont relativement "riches" car, pour réussir, elles ont construit de solides et rémunérateurs partenariats avec les entreprises du ressort de leur diplôme. Elles accueillent des salariés en formation continue (5.000 euros de droits d'inscription), des étudiants en apprentissage (financement partiel du diplôme par le CFA de rattachement) ; elles perçoivent de la taxe d'apprentissage ; elles n'ont pas de difficultés à trouver des sponsors pour organiser des manifestations… Et paix des ménages oblige : les formations performantes acceptent qu'une partie de leurs "ressources propres" soit "mutualisée" au sein de l'université, soit transférée vers des formations nouvelles, vers les formations aux résultats moyens ou mauvais.

Pour l'enseignement supérieur et la recherche, en matière de formations supérieures, la LOLF est un échec. La stupidité des indicateurs et des objectifs à atteindre est contre-mobilisatrice pour le développement d'un mouvement qui, dans chaque université, devrait conduire à porter de plus en plus attention aux ressources utilisées et aux résultats atteints. Il ne faut pas gaspiller l'argent public !

Note. Tous les diplômes professionnels ont besoin d'enseignements en gestion de projet. Recruter un enseignant-chercheur titulaire en gestion ne sert à rien car celui-ci n'aura de cesse de fuir les diplômes professionnels pour n'enseigner que dans les diplômes de gestion de son UFR. Une observation de plus de 30 ans dans 3 universités différentes le prouve !


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Financer selon la performance (6)

 
 

Envoyé par io2a via Google Reader :

 
 

via Les blogs Educpros.fr de admin le 27/11/09

Conclusion des 5 chroniques sur le financement selon la performance. Personne et en particulier aucun enseignant-chercheur fonctionnaire ne peut être sérieusement contre un tel financement : les universités doivent optimiser les ressources attribuées par l'Etat pour atteindre les résultats les meilleurs en matière de taux de succès aux examens, de diminution des abandons sans diplôme, d'insertion professionnelle des diplômés. De plus, personne de sensé ne peut s'opposer au principe de l'évaluation qui estime la performance. Les principes de la LOLF : oui !

Que ces principes admissibles soient opérationnalisés chaque année dans la loi de finances par des programmes, des objectifs à atteindre et des indicateurs de performance : oui ! Encore faut-il que les objectifs soient atteignables, que les indicateurs de performance aient quelque chose à voir avec la réalité. Ce n'est pas le cas : les 3 indicateurs de la LOLF analysés dans ces chroniques (taux de diplômés du supérieur dans une classe d'âge, taux d'obtention de la licence en 3 ans, taux de cadres et de professions intermédiaires chez les diplômés du supérieur, 3 ans après leur sortie de formation initiale) ne tiennent pas du tout la route soit parce qu'ils sont trop ambitieux, soit parce qu'ils ne peuvent être calculés rigoureusement. La LOLF est ainsi dévoyée : il faut que les taux des indicateurs progressent toujours ! Pour atteindre un jour 100% ? Lire aussi la chronique, : "le PAP du PLF de la MIRES".

Trois autres points faibles de ce qui n'est, en définitive et hélas, qu'une idéologie du financement selon la performance. Les universités ne peuvent être concernées par les même taux de performance à atteindre pour la simple raison qu'elles n'ont pas toutes la même population étudiante et les mêmes ressources. Le financement sera-t-il un bonus ou un malus ? Pas de réponse. Et quelle sera l'importance du financement selon la performance par rapport à l'ensemble des financements d'Etat ? 2%, 10% ou 30 % ? Pas de réponse.

Le président d'université est une personne sensée. Il a compris que ce n'est pas demain la veille que son université sera financée selon la performance de ses formations. Il aurait cependant tort de ne pas tenter en interne un financement selon cette logique. Cela suppose d'avoir un outil (un observatoire) à même de calculer des indicateurs et d'en suivre l'évolution dans la durée. Trois indicateurs suffisent. 2 indicateurs de résultats pour chacun des diplômes : taux de succès en licence et en master (mise en place de suivis de cohortes d'entrants), conditions d'insertion professionnelle des diplômés à 18 mois (taux d'emploi, de répartition dans les différentes catégories socioprofessionnelles, de contrats stables, de salaire) ; ce qui suppose des enquêtes annuelles. Un indicateur de coût : le coût complet par étudiant par diplôme (ce qui suppose une comptabilité analytique).

Au vu des résultats des indicateurs, l'université doit récompenser la performance et sanctionner la contre-performance. Sanctionner = fermer les diplômes qui ont de manière récurrente des mauvais résultats ou des coûts trop élevés ; il faut en avoir le courage politique et ce serait d'ailleurs un moyen de freiner l'explosion de l'offre de formation.

Mais comment récompenser la performance ? Il est mieux de ne pas verser de primes aux individus ; la réussite est une oeuvre collective et il est malsain de créer des jalousies. Il faut une récompense collective qui assure la performance du diplôme dans la durée : financement d'une certification qualité externe, attribution d'un secrétariat plus étoffé, financement d'une campagne de communication, participation au financement d'une chaire d'excellence, financement sur contrat privé de professionnels payés au prix du marché et qui accroîtraient encore la performance (lire la note)… Il faut être honnête : les universités et les universitaires ne sont pas prêts à accepter cette logique de l'attribution de moyens additionnels selon la performance observée. "On ne déshabille pas Pierre pour habiller Paul, surtout quand Paul a déjà les moyens qui lui ont permis de réussir !".

Et paradoxe final : les diplômes performants (bons taux de succès aux examens et en insertion) n'ont, en fait, pas besoin d'être récompensés ! Le financement selon la performance ne les intéresse pas ! Ces formations sont relativement "riches" car, pour réussir, elles ont construit de solides et rémunérateurs partenariats avec les entreprises du ressort de leur diplôme. Elles accueillent des salariés en formation continue (5.000 euros de droits d'inscription), des étudiants en apprentissage (financement partiel du diplôme par le CFA de rattachement) ; elles perçoivent de la taxe d'apprentissage ; elles n'ont pas de difficultés à trouver des sponsors pour organiser des manifestations… Et paix des ménages oblige : les formations performantes acceptent qu'une partie de leurs "ressources propres" soit "mutualisée" au sein de l'université, soit transférée vers des formations nouvelles, vers les formations aux résultats moyens ou mauvais.

Pour l'enseignement supérieur et la recherche, en matière de formations supérieures, la LOLF est un échec. La stupidité des indicateurs et des objectifs à atteindre est contre-mobilisatrice pour le développement d'un mouvement qui, dans chaque université, devrait conduire à porter de plus en plus attention aux ressources utilisées et aux résultats atteints. Il ne faut pas gaspiller l'argent public !

Note. Tous les diplômes professionnels ont besoin d'enseignements en gestion de projet. Recruter un enseignant-chercheur titulaire en gestion ne sert à rien car celui-ci n'aura de cesse de fuir les diplômes professionnels pour n'enseigner que dans les diplômes de gestion de son UFR. Une observation de plus de 30 ans dans 3 universités différentes le prouve !


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

vendredi 27 novembre 2009

L’AERES et les revues (nouvel épisode)

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 27/11/09

La confrontation entre l'AERES et les communautés disciplinaires au sujet du classement des revues se poursuit. La publication sur le site de l'agence, le 14 octobre 2009, d'une nouvelle liste de revues de Psychologie – Ethologie – Ergonomie, alors même que les psychologues avaient exprimé à l'AERES leurs réserves quant à l'opération de classement en cours (voir le billet du 7 octobre dernier) a donné lieu à une prise de position de 5 membres de la 16e section du CNU. Ceux-ci, par une lettre adressée à JF Dainhaut et A Winter, déclarent refuser de participer aux expertises de l'AERES, tant que les listes de l'AERES se fonderont sur des critères bibliométriques, dommageables à la prise en compte de l'ensemble de la discipline.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

L’AERES et les revues (nouvel épisode)

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 27/11/09

La confrontation entre l'AERES et les communautés disciplinaires au sujet du classement des revues se poursuit. La publication sur le site de l'agence, le 14 octobre 2009, d'une nouvelle liste de revues de Psychologie – Ethologie – Ergonomie, alors même que les psychologues avaient exprimé à l'AERES leurs réserves quant à l'opération de classement en cours (voir le billet du 7 octobre dernier) a donné lieu à une prise de position de 5 membres de la 16e section du CNU. Ceux-ci, par une lettre adressée à JF Dainhaut et A Winter, déclarent refuser de participer aux expertises de l'AERES, tant que les listes de l'AERES se fonderont sur des critères bibliométriques, dommageables à la prise en compte de l'ensemble de la discipline.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Dossier de la VST (INRP)

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 26/11/09

Cet été, la Veille scientifique et technique de l'INRP a sorti un dossier: "Productivité et activité scientifique: avec quelles publications compter ?", sous la plume d'Olivier Rey. Il présente de façon très didactique les principaux éléments du débat et fait un point bibliographique très bienvenu.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Dossier de la VST (INRP)

 
 

Envoyé par io2a via Google Reader :

 
 

via Évaluation de la recherche en SHS de Emmanuelle Picard le 26/11/09

Cet été, la Veille scientifique et technique de l'INRP a sorti un dossier: "Productivité et activité scientifique: avec quelles publications compter ?", sous la plume d'Olivier Rey. Il présente de façon très didactique les principaux éléments du débat et fait un point bibliographique très bienvenu.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

jeudi 26 novembre 2009

Classement de Shanghaï 2009 (dossier) - Fabula

 
 

Envoyé par io2a via Google Reader :

 
 



Classement de Shanghaï 2009 (dossier)
Fabula
... Nian Cai Liu et Ying Cheng ont classé les universités en utilisant six critères qu'ils estiment "objectifs et facilement vérifiables" (bibliométrie, ...

et plus encore »

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Classement de Shanghaï 2009 (dossier) - Fabula

 
 

Envoyé par io2a via Google Reader :

 
 



Classement de Shanghaï 2009 (dossier)
Fabula
... Nian Cai Liu et Ying Cheng ont classé les universités en utilisant six critères qu'ils estiment "objectifs et facilement vérifiables" (bibliométrie, ...

et plus encore »

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

mercredi 25 novembre 2009

Encore les classements internationaux…

 
 

Envoyé par io2a via Google Reader :

 
 

via Hypothèses. Carnets de recherche en Sciences humaines de Emmanuelle Picard le 25/11/09

Posté dans : Évaluation de la recherche en SHS
Dans le cadre des entretiens "Jacques Cartier", une demi journée est consacrée à la question des classements internationaux des universités, le lundi 30 décembre. Y participeront Yves Gingras, Olivier Faron, Sandrine Garcia, Rolland Proulx, Yves Winkin. Présentation et programme disponibles sur le site.

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Encore les classements internationaux…

 
 

Envoyé par io2a via Google Reader :

 
 

via Hypothèses. Carnets de recherche en Sciences humaines de Emmanuelle Picard le 25/11/09

Posté dans : Évaluation de la recherche en SHS
Dans le cadre des entretiens "Jacques Cartier", une demi journée est consacrée à la question des classements internationaux des universités, le lundi 30 décembre. Y participeront Yves Gingras, Olivier Faron, Sandrine Garcia, Rolland Proulx, Yves Winkin. Présentation et programme disponibles sur le site.

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

L’évaluation en science politique (suite)

 
 

Envoyé par io2a via Google Reader :

 
 

via Hypothèses. Carnets de recherche en Sciences humaines de Emmanuelle Picard le 25/11/09

Posté dans : Évaluation de la recherche en SHS
"Dans le prolongement du Module organisé lors du Congrès de Grenoble en septembre 2009 et consacré à la présentation croisée des résultats de trois enquêtes collectives inédites visant à mieux comprendre les pratiques de publication des politistes français, l'AFSP vous invite à une table ronde permettant d'approfondir nos échanges et débats sur les procédures d'évaluation [...]

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Impact factor versus Journal Rank Indicator

 
 

Envoyé par io2a via Google Reader :

 
 

via Hypothèses. Carnets de recherche en Sciences humaines de Emmanuelle Picard le 25/11/09

Posté dans : Évaluation de la recherche en SHS
Dans un article publié dans la revue Psychologie française en septembre 2009 ("Le JCR facteur d'impact (IF) et le SCimago Journal Rank Indicator (SJR) des revues françaises: une étude comparative"), J. Schöpfel et H. Prost comparent l'efficacité des indicateurs liés à la hiérarchisation des revues du Web of Science et de Scopus. N'étant pas abonnée à [...]

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Impact factor versus Journal Rank Indicator

 
 

Envoyé par io2a via Google Reader :

 
 

via Hypothèses. Carnets de recherche en Sciences humaines de Emmanuelle Picard le 25/11/09

Posté dans : Évaluation de la recherche en SHS
Dans un article publié dans la revue Psychologie française en septembre 2009 ("Le JCR facteur d'impact (IF) et le SCimago Journal Rank Indicator (SJR) des revues françaises: une étude comparative"), J. Schöpfel et H. Prost comparent l'efficacité des indicateurs liés à la hiérarchisation des revues du Web of Science et de Scopus. N'étant pas abonnée à [...]

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

L’évaluation en science politique (suite)

 
 

Envoyé par io2a via Google Reader :

 
 

via Hypothèses. Carnets de recherche en Sciences humaines de Emmanuelle Picard le 25/11/09

Posté dans : Évaluation de la recherche en SHS
"Dans le prolongement du Module organisé lors du Congrès de Grenoble en septembre 2009 et consacré à la présentation croisée des résultats de trois enquêtes collectives inédites visant à mieux comprendre les pratiques de publication des politistes français, l'AFSP vous invite à une table ronde permettant d'approfondir nos échanges et débats sur les procédures d'évaluation [...]

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

samedi 21 novembre 2009

Les chercheurs, les médailles et les primes

 
 

Envoyé par io2a via Google Reader :

 
 

via Gaïa Universitas de Rachel le 21/11/09

Les chercheurs du CNRS, INSERM, INRA ou INRIA sont manifestement remontés contre la politique de prime individuelle proposée par le ministère (PES – prime d'excellence scientifique).

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Les chercheurs, les médailles et les primes

 
 

Envoyé par io2a via Google Reader :

 
 

via Gaïa Universitas de Rachel le 21/11/09

Les chercheurs du CNRS, INSERM, INRA ou INRIA sont manifestement remontés contre la politique de prime individuelle proposée par le ministère (PES – prime d'excellence scientifique).

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

vendredi 20 novembre 2009

Knowledge diffusion through publications and citations: A case study using E...

 
 

Envoyé par io2a via Google Reader :

 
 

via Journal of the American Society for Information Science and Technology de Yuxian Liu, Ronald Rousseau le 17/11/09

Two forms of diffusion are studied: diffusion by publications, originating from the fact that a group publishes in different fields; and diffusion by citations, originating from the fact that the group's publications are cited in different fields. The first form of diffusion originates from an internal mechanism by which the group itself expands its own borders. The second form is partly driven by an external mechanism, in the sense that other fields use or become interested in the original group's expertise, and partly by the group's internal dynamism, in the sense that their articles, being published in more and more fields, have the potential to be applied in these other fields. In this contribution, we focus on basic counting measures as measures of diffusion. We introduce the notions of field diffusion breadth, defined as the number of for Essential Science Indicators (ESI) fields in which a set of articles is cited, and field diffusion intensity, defined as the number of citing articles in one particular ESI field. Combined effects of publications and citations can be measured by the Gini evenness measure. Our approach is illustrated by a study of mathematics at Tongji University (Shanghai, China).

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Knowledge diffusion through publications and citations: A case study using E...

 
 

Envoyé par io2a via Google Reader :

 
 

via Journal of the American Society for Information Science and Technology de Yuxian Liu, Ronald Rousseau le 17/11/09

Two forms of diffusion are studied: diffusion by publications, originating from the fact that a group publishes in different fields; and diffusion by citations, originating from the fact that the group's publications are cited in different fields. The first form of diffusion originates from an internal mechanism by which the group itself expands its own borders. The second form is partly driven by an external mechanism, in the sense that other fields use or become interested in the original group's expertise, and partly by the group's internal dynamism, in the sense that their articles, being published in more and more fields, have the potential to be applied in these other fields. In this contribution, we focus on basic counting measures as measures of diffusion. We introduce the notions of field diffusion breadth, defined as the number of for Essential Science Indicators (ESI) fields in which a set of articles is cited, and field diffusion intensity, defined as the number of citing articles in one particular ESI field. Combined effects of publications and citations can be measured by the Gini evenness measure. Our approach is illustrated by a study of mathematics at Tongji University (Shanghai, China).

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

jeudi 19 novembre 2009

Assessing public–private research collaboration: is it possible to compare u...

 
 

Envoyé par io2a via Google Reader :

 
 

via Scientometrics le 13/11/09

Abstract  It is widely recognized that collaboration between the public and private research sectors should be stimulated and supported, as a means of favoring innovation and regional development. This work takes a bibliometric approach, based on co-authorship of scientific publications, to propose a model for comparative measurement of the performance of public research institutions in collaboration with the domestic industry collaboration with the private sector. The model relies on an identification and disambiguation algorithm developed by the authors to link each publication to its real authors. An example of application of the model is given, for the case of the academic system and private enterprises in Italy. The study demonstrates that for each scientific discipline and each national administrative region, it is possible to measure the performance of individual universities in both intra-regional and extra-regional collaboration, normalized with respect to advantages of location. Such results may be useful in informing regional policies and merit-based public funding of research organizations.

  • Content Type Journal Article
  • DOI 10.1007/s11192-009-0104-0
  • Authors
    • Giovanni Abramo, University of Rome "Tor Vergata" Laboratory for Studies of Research and Technology Transfer, Department of Management, School of Engineering Via del Politecnico 1 00133 Rome Italy
    • Ciriaco Andrea D'Angelo, University of Rome "Tor Vergata" Laboratory for Studies of Research and Technology Transfer, Department of Management, School of Engineering Via del Politecnico 1 00133 Rome Italy
    • Marco Solazzi, University of Rome "Tor Vergata" Laboratory for Studies of Research and Technology Transfer, Department of Management, School of Engineering Via del Politecnico 1 00133 Rome Italy

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Assessing public–private research collaboration: is it possible to compare u...

 
 

Envoyé par io2a via Google Reader :

 
 

via Scientometrics le 13/11/09

Abstract  It is widely recognized that collaboration between the public and private research sectors should be stimulated and supported, as a means of favoring innovation and regional development. This work takes a bibliometric approach, based on co-authorship of scientific publications, to propose a model for comparative measurement of the performance of public research institutions in collaboration with the domestic industry collaboration with the private sector. The model relies on an identification and disambiguation algorithm developed by the authors to link each publication to its real authors. An example of application of the model is given, for the case of the academic system and private enterprises in Italy. The study demonstrates that for each scientific discipline and each national administrative region, it is possible to measure the performance of individual universities in both intra-regional and extra-regional collaboration, normalized with respect to advantages of location. Such results may be useful in informing regional policies and merit-based public funding of research organizations.

  • Content Type Journal Article
  • DOI 10.1007/s11192-009-0104-0
  • Authors
    • Giovanni Abramo, University of Rome "Tor Vergata" Laboratory for Studies of Research and Technology Transfer, Department of Management, School of Engineering Via del Politecnico 1 00133 Rome Italy
    • Ciriaco Andrea D'Angelo, University of Rome "Tor Vergata" Laboratory for Studies of Research and Technology Transfer, Department of Management, School of Engineering Via del Politecnico 1 00133 Rome Italy
    • Marco Solazzi, University of Rome "Tor Vergata" Laboratory for Studies of Research and Technology Transfer, Department of Management, School of Engineering Via del Politecnico 1 00133 Rome Italy

 
 

Ce que vous pouvez faire à partir de cette page :