Home

mardi 19 janvier 2010

Peut-on considérer que les universités européennes sont à la traîne ?

 
 

Envoyé par io2a via Google Reader :

 
 

via PRISME de prisme le 19/01/10

Tous les ans depuis 2003, le classement de Shangaï propose un classement des principales universités mondiales. Disponible en ligne, l'édition 2009 de "l'ARWU" (Academic Ranking of World Universities) place à nouveau les universités américaines largement en tête. La Grande- Bretagne s'en tire bien, mais le reste de l'Europe est reléguée au-delà de la 20e place pour les "meilleures" d'entre-elles. Alors que parallèlement se profile un projet européen de classement des universités, le chercheur Yves Gingras met en garde contre l'effet "marketing" de l'AWRU.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

La bibliométrie, usages et limites

 
 

Envoyé par io2a via Google Reader :

 
 

via PRISME de prisme le 19/01/10

L'observatoire des sciences et technique est l'organisme qui publie des indicateurs sur la science et la technologie à partir des grandes bases de données qu'elle exploite sur les publications , (Web of Science ) , sur les brevets et sur les programmes européens de recherche .Elle publie un rapport biennal sur ses indicateurs.C'est l'OST qui permet d'estimer la position de la France dans la production scientifique mondiale et qui fournit les indicateurs en ce domaine pour la LOLF ,en matière de publication scientifique et d'impact de ces publications . L'OST a donc de fait introduit la bibliométrie en France et Ghislaine Fillatreau en est une des premières spécialistes

La bibliométrie a pris une dimension importante dans les politiques de recherche dans une période ou on insiste sur la notion de performance , de compétition avec un rôle renforcé de l'évaluation , dans la mesure où elle apparait comme un outil de mesure quantiratif utilisable et parlant .Elle a pris ausi une aquité particulière avec le développement des classements ou "rankings" auxquelles elle fournit des indicateurs.Elle suscite de nombreuses critiques : non prise en compte ou mauvaise prise en compte des sciences humaines et sociales , prise en compte des seules publications et non des ouvrages , effets pervers de la politique " publish and perish ".

Elle a été aussi un révélateur de l'exceptionnelle fragmentation et du manque de lisibilité de la recherche française . Ces critiques se retrouvent dans les premiers documents qui sont joints à cet envoi et qui fournissent une large bibliographie sur le sujet.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

La bibliométrie, usages et limites

 
 

Envoyé par io2a via Google Reader :

 
 

via PRISME de prisme le 19/01/10

L'observatoire des sciences et technique est l'organisme qui publie des indicateurs sur la science et la technologie à partir des grandes bases de données qu'elle exploite sur les publications , (Web of Science ) , sur les brevets et sur les programmes européens de recherche .Elle publie un rapport biennal sur ses indicateurs.C'est l'OST qui permet d'estimer la position de la France dans la production scientifique mondiale et qui fournit les indicateurs en ce domaine pour la LOLF ,en matière de publication scientifique et d'impact de ces publications . L'OST a donc de fait introduit la bibliométrie en France et Ghislaine Fillatreau en est une des premières spécialistes

La bibliométrie a pris une dimension importante dans les politiques de recherche dans une période ou on insiste sur la notion de performance , de compétition avec un rôle renforcé de l'évaluation , dans la mesure où elle apparait comme un outil de mesure quantiratif utilisable et parlant .Elle a pris ausi une aquité particulière avec le développement des classements ou "rankings" auxquelles elle fournit des indicateurs.Elle suscite de nombreuses critiques : non prise en compte ou mauvaise prise en compte des sciences humaines et sociales , prise en compte des seules publications et non des ouvrages , effets pervers de la politique " publish and perish ".

Elle a été aussi un révélateur de l'exceptionnelle fragmentation et du manque de lisibilité de la recherche française . Ces critiques se retrouvent dans les premiers documents qui sont joints à cet envoi et qui fournissent une large bibliographie sur le sujet.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Peut-on considérer que les universités européennes sont à la traîne ?

 
 

Envoyé par io2a via Google Reader :

 
 

via PRISME de prisme le 19/01/10

Tous les ans depuis 2003, le classement de Shangaï propose un classement des principales universités mondiales. Disponible en ligne, l'édition 2009 de "l'ARWU" (Academic Ranking of World Universities) place à nouveau les universités américaines largement en tête. La Grande- Bretagne s'en tire bien, mais le reste de l'Europe est reléguée au-delà de la 20e place pour les "meilleures" d'entre-elles. Alors que parallèlement se profile un projet européen de classement des universités, le chercheur Yves Gingras met en garde contre l'effet "marketing" de l'AWRU.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

lundi 18 janvier 2010

Les sciences humaines sont-elles évaluables?

 
 

Envoyé par io2a via Google Reader :

 
 

via Bernard Rentier, Recteur de Bernard Rentier le 17/01/10

Le CA du FNRS a adopté ce vendredi 15, à l'unanimité (moins une abstention en relation avec la répartition des compétences des commissions scientifiques), la nouvelle réglementation pour l'évaluation. La version officielle finale sera donc disponible sur le site du FNRS dès demain.

Je ne commenterai pas plus avant les quelques remous que cette réforme importante a causés, car aujourd'hui, puisque beaucoup de remarques formulées par les chercheurs ont été prises en compte et puisque les appels à candidature sont lancés (ils le sont depuis lundi 11/01, il est donc utile de retourner au site pour vérifier les derniers détails), il faut s'en tenir aux décisions et attendre l'examen du système pour éventuellement proposer des amendements pour l'année prochaine.

Je me contenterai de tirer quelques leçons des discussions des dernières semaines, et en particulier sur un sujet dont l'importance ne m'a pas échappé.

Exactement comme dans la réforme de l'évaluation de la recherche menée à l'ULg, une constatation s'impose: la difficulté d'admettre les propositions d'évolution de l'évaluation se manifeste surtout dans les divers domaines des sciences humaines.
Là, plus qu'ailleurs, la crainte de voir s'établir un système d'évaluation se targuant de rechercher l'objectivité inquiète. Dans les autres domaines, cette inquiétude existe, bien sûr, mais elle est bien moindre et ne porte pas tant sur le principe que sur les modalités.

Si cette crainte s'exprime plus chez les chercheurs en sciences humaines à l'ULg et en Communauté française, c'est aussi le cas ailleurs dans le monde. En Flandre, où le financement des universités est conditionné à la performance en recherche et où l'évaluation des sciences humaines pose un tel problème qu'un programme de recherche sur la question a été lancé avec une solide subvention du Gouvernement de la Communauté flamande. Un article est consacré au sort des sciences humaines dans le magazine Times Higher Education du 7 janvier.

Il ne s'agit donc pas d'un caprice, mais du reflet d'un vrai problème. Toutefois, plusieurs questions se posent:
- comment donc se pratiquait, jusqu'ici, l'évaluation dans ces matières? En quoi était-elle réalisée de manière plus juste, plus incontestable?
- quels types de critères peut-on définir qui agréent à tous?
- quels objectifs se fixe-t-on?
- comment appréhende-t-on les diverses facettes de la production de recherche en ces domaines?

Les avis divergent considérablement et sans doute est-ce là une particularité.
En effet dans le cas des sciences et techniques ainsi que des sciences de la santé, la question fait moins débat, ce qui ne veut pas dire que les critères et objectifs, même si ils sont généralement admis, soient parfaitement judicieux. C'est d'ailleurs ici que revient à la surface la fameuse notion d'impact. Beaucoup de scientifiques se satisfont d'un comptage du nombre de publications acceptées dans des journaux prestigieux dont le facteur d'impact est élevé (j'ai déjà expliqué cette méthode à plusieurs reprises). Il reste cependant beaucoup de travail à accomplir car il faut bien admettre qu'il ne s'agit là que d'une mesure très indirecte de la qualité scientifique d'un chercheur ou d'une équipe de recherche. La notion de citation, plus aisément accessible aujourd'hui grâce à l'informatique, offre un complément intéressant, mais parfois trompeur, le nombre de citations d'un travail séminal pouvant ne pas rendre justice à son importance pour l'avancement du savoir.

Croire que la question est réglée, même pour ces domaines, serait illusoire. La seule vraie solution acceptable est bien plus complexe qu'une simple addition agrémentée de coefficients divers. Elle dépasse de loin le résumé en un seul chiffre. C'est là une analogie parfaite avec la réduction de la valeur d'une université à un simple nombre également.

Toutefois, le problème est encore plus complexe pour les sciences humaines. La diversité des formes de « production » de recherche est beaucoup plus vaste (ce qui conduit souvent les chercheurs de ces disciplines à penser, à tort, que les disciplines des sciences « dures » ou de la santé sont moins variées, que les chercheurs, dans ces secteurs sont mieux capables de se comprendre entre eux, remarque que l'on entend souvent). Il ne faut donc pas confondre diversité des matières ou des spécialités et diversité des formes selon laquelle s'extériorise la production scientifique.

Il n'en reste pas moins vrai que les chercheurs des sciences humaines ont la sensation qu'on n'arrivera jamais à fixer clairement leurs objectifs ni à évaluer la qualité de leur travail. A cette crainte s'ajoute le sentiment d'un estompement de l'intérêt des pouvoirs subsidiants pour leurs disciplines. C'est un effet qu'on connaît bien lorsque l'on constate la séduction des programmes de recherche qui visent à des améliorations ou même à des innovations technologiques de procédés ou à la mise au point de produits commercialisables susceptibles de générer un profit, ou encore à des progrès de la santé. Aujourd'hui, on ressent un frémissement en faveur des sciences humaines dans les grands programmes à vocation de relance économique et c'est une excellente chose car nul n'y arrivera sans elles. Mais c'est encore bien léger.

L'article du Times HS est instructif à cet égard. Son auteure (comme on dit maintenant) suggère même que les formations ne soient pas seulement parallèles mais qu'un même étudiant soit amené à suivre des formations mixtes, ce qui me semble une excellente suggestion qui mérite réflexion. Elle souligne également le souci que chacun devrait avoir quant au poids des sciences humaines dans la formation universitaire en général. Elle insiste sur le fait que ce n'est pas en cultivant l'idée qu'elles constituent une valeur en soi, hors de portée de la remise en question et même de l'évaluation, qu'elles assureront leur pérennité, mais en démontrant par l'expérience leur nécessité pour l'ensemble d'une société équilibrée.

Attelons-nous donc à élaborer un système qui permette de concevoir des outils d'évaluation performants dans ces matières et de créer un consensus à ce sujet. Nous n'y arriverons cependant qu'en restant en phase par rapport aux évolutions internationales à ce propos.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Les sciences humaines sont-elles évaluables?

 
 

Envoyé par io2a via Google Reader :

 
 

via Bernard Rentier, Recteur de Bernard Rentier le 17/01/10

Le CA du FNRS a adopté ce vendredi 15, à l'unanimité (moins une abstention en relation avec la répartition des compétences des commissions scientifiques), la nouvelle réglementation pour l'évaluation. La version officielle finale sera donc disponible sur le site du FNRS dès demain.

Je ne commenterai pas plus avant les quelques remous que cette réforme importante a causés, car aujourd'hui, puisque beaucoup de remarques formulées par les chercheurs ont été prises en compte et puisque les appels à candidature sont lancés (ils le sont depuis lundi 11/01, il est donc utile de retourner au site pour vérifier les derniers détails), il faut s'en tenir aux décisions et attendre l'examen du système pour éventuellement proposer des amendements pour l'année prochaine.

Je me contenterai de tirer quelques leçons des discussions des dernières semaines, et en particulier sur un sujet dont l'importance ne m'a pas échappé.

Exactement comme dans la réforme de l'évaluation de la recherche menée à l'ULg, une constatation s'impose: la difficulté d'admettre les propositions d'évolution de l'évaluation se manifeste surtout dans les divers domaines des sciences humaines.
Là, plus qu'ailleurs, la crainte de voir s'établir un système d'évaluation se targuant de rechercher l'objectivité inquiète. Dans les autres domaines, cette inquiétude existe, bien sûr, mais elle est bien moindre et ne porte pas tant sur le principe que sur les modalités.

Si cette crainte s'exprime plus chez les chercheurs en sciences humaines à l'ULg et en Communauté française, c'est aussi le cas ailleurs dans le monde. En Flandre, où le financement des universités est conditionné à la performance en recherche et où l'évaluation des sciences humaines pose un tel problème qu'un programme de recherche sur la question a été lancé avec une solide subvention du Gouvernement de la Communauté flamande. Un article est consacré au sort des sciences humaines dans le magazine Times Higher Education du 7 janvier.

Il ne s'agit donc pas d'un caprice, mais du reflet d'un vrai problème. Toutefois, plusieurs questions se posent:
- comment donc se pratiquait, jusqu'ici, l'évaluation dans ces matières? En quoi était-elle réalisée de manière plus juste, plus incontestable?
- quels types de critères peut-on définir qui agréent à tous?
- quels objectifs se fixe-t-on?
- comment appréhende-t-on les diverses facettes de la production de recherche en ces domaines?

Les avis divergent considérablement et sans doute est-ce là une particularité.
En effet dans le cas des sciences et techniques ainsi que des sciences de la santé, la question fait moins débat, ce qui ne veut pas dire que les critères et objectifs, même si ils sont généralement admis, soient parfaitement judicieux. C'est d'ailleurs ici que revient à la surface la fameuse notion d'impact. Beaucoup de scientifiques se satisfont d'un comptage du nombre de publications acceptées dans des journaux prestigieux dont le facteur d'impact est élevé (j'ai déjà expliqué cette méthode à plusieurs reprises). Il reste cependant beaucoup de travail à accomplir car il faut bien admettre qu'il ne s'agit là que d'une mesure très indirecte de la qualité scientifique d'un chercheur ou d'une équipe de recherche. La notion de citation, plus aisément accessible aujourd'hui grâce à l'informatique, offre un complément intéressant, mais parfois trompeur, le nombre de citations d'un travail séminal pouvant ne pas rendre justice à son importance pour l'avancement du savoir.

Croire que la question est réglée, même pour ces domaines, serait illusoire. La seule vraie solution acceptable est bien plus complexe qu'une simple addition agrémentée de coefficients divers. Elle dépasse de loin le résumé en un seul chiffre. C'est là une analogie parfaite avec la réduction de la valeur d'une université à un simple nombre également.

Toutefois, le problème est encore plus complexe pour les sciences humaines. La diversité des formes de « production » de recherche est beaucoup plus vaste (ce qui conduit souvent les chercheurs de ces disciplines à penser, à tort, que les disciplines des sciences « dures » ou de la santé sont moins variées, que les chercheurs, dans ces secteurs sont mieux capables de se comprendre entre eux, remarque que l'on entend souvent). Il ne faut donc pas confondre diversité des matières ou des spécialités et diversité des formes selon laquelle s'extériorise la production scientifique.

Il n'en reste pas moins vrai que les chercheurs des sciences humaines ont la sensation qu'on n'arrivera jamais à fixer clairement leurs objectifs ni à évaluer la qualité de leur travail. A cette crainte s'ajoute le sentiment d'un estompement de l'intérêt des pouvoirs subsidiants pour leurs disciplines. C'est un effet qu'on connaît bien lorsque l'on constate la séduction des programmes de recherche qui visent à des améliorations ou même à des innovations technologiques de procédés ou à la mise au point de produits commercialisables susceptibles de générer un profit, ou encore à des progrès de la santé. Aujourd'hui, on ressent un frémissement en faveur des sciences humaines dans les grands programmes à vocation de relance économique et c'est une excellente chose car nul n'y arrivera sans elles. Mais c'est encore bien léger.

L'article du Times HS est instructif à cet égard. Son auteure (comme on dit maintenant) suggère même que les formations ne soient pas seulement parallèles mais qu'un même étudiant soit amené à suivre des formations mixtes, ce qui me semble une excellente suggestion qui mérite réflexion. Elle souligne également le souci que chacun devrait avoir quant au poids des sciences humaines dans la formation universitaire en général. Elle insiste sur le fait que ce n'est pas en cultivant l'idée qu'elles constituent une valeur en soi, hors de portée de la remise en question et même de l'évaluation, qu'elles assureront leur pérennité, mais en démontrant par l'expérience leur nécessité pour l'ensemble d'une société équilibrée.

Attelons-nous donc à élaborer un système qui permette de concevoir des outils d'évaluation performants dans ces matières et de créer un consensus à ce sujet. Nous n'y arriverons cependant qu'en restant en phase par rapport aux évolutions internationales à ce propos.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

mercredi 13 janvier 2010

JournalBase. Comparer les bases de données scientifiques internationales en ...

 
 

Envoyé par io2a via Google Reader :

 
 

via Cybergeo : European Journal of Geography de cybergeo@parisgeo.cnrs.fr (Michèle Dassa, Christine Kosmopoulos et Denise Pumain) le 07/01/10

Cet article dresse un tableau comparatif des contenus des bases de données et des listes de référence qui recensent les revues en sciences humaines et sociales (SHS). Il s'appuie sur JournalBase publié le 25 juin 2009 dans Cybergeo. Cette étude porte sur les bases AHCI et SSCI du Web of Science (publié par Thomson Reuters), de Scopus (publié par Elsevier), du European Reference Index for Humanities (ERIH) (publié par la Fondation européenne pour la Science) et de l'AERES (Agence pour l'évaluation de la recherche en France). La recherche a été réalisée en 2008 avec le soutien financier du TGE Adonis du CNRS. Avec quelque 20 000 entrées correspondant à environ 10 000 journaux différents, c'est une vue quasi exhaustive de la richesse des publications en sciences humaines et sociales qui est apportée par ce tableau. La nomenclature adoptée pour classer les revues par discipline est celle en 27 postes de la Fondation Européenne pour la Science. Les affectations multiples révèlent la multidisciplinarité des revues, assez fréquente en SHS, mais parfois aussi les incohérences des bases de données qui n'ont pas été rectifiées.
L'article présente l'historique du projet, la méthodologie mise en place par les auteurs, les difficultés rencontrées dans la comparaison des données. Les premiers résultats mettent en évidence une couverture plus large de la liste ERIH pour les sciences humaines et une surreprésentation des revues anglophones dans les bases de données commerciales pour l'ensemble des disciplines. L'objectif de ce travail est d'alerter sur les contenus de ces bases de données, au moment où les outils bibliométriques soulèvent maints débats quant à leur application dans le champ des sciences humaines et sociales.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

JournalBase. Comparer les bases de données scientifiques internationales en ...

 
 

Envoyé par io2a via Google Reader :

 
 

via Cybergeo : European Journal of Geography de cybergeo@parisgeo.cnrs.fr (Michèle Dassa, Christine Kosmopoulos et Denise Pumain) le 07/01/10

Cet article dresse un tableau comparatif des contenus des bases de données et des listes de référence qui recensent les revues en sciences humaines et sociales (SHS). Il s'appuie sur JournalBase publié le 25 juin 2009 dans Cybergeo. Cette étude porte sur les bases AHCI et SSCI du Web of Science (publié par Thomson Reuters), de Scopus (publié par Elsevier), du European Reference Index for Humanities (ERIH) (publié par la Fondation européenne pour la Science) et de l'AERES (Agence pour l'évaluation de la recherche en France). La recherche a été réalisée en 2008 avec le soutien financier du TGE Adonis du CNRS. Avec quelque 20 000 entrées correspondant à environ 10 000 journaux différents, c'est une vue quasi exhaustive de la richesse des publications en sciences humaines et sociales qui est apportée par ce tableau. La nomenclature adoptée pour classer les revues par discipline est celle en 27 postes de la Fondation Européenne pour la Science. Les affectations multiples révèlent la multidisciplinarité des revues, assez fréquente en SHS, mais parfois aussi les incohérences des bases de données qui n'ont pas été rectifiées.
L'article présente l'historique du projet, la méthodologie mise en place par les auteurs, les difficultés rencontrées dans la comparaison des données. Les premiers résultats mettent en évidence une couverture plus large de la liste ERIH pour les sciences humaines et une surreprésentation des revues anglophones dans les bases de données commerciales pour l'ensemble des disciplines. L'objectif de ce travail est d'alerter sur les contenus de ces bases de données, au moment où les outils bibliométriques soulèvent maints débats quant à leur application dans le champ des sciences humaines et sociales.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

vendredi 8 janvier 2010

Useful info on extent of scholarly journal publishing?

 
 

Envoyé par io2a via Google Reader :

 
 

via CrossRef Blog de Ed Pentz le 08/01/10

I often see varying figures for the number of scholarly journals and the number of articles published per year (some references below). In this context the CrossRef 2009 statistics are interesting. CrossRef covers scholarly journals pretty extensively now - books are growing (~100,000 in the system so far) but CrossRef scholarly book coverage isn't as extensive.

At the end of 2009 there were 21,150 journal titles in CrossRef - this includes older titles that may no longer be publishing or may have changed names. CrossRef doesn't track whether journals are peer reviewed or not just that they are generally "scholarly".

The journal article deposit figures are:

Total number of CrossRef journal DOIs: 34,911,463 (from 1665 to the present)

Deposits of Current (publication year of 2007-2009) journal article DOIs - 1,808,993

A CrossRef DOI for a journal article can be applied to any type of article: research, review, book review, letter - basically anything in a journal that's published online as a citeable unit.

Some general CrossRef stats are available.

Another important statistic is that there were over 300,000,000 (300 million) CrossRef DOI resolutions i.e. user clicks on CrossRef DOIs.

References (it's shocking there are no CrossRef DOIs for these)

Björk, B., Roos, A. and Lauri, M. (2009) Scientific journal publishing: yearly volume and
open access availability, Information Research, 14(1) http://InformationR.net/ir/14-1/paper391.html

Mabe, M. (2003). The growth and number of journals, Serials 16(2) 191-197
http://uksg.metapress.com/link.asp?id=f195g8ak0eu21muh

Tenopir, Carol (2004). Online Databases—Online Scholarly Journals: How Many? The Library Journal http://www.libraryjournal.com/article/CA374956.html

'The STM Report: An overview of scientific and scholarly journal publishing' Press release - http://www.stm-assoc.org/2009_10_13_Press_Release_The_STM_Report.pdf


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Useful info on extent of scholarly journal publishing?

 
 

Envoyé par io2a via Google Reader :

 
 

via CrossRef Blog de Ed Pentz le 08/01/10

I often see varying figures for the number of scholarly journals and the number of articles published per year (some references below). In this context the CrossRef 2009 statistics are interesting. CrossRef covers scholarly journals pretty extensively now - books are growing (~100,000 in the system so far) but CrossRef scholarly book coverage isn't as extensive.

At the end of 2009 there were 21,150 journal titles in CrossRef - this includes older titles that may no longer be publishing or may have changed names. CrossRef doesn't track whether journals are peer reviewed or not just that they are generally "scholarly".

The journal article deposit figures are:

Total number of CrossRef journal DOIs: 34,911,463 (from 1665 to the present)

Deposits of Current (publication year of 2007-2009) journal article DOIs - 1,808,993

A CrossRef DOI for a journal article can be applied to any type of article: research, review, book review, letter - basically anything in a journal that's published online as a citeable unit.

Some general CrossRef stats are available.

Another important statistic is that there were over 300,000,000 (300 million) CrossRef DOI resolutions i.e. user clicks on CrossRef DOIs.

References (it's shocking there are no CrossRef DOIs for these)

Björk, B., Roos, A. and Lauri, M. (2009) Scientific journal publishing: yearly volume and
open access availability, Information Research, 14(1) http://InformationR.net/ir/14-1/paper391.html

Mabe, M. (2003). The growth and number of journals, Serials 16(2) 191-197
http://uksg.metapress.com/link.asp?id=f195g8ak0eu21muh

Tenopir, Carol (2004). Online Databases—Online Scholarly Journals: How Many? The Library Journal http://www.libraryjournal.com/article/CA374956.html

'The STM Report: An overview of scientific and scholarly journal publishing' Press release - http://www.stm-assoc.org/2009_10_13_Press_Release_The_STM_Report.pdf


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

lundi 4 janvier 2010

Un(e) stagiaire en bibliométrie – Marseille (13) « Biblioemplois

 
 

Envoyé par io2a via Google Reader :

 
 

via Delicious/io2a de io2a le 04/01/10

Stage de bibliométrie à l'Institut de Recherche pour le Développement (IRD) S'adresse à : étudiants en IST (information scientifique et technique), bibliothécaire/documentaliste, niveau Master Période : dès que possible, 3 mois minimum, en plusieurs séquences éventuellement. Travail attendu : - identifier, relever, extraire, traiter et effectuer une première analyse de toutes les références bibliographiques existantes sur le thème des migrations et des mobilités ; - isoler, caractériser et enregistrer toutes les productions émanant de l'IRD et de ses partenaires ; - sources d'informations à consulter : bases de données (WoS/SSCI, Francis, Scopus, Horizon) ; rapports d'activités des unités de recherche et UMR IRD ; bibliographies des chercheurs (IRD + partenaires) ; - période couverte : 15 dernières années (1995-2009)

http://delicious.com Bookmark this on Delicious - Saved by io2a to - More about this bookmark

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Un(e) stagiaire en bibliométrie – Marseille (13) « Biblioemplois

 
 

Envoyé par io2a via Google Reader :

 
 

via Delicious/io2a de io2a le 04/01/10

Stage de bibliométrie à l'Institut de Recherche pour le Développement (IRD) S'adresse à : étudiants en IST (information scientifique et technique), bibliothécaire/documentaliste, niveau Master Période : dès que possible, 3 mois minimum, en plusieurs séquences éventuellement. Travail attendu : - identifier, relever, extraire, traiter et effectuer une première analyse de toutes les références bibliographiques existantes sur le thème des migrations et des mobilités ; - isoler, caractériser et enregistrer toutes les productions émanant de l'IRD et de ses partenaires ; - sources d'informations à consulter : bases de données (WoS/SSCI, Francis, Scopus, Horizon) ; rapports d'activités des unités de recherche et UMR IRD ; bibliographies des chercheurs (IRD + partenaires) ; - période couverte : 15 dernières années (1995-2009)

http://delicious.com Bookmark this on Delicious - Saved by io2a to - More about this bookmark

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Évaluation de la recherche et rôle des BU

 
 

Envoyé par io2a via Google Reader :

 
 

via Blog UMR Spirit de docspirit le 04/01/10


Ce rapport tente de mettre en lumière les relations entre bibliothèques (de recherche) et mécanismes d'évaluation de la recherche dans cinq pays: Australie, Danemark, Pays-Bas, Irlande, Royaume-Uni.

Le rapport passe en revue, pour chaque pays, les thèmes suivants:

  • Rôle de l'évaluation de la recherche
  • Forme de l'évaluation de la recherche
  • Evaluation interne
  • Liens avec les financements
  • Effet de l'évaluation de la recherche sur la valeur académique

… Lire le rapport


 
 

Ce que vous pouvez faire à partir de cette page :