Home

lundi 30 mai 2011

Scientific Excellence Georeferenced. The neighborhood matters.

 
 

Envoyé par io2a via Google Reader :

 
 

via Scimago Lab Blog de Scimago Lab le 30/05/11

While the current dynamics of Worldwide Science outputs are rising to the surface Research Institutions from developing countries with important results; the location of Institutions holding excellence outcomes, that is, those which represent a truly and significant science advancement does not seem to be changing.

Although a formal study would need a detailed analysis by scientific fields, an exploratory analysis of the group formed by the Research Institutions which annually publish 100 scientific papers or more (3,000 worldwide, as indexed in Scopus database) reveals that the resulting geographic distribution has a strong bias which is explained by research spending patterns in different regions of the world. There is a large concentration of institutions in North America, Europe, India, China and Japan, and to a lesser extent, in the southern hemisphere, in Chile, Argentina and more prominently in Brazil, South Africa and Australia.

Neighborhood influence

By depicting Research Institutions grouped into four levels of Normalized Impact (NI), a picture, as the one exposed, of the geographic distribution of Research Excellence around the world is obtained. Taking into account that, with odd exceptions, institutions reaching NI scores higher than the world average (values higher than 1) are concentrated in North America, Western Europe and Australia/New Zeeland, we must conclude that if the geographic bias in Scientific Outputs is high, it is even higher the bias affecting the Scientific Impact.

world map

Impact can be considered to reflect the use researchers make of the scientific knowledge previously generated. With this in mind, the map suggests that those regions that produce the most (Western Europe and North America) firstly use the knowledge being generated in their area, justifying this way the concentration of large impacts in highly productive regions and implying that Research Institutions in the most productive regions worldwide accumulate a reputational capital, which is due to the geographical context where they are, and on the other hand, that is unattainable for institutions located in less productive regions. It is still to be seen what will happen with China, a newcomer to the elite of more productive scientific countries in the world. Put another way, the neighborhood of a Research Institution affects the scientific reputation it can achieve in global terms, unless it can go beyond its neighborhood through inter-regional alliances with reputed institutions from highly productive regions.

Scientific Dependence

To developing countries, an unintended consequence of the need to collaborate with researchers from highly productive regions is what it could be called "scientific dependence". Even though it is difficult to measure the role played by researchers in scientific works by just studying the affiliation fields, what we really know is that certain Research Institutions show extremely high rates of International Collaboration (IC) which indeed can be associated to situations of scientific dependence. I.e. when an Institution's IC reaches or exceeds 80% of its total output, in such a way that its exclusive production ends being marginal, it is clear that it operates in a "scientific dependence" situation. Furthermore, when an institution shows high collaboration rates jointly with an outstanding impact (NI) within its own country and/or region, such impact will be most likely due to the collaboration, and it may be concluded that there exists an external scientific dependence.

Some countries from Latin America constitute an example and an interesting case of scientific dependence in cases where a less scientific development, a highly international collaboration rate and a relatively high impact in a regional scale come together. See the high correlation between IC and NI values in the following table.

 

Country Output IC NI
Brazil 135,259 25.35 0.77
Mexico 52,527 38.65 0.75
Argentina 34,927 42.93 0.90
Chile 20,534 52.64 0.95
Venezuela 8,489 44.40 0.65
Colombia 8,292 53.90 0.83
Cuba 6,915 39.38 0.46
Puerto Rico 4,476 57.95 1.00
Uruguay 2,711 64.66 0.95
Peru 2,654 75.77 1.13
Costa Rica 1,946 71.17 1.16

 


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Scientific Excellence Georeferenced. The neighborhood matters.

 
 

Envoyé par io2a via Google Reader :

 
 

via Scimago Lab Blog de Scimago Lab le 30/05/11

While the current dynamics of Worldwide Science outputs are rising to the surface Research Institutions from developing countries with important results; the location of Institutions holding excellence outcomes, that is, those which represent a truly and significant science advancement does not seem to be changing.

Although a formal study would need a detailed analysis by scientific fields, an exploratory analysis of the group formed by the Research Institutions which annually publish 100 scientific papers or more (3,000 worldwide, as indexed in Scopus database) reveals that the resulting geographic distribution has a strong bias which is explained by research spending patterns in different regions of the world. There is a large concentration of institutions in North America, Europe, India, China and Japan, and to a lesser extent, in the southern hemisphere, in Chile, Argentina and more prominently in Brazil, South Africa and Australia.

Neighborhood influence

By depicting Research Institutions grouped into four levels of Normalized Impact (NI), a picture, as the one exposed, of the geographic distribution of Research Excellence around the world is obtained. Taking into account that, with odd exceptions, institutions reaching NI scores higher than the world average (values higher than 1) are concentrated in North America, Western Europe and Australia/New Zeeland, we must conclude that if the geographic bias in Scientific Outputs is high, it is even higher the bias affecting the Scientific Impact.

world map

Impact can be considered to reflect the use researchers make of the scientific knowledge previously generated. With this in mind, the map suggests that those regions that produce the most (Western Europe and North America) firstly use the knowledge being generated in their area, justifying this way the concentration of large impacts in highly productive regions and implying that Research Institutions in the most productive regions worldwide accumulate a reputational capital, which is due to the geographical context where they are, and on the other hand, that is unattainable for institutions located in less productive regions. It is still to be seen what will happen with China, a newcomer to the elite of more productive scientific countries in the world. Put another way, the neighborhood of a Research Institution affects the scientific reputation it can achieve in global terms, unless it can go beyond its neighborhood through inter-regional alliances with reputed institutions from highly productive regions.

Scientific Dependence

To developing countries, an unintended consequence of the need to collaborate with researchers from highly productive regions is what it could be called "scientific dependence". Even though it is difficult to measure the role played by researchers in scientific works by just studying the affiliation fields, what we really know is that certain Research Institutions show extremely high rates of International Collaboration (IC) which indeed can be associated to situations of scientific dependence. I.e. when an Institution's IC reaches or exceeds 80% of its total output, in such a way that its exclusive production ends being marginal, it is clear that it operates in a "scientific dependence" situation. Furthermore, when an institution shows high collaboration rates jointly with an outstanding impact (NI) within its own country and/or region, such impact will be most likely due to the collaboration, and it may be concluded that there exists an external scientific dependence.

Some countries from Latin America constitute an example and an interesting case of scientific dependence in cases where a less scientific development, a highly international collaboration rate and a relatively high impact in a regional scale come together. See the high correlation between IC and NI values in the following table.

 

Country Output IC NI
Brazil 135,259 25.35 0.77
Mexico 52,527 38.65 0.75
Argentina 34,927 42.93 0.90
Chile 20,534 52.64 0.95
Venezuela 8,489 44.40 0.65
Colombia 8,292 53.90 0.83
Cuba 6,915 39.38 0.46
Puerto Rico 4,476 57.95 1.00
Uruguay 2,711 64.66 0.95
Peru 2,654 75.77 1.13
Costa Rica 1,946 71.17 1.16

 


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

lundi 23 mai 2011

International Observatory on Academic Ranking and Excellence - Les Principes...

 
 

Envoyé par io2a via Google Reader :

 
 

via Delicious/io2a de io2a le 23/05/11

Dans cette perspective, un Groupe d'experts internationaux en classements – IREG [International Ranking Expert Group] a été fondé en 2004 par le Centre européen pour l'enseignement supérieur de l'UNESCO (UNESCO-CEPES) de Bucarest et l'Institute for Higher Education Policy de Washington, D.C. C'est à partir de cette initiative que s'est tenue la deuxième réunion de l'IREG (Berlin, les 18-20 mai 2006) afin de formuler un ensemble de principes concernant la qualité et les bonnes pratiques dans les classements des établissements d'enseignement supérieur – appelés les Principes de Berlin sur le classement des établissements d'enseignement supérieur.

http://www.delicious.com Bookmark this on Delicious - Saved by io2a to - More about this bookmark

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

International Observatory on Academic Ranking and Excellence - Les Principes...

 
 

Envoyé par io2a via Google Reader :

 
 

via Delicious/io2a de io2a le 23/05/11

Dans cette perspective, un Groupe d'experts internationaux en classements – IREG [International Ranking Expert Group] a été fondé en 2004 par le Centre européen pour l'enseignement supérieur de l'UNESCO (UNESCO-CEPES) de Bucarest et l'Institute for Higher Education Policy de Washington, D.C. C'est à partir de cette initiative que s'est tenue la deuxième réunion de l'IREG (Berlin, les 18-20 mai 2006) afin de formuler un ensemble de principes concernant la qualité et les bonnes pratiques dans les classements des établissements d'enseignement supérieur – appelés les Principes de Berlin sur le classement des établissements d'enseignement supérieur.

http://www.delicious.com Bookmark this on Delicious - Saved by io2a to - More about this bookmark

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

lundi 9 mai 2011

Effets Cigogne - corrélation vs. causalité

 
 

Envoyé par io2a via Google Reader :

 
 

via Delicious/io2a de io2a le 09/05/11

Effet cigogne ? Par exemple, dans les communes qui abritent des cigognes, le taux de natalité est plus élevé que dans l'ensemble du pays. Conclusion : les cigognes apportent les bébés ! Voici une explication plus probable : les cigognes nichent de préférence dans les villages plutôt que dans les grandes agglomérations, et il se trouve que la natalité est plus forte en milieu rural que dans les villes. Voilà pourquoi l'on nomme "effet cigogne" cette tendance à confondre corrélation et causalité.

http://www.delicious.com Bookmark this on Delicious - Saved by io2a to - More about this bookmark

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Effets Cigogne - corrélation vs. causalité

 
 

Envoyé par io2a via Google Reader :

 
 

via Delicious/io2a de io2a le 09/05/11

Effet cigogne ? Par exemple, dans les communes qui abritent des cigognes, le taux de natalité est plus élevé que dans l'ensemble du pays. Conclusion : les cigognes apportent les bébés ! Voici une explication plus probable : les cigognes nichent de préférence dans les villages plutôt que dans les grandes agglomérations, et il se trouve que la natalité est plus forte en milieu rural que dans les villes. Voilà pourquoi l'on nomme "effet cigogne" cette tendance à confondre corrélation et causalité.

http://www.delicious.com Bookmark this on Delicious - Saved by io2a to - More about this bookmark

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

mardi 29 mars 2011

Digital Science compiles ranking index of top research institutions

 
 

Envoyé par io2a via Google Reader :

 
 

via Digital Science de Kaitlin Thaney le 24/03/11

For the last few months, our metrics team, headed by Caitlin Trasande, have been hard at work on a project with Nature Publishing Group. Yesterday, the fruits of that project went live – the Nature Publishing Index Global Top 50 – a ranked list of the top 50 institutions in the world, according to how many primary research articles in Nature research journals.

Caitlin joins us here on the Digital Science blog to tell us more about the work involved in pulling this index together – not an easy nor straightforward task. Science metrics is an area of the research process that's riddled with inefficiencies and ambiguity, yet another area that can benefit from better use of technology and technical know-how. The Global Top 50 represents the first example of what can be done in this space, in pairing open and meaningful data from the science publishing world with information and metrics from other resources to surface new insights – in this case, the number of Nature articles published by institution.

And with that, I'll hand the mic over to Caitlin:

Technically, this begins as a task of deciphering and mapping of the myriad institutional names (and forms) used by authors in Nature research journals and in many cases, harmonising their affiliate institutions and campuses. Take for example "Max Planck Institute" – a network of nearly 80 research institutes in Germany. In some cases, a judgement call has to be made about when to aggregate data from those institutes, or, in the case of individual campuses in the University of California system, when to let those institutes stand alone. The data is messy, presenting matching issues alongside scalability challenges, which the Metrics team has been diligently working to make better sense of in collaboration with Nature Publishing Group.

The organisational structure for modern scientific research institutions is complex, often poorly documented (if at all), and multi-dimensional – now including more traditional divisions based on college or discipline, specialised affiliate institutions, satellite institutes, affiliated research hospitals, and so forth. Defining an institute's boundary is challenging. Mapping journal articles and authors to that information, as a result, calls for a clean baseline data set to start with. Which was only the starting point for the Metrics team.

The Global Top 50 gave us the opportunity to peek under the hood and see first hand what the challenges were in this sort of task, helping us gain a better understanding and stronger technical grasp on how we can help in this space, providing better, more representative tools and information for the scientific community. Do stay tuned.

Also, we'd love to hear what you think about the index. Feedback can be sent to institutes@digital-science.com. For more on the index, check out Nature Publishing Group's press release.

Kudos again to Caitlin, Dan Hagon and Johannes Goller on the Metrics team for their tremendous work on this project. Keep up the good work!


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Digital Science compiles ranking index of top research institutions

 
 

Envoyé par io2a via Google Reader :

 
 

via Digital Science de Kaitlin Thaney le 24/03/11

For the last few months, our metrics team, headed by Caitlin Trasande, have been hard at work on a project with Nature Publishing Group. Yesterday, the fruits of that project went live – the Nature Publishing Index Global Top 50 – a ranked list of the top 50 institutions in the world, according to how many primary research articles in Nature research journals.

Caitlin joins us here on the Digital Science blog to tell us more about the work involved in pulling this index together – not an easy nor straightforward task. Science metrics is an area of the research process that's riddled with inefficiencies and ambiguity, yet another area that can benefit from better use of technology and technical know-how. The Global Top 50 represents the first example of what can be done in this space, in pairing open and meaningful data from the science publishing world with information and metrics from other resources to surface new insights – in this case, the number of Nature articles published by institution.

And with that, I'll hand the mic over to Caitlin:

Technically, this begins as a task of deciphering and mapping of the myriad institutional names (and forms) used by authors in Nature research journals and in many cases, harmonising their affiliate institutions and campuses. Take for example "Max Planck Institute" – a network of nearly 80 research institutes in Germany. In some cases, a judgement call has to be made about when to aggregate data from those institutes, or, in the case of individual campuses in the University of California system, when to let those institutes stand alone. The data is messy, presenting matching issues alongside scalability challenges, which the Metrics team has been diligently working to make better sense of in collaboration with Nature Publishing Group.

The organisational structure for modern scientific research institutions is complex, often poorly documented (if at all), and multi-dimensional – now including more traditional divisions based on college or discipline, specialised affiliate institutions, satellite institutes, affiliated research hospitals, and so forth. Defining an institute's boundary is challenging. Mapping journal articles and authors to that information, as a result, calls for a clean baseline data set to start with. Which was only the starting point for the Metrics team.

The Global Top 50 gave us the opportunity to peek under the hood and see first hand what the challenges were in this sort of task, helping us gain a better understanding and stronger technical grasp on how we can help in this space, providing better, more representative tools and information for the scientific community. Do stay tuned.

Also, we'd love to hear what you think about the index. Feedback can be sent to institutes@digital-science.com. For more on the index, check out Nature Publishing Group's press release.

Kudos again to Caitlin, Dan Hagon and Johannes Goller on the Metrics team for their tremendous work on this project. Keep up the good work!


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

vendredi 25 février 2011

PNAS : un récent avis de l’Académie américaine sur la Bibliométrie

 
 

Envoyé par io2a via Google Reader :

 
 

via URFIST Info de Manuel le 24/02/11

Nous avons évoqué à deux reprises dans des précédents billets la publication du Rapport de l'Académie des Sciences en date du 17 janvier 2011, critique sur la bibliométrie.

Sans doute est-ce là pure coïncidence, mais un mois auparavant, dans l'éditorial de leur numéro du 14 décembre dernier, les PNAS intitulaient « Impacting our young » un texte émettant de manière très synthétique des réserves identiques sur le sujet, touchant notamment l'effet pervers de certains biais sur la dynamique des jeunes chercheurs.

Le fait que l'attitude en la matière des deux Académies, américaine et française, soit relativement proche, tant sur le plan chronologique que conceptuel, n'est peut-être pas anodin.

Il n'est pas inutile de rappeler certains propos émis voilà presque dix ans dans Nature par d'éminents chercheurs dont la  réputation était déjà bien assise.

Peter Lawrence, du Laboratoire de Biologie moléculaire de Cambridge, avait publié dans Nature en 2003 un article fondamental pour l'analyse critique du couple SCI/JCR, intitulé « The Politics of Publication ». Il n'hésitait pas à s'exprimer sur certaines formes de népotisme qui habitent parfois les comités de lecture, allant même jusqu'à déceler des articles excessivement synthétisés, voire mis en page de façon marginale, pourvu que leurs auteurs puissent figurer dans une revue à fort Facteur d'impact. Peu après, David Colquhoun du Département de Pharmacologie de l'University College de Londres, s'est insurgé contre les incohérences du système : « Challenging the tyranny of impact factors », en réponse ou plutôt pour faire suite aux observations de Lawrence.

Le débat, on le voit (ou le revoit) n'est donc pas nouveau. C'est sans doute une lapalissade, mais il nous semble opportun d'attirer l'attention sur ces observations émergentes et convergentes en vue de contribuer à l'évolution des sensibilités sur la question.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

PNAS : un récent avis de l’Académie américaine sur la Bibliométrie

 
 

Envoyé par io2a via Google Reader :

 
 

via URFIST Info de Manuel le 24/02/11

Nous avons évoqué à deux reprises dans des précédents billets la publication du Rapport de l'Académie des Sciences en date du 17 janvier 2011, critique sur la bibliométrie.

Sans doute est-ce là pure coïncidence, mais un mois auparavant, dans l'éditorial de leur numéro du 14 décembre dernier, les PNAS intitulaient « Impacting our young » un texte émettant de manière très synthétique des réserves identiques sur le sujet, touchant notamment l'effet pervers de certains biais sur la dynamique des jeunes chercheurs.

Le fait que l'attitude en la matière des deux Académies, américaine et française, soit relativement proche, tant sur le plan chronologique que conceptuel, n'est peut-être pas anodin.

Il n'est pas inutile de rappeler certains propos émis voilà presque dix ans dans Nature par d'éminents chercheurs dont la  réputation était déjà bien assise.

Peter Lawrence, du Laboratoire de Biologie moléculaire de Cambridge, avait publié dans Nature en 2003 un article fondamental pour l'analyse critique du couple SCI/JCR, intitulé « The Politics of Publication ». Il n'hésitait pas à s'exprimer sur certaines formes de népotisme qui habitent parfois les comités de lecture, allant même jusqu'à déceler des articles excessivement synthétisés, voire mis en page de façon marginale, pourvu que leurs auteurs puissent figurer dans une revue à fort Facteur d'impact. Peu après, David Colquhoun du Département de Pharmacologie de l'University College de Londres, s'est insurgé contre les incohérences du système : « Challenging the tyranny of impact factors », en réponse ou plutôt pour faire suite aux observations de Lawrence.

Le débat, on le voit (ou le revoit) n'est donc pas nouveau. C'est sans doute une lapalissade, mais il nous semble opportun d'attirer l'attention sur ces observations émergentes et convergentes en vue de contribuer à l'évolution des sensibilités sur la question.


 
 

Ce que vous pouvez faire à partir de cette page :

 
 

jeudi 24 février 2011

Les e-publications de l’OST

 
 

Envoyé par io2a via Google Reader :

 
 

via Les actualités de l'OST le 23/02/11

L'OST propose 3 séries de e-publications : -                     Les «notes et comptes-rendus», qui permettent de relater les échanges entre les acteurs de la R&D et de l'innovation dans le cadre de séminaires et de groupes de travail ; les deux premiers numéros appartiennent à cette série. -                     Les «résultats et recherches», qui visent à présenter de manière pédagogiques des résultats de recherches menées par l'OST en collaboration avec des équipes de recherche, -                     Les «points méthodologiques», qui visent à présenter les principales méthodes de construction des indicateurs en bibliométrie. Dans la collection «notes et comptes-rendus» : Numéro 2 : janvier 2011 - Atelier «Innovation et Territoires» sur les indicateurs d'impact des dépenses de R&D publique   Numéro 1 : octobre 2010 - Atelier «Innovation et Territoires» sur les indicateurs macroéconomiques régionaux  

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

Les e-publications de l’OST

 
 

Envoyé par io2a via Google Reader :

 
 

via Les actualités de l'OST le 23/02/11

L'OST propose 3 séries de e-publications : -                     Les «notes et comptes-rendus», qui permettent de relater les échanges entre les acteurs de la R&D et de l'innovation dans le cadre de séminaires et de groupes de travail ; les deux premiers numéros appartiennent à cette série. -                     Les «résultats et recherches», qui visent à présenter de manière pédagogiques des résultats de recherches menées par l'OST en collaboration avec des équipes de recherche, -                     Les «points méthodologiques», qui visent à présenter les principales méthodes de construction des indicateurs en bibliométrie. Dans la collection «notes et comptes-rendus» : Numéro 2 : janvier 2011 - Atelier «Innovation et Territoires» sur les indicateurs d'impact des dépenses de R&D publique   Numéro 1 : octobre 2010 - Atelier «Innovation et Territoires» sur les indicateurs macroéconomiques régionaux  

 
 

Ce que vous pouvez faire à partir de cette page :

 
 

A fresh approach to evaluating the academic ranking of world universities

 
 

Envoyé par io2a via Google Reader :

 
 


Abstract  
The aim of this article is to present new ideas in evaluating Shanghai University's Academic Ranking of World Universities (ARWU). One issue frequently put forth in various publications is that the Shanghai rankings are sensitive to the relative weight they attribute to each variable. As a possible remedy to this issue, the statistical I-distance method is proposed to be used. Based on a sample containing the top 100 ranked universities, the results show a significant correlation with the official ARWU list. However, some inconsistencies concerning European universities have been noticed and elaborated upon.

  • Content Type Journal Article
  • Pages 1-10
  • DOI 10.1007/s11192-011-0361-6
  • Authors
    • Veljko Jeremic, Faculty of Organizational Sciences, University of Belgrade, Jove Ilica 154, 11000 Belgrade, Serbia
    • Milica Bulajic, Faculty of Organizational Sciences, University of Belgrade, Jove Ilica 154, 11000 Belgrade, Serbia
    • Milan Martic, Faculty of Organizational Sciences, University of Belgrade, Jove Ilica 154, 11000 Belgrade, Serbia
    • Zoran Radojicic, Faculty of Organizational Sciences, University of Belgrade, Jove Ilica 154, 11000 Belgrade, Serbia

 
 

Ce que vous pouvez faire à partir de cette page :