Thursday, October 8, 2015

Sitering som kvalitetsindikator

Curt Rice skrev en tankevekkende bloggpost i fjor om hvordan en evaluering av den norske forskningsindikatoren konkluderte med at indikatoren har hjulpet til med å øke antall publiseringer, men ikke hevet kvaliteten:

"Regarding the overall conclusion it is natural to return to the evaluation questions: has the Publication Indicator stimulated more research, and research of higher quality? Our assessment here is that the indicator has likely helped regarding the first part of the question, but not compared to the last - at least not when we measure quality in terms of impact."

Curt Rice skriver:
"In 2000, 25% of Norwegian articles remained uncited in their first four years of life. By 2009, this had fallen to about 15%. "
og Björn Brembs trekker følgende konklusjon dersom man legger som premiss at færre usiterte artikler er like ille som færre avviste artikler til tidsskriftene:
"An increasing number of articles with any citations at all can thus only mean one thing: the Dunning-Kruger Effect has come to science."
Dette er ikke Curt Rice eller Björn Brembs sitt inntrykk. Men det er derimot sterke indikasjoner på at fagfellevurderingen ikke virker for å sortere ut kvalitet og at siteringer er et dårlig mål på kvalitet, mest sansynlig kontraproduktivt. I artikkelen "How to Make More Published Research True" så skriver John P. A. Ioannidis i Summary Points:
Currently, many published research findings are false or exaggerated, and an estimated 85% of research resources are wasted.


No comments:

Post a Comment