Alternative Bewertungen von Wissenschaft und Wissenschaftlern

Verfolgen Sie die Spuren, die Ihre Publikation im Netz hinterlassen hat

editorial_bild

(29. Dezember 2011) Wie oft hat jemand einen Artikel getwittert oder bei Facebook „geliked“? Ist er schon bei Wikipedia zitiert? Hat ihn jemand in einem Online-Referenzmanager abgelegt? Um das und noch viel mehr herauszubekommen, gibt es neue (und alte) Online-Werkzeuge. Die sind zwar noch nicht so ausgereift, wie der altbekannte Journal Impact Factor oder der H-Index, dafür funktionieren sie schnell, sind aktuell und geben einen ganz neuen Blick auf die Bewertung von Wissenschaftlern und Literatur.

Spurensuche im Netz: Wenn Sie zum Beispiel den im November 2011 in Nature erschienenen Artikel „Scientists and autism: When geeks meet“ von Lizzie Buchen (Nature 2011, 479: 25-7, doi:10.1038/479025a) gelesen haben und wissen wollen, wie oft er im Netz weiterempfohlen wurde – versuchen Sie es mit Total Impact. Total Impact durchsucht verschiedene Webseiten wie den Online-Referenzmanager Mendeley, die Online-Lesezeichen-Dienste CiteULike und Crossref, aber auch die englische Wikipedia und Blogs, die sich der Plattform Research Blogging angeschlossen haben.

Sie können in die Total Impact-Suchmaske den Digital Object Identifier (DOI), den jede wissenschaftliche Publikation bekommt, eingeben, aber auch URLs, eine PubMed ID oder einige weitere Kennungen. Mit der Kombination aus DOI und URL erfahren Sie, dass der Artikel von Lizzie Buchen momentan 681 Facebook „Shares“, 531 Kommentare, 315 „Likes“ und 378 Tweets bekommen hat, zudem zweimal bei CiteULike als Lesezeichen gesetzt wurde und sieben Mendeley-Leser hat. Die genannten Quellen sind in den meisten Fällen verlinkt (außer bei Facebook), sodass man nachsehen kann, wer den Artikel erwähnt hat. Die Suchmaschine spuckt allerdings, je nach dem, ob man sich auf die Spur von URL, DOI oder einem anderen Merkmal begibt, verschiedene Ergebnisse aus. Um eine „vollständige“ Analyse zu bekommen muss man daher möglichst viele Merkmale beachten, außerdem ändern sich die Zahlen ohnehin regelmäßig. Die Macher betonen zudem, dass Total Impact noch nicht für ernsthafte Vergleiche herangezogen werden kann.

Citedin dagegen verspricht alle Zitierungen zu finden, die auf einer PubMed ID (PMID) basieren. Die Suchmaschine fragt teilweise andere Quellen ab als Total Impact, zum Beispiel verschiedene Biomedizinische Datenbanken, aber auch Blogs, Bücher via Google Books und einige „Wikis“. Gibt man die PMID des Artikels „A draft sequence of the Neandertal genome“ von Richard Green et al. ein (Science 2010, 328(5979):710-22, PMID: 20448178) verweist Citedin auf 190 Mendeley-Einträge, 41 CiteULike-Lesezeichen, 19 Zitate in der englischen Wikipedia, 3 Einträge bei Google-Blogs und einen beim Nature-Blog. Schade, dass die Weiterleitung zu den versprochenen Details (noch) nicht funktioniert.

Ein auf die PLoS-Journale beschränktes Suchwerkzeug ist der Impact Explorer. Hier kann man sich für verschiedene vergangene Zeitintervalle von „einem Tag“ bis zu „aller Zeit“ anzeigen lassen, welche PLoS-Artikel im Netz den meisten „Buzz“ bekommen haben, sprich wie beliebt sie waren. Die Suchmaschine fragt in der Datenbank altmetric ab, wie oft die PLoS-Artikel unter anderem bei Twitter, in Blogs, bei Google+ und in verschiedenen Publikationen wie Guardian, New York Times und New Scientist verlinkt wurden. Ein Klick auf das bunte Rädchen, das graphisch anzeigt, von welchen Internet-Diensten die meisten Links kommen, führt zu den jeweiligen Kommentaren.

Der am häufigsten erwähnte PLoS-Artikel aller Zeiten – zumindest nach Impact Explorer-Kriterien – ist derzeit „Why Most Published Research Findings Are False“ (John P. A. Ioannidis, PLoS Med 2005, 2(8): e124) mit 299 Zitierungen. Es folgen „Broad-Spectrum Antiviral Therapeutics“ (Todd H. Rider et al., PLoS ONE 2011, 6(7): e22572) und „How Many Species Are There on Earth and in the Ocean?“ (Camilo Mora et al., PLoS Biol 2011, 9(8): e1001127) mit 297 beziehungsweise 276 Zitierungen. Im Impact Explorer lassen sich auch einzelne PLoS-Journale separat durchsuchen. So ist zum Beispiel der meist-erwähnte Artikel aus PLoS Computational Biology „Ten Simple Rules for Building and Maintaining a Scientific Reputation“ (Bourne and Barbour, PLoS Comput Biol 2011, 7(6): e1002108) mit 133 Zitierungen. – Interessant, was die Scientific online-Community am liebsten liest!

Für Wissenschaftler dagegen, die beim „Namengooglen“ bisher enttäuscht wurden, ist ReaderMeter eine Alternative. Die Suchmaschine greift auf die Literatur-Daten von Mendeley zurück und kann deshalb sagen, welche Artikel eines Autors dort wie oft zitiert wurden, aus welchem Land die einzelnen Zitate und aus welchen wissenschaftlichen Disziplinen die Leser kommen. Zudem sind die Co-Autoren aller gefundenen Artikel aufgelistet. Als besonderes Schmankerl hat ReaderMeter den altbekannten H-Index (auch Hirsch-Index) und den G-Index als HR- und GR-Index neu definiert. Statt Zitierungen werden nun Online-Lesezeichen verwendet: Ein HR-Index von 10 bedeutet, dass die zehn Top-Publikationen eines Autors jeweils mindestens zehn mal als Lesezeichen gesetzt wurden, ein GR-Index von 10 dagegen, dass die zehn Top-Publikationen insgesamt mindestens von 100 Lesern (102) als Lesezeichen gesetzt wurden.

All diese Werkzeuge sind zwar nicht perfekt – auch bei der Recherche waren sie immer mal wieder offline –, doch zumindest kann man damit im Netz den Spuren nachjagen, die die eigenen Veröffentlichungen hinterlassen haben.


Valérie Labonté
Bild: blindguard / photocase.com



Letzte Änderungen: 17.01.2012
© 2009 Laborjournal und F & R Internet Agentur

Impressum | Datenschutz | Haftungsausschluß

© 1996-2013 Laborjournal und f+r internet agentur, Freiburg