Die mögliche Vielfalt der Impact-Messung: Anbietervergleich von Aggregatoren von Altmetriken

Von Robin Rothe und Jasmin Schmitz

Die „klassische“ Impact-Messung basierend auf der Zählung von Zitationen wird zunehmend als unzureichend erachtet. Hauptkritikpunkte sind hierbei, dass die von kommerziellen Anbietern generierten Zitationszahlen nicht offen einsehbar und daher wenig transparent sind. Zudem stehen diese nicht für alle Produkte wissenschaftlichen Forschungsoutputs wie Forschungsdaten oder Software zur Verfügung. Außerdem stellt das Zählen von Zitationen nur eine Möglichkeit dar, Impact zu messen (1). Zentrale Forderungen von Initiativen wie San Francisco Declaration on Research Assessment (DORA) (2) und Altmetrics Manifesto (3) sind daher, die Impact-Messung auf eine breitere Basis zu stellen und auch auf andere Formen der Nutzung auszuweiten. Diese Ausweitung wird unter dem Schlagwort „Altmetriken“ (engl. Altmetrics) diskutiert, einer Zusammensetzung aus „alternativ“ und „Metriken“. Dabei verstehen sich Altmetriken aber eher als Ergänzung zur klassischen Impact-Messung, weniger als Ersatz. Häufig werden diese auch als „article level metrics“ bezeichnet, weil entsprechende Zahlen auf der Ebene der Publikationen (z.B. Zeitschriftenartikel, Forschungsdatenveröffentlichung, Softwarepublikation, Blogbeitrag, Veröffentlichung von Präsentationsfolien) selbst erhoben werden.

Neben der Ermittlung, wie häufig Veröffentlichungen zitiert werden, wird auch gemessen, wie häufig diese beispielsweise abgerufen, gespeichert, geteilt, kommentiert oder empfohlen wurden. Insbesondere die Erwähnung in Sozialen Medien spielt dabei eine große Rolle, die mittlerweile Einzug in sämtliche Lebensbereiche gehalten haben und daher auch bei der Impact-Messung berücksichtigt werden sollen. Viele der Plattformen bieten mittlerweile die Möglichkeit, über eine API altmetrische Kennzahlen für Publikationen abzurufen. Häufig wird hierbei mit einem persistenten Identifikator wie dem DOI gearbeitet. Zudem gibt es eine Reihe von Datenaggregationen, die entsprechende Anbieter abfragen und die Kennzahlen gebündelt präsentieren. Die bekannteste Darstellungsform ist hierbei der „Donut“ von altmetric.com (4).

Möchte man selbst altmetrische Kennzahlen für Publikationen erheben (z.B. für sich selbst oder für Publikationen im Repositorium oder Publikationsdienst), stellt sich die Frage nach einem geeigneten Anbieter. Hierbei ist nicht unerheblich, wie viele und welche Datenquellen ausgewertet werden.

Die nachfolgende Tabelle informiert über verschiedene Datenaggregatoren und die Datenquellen, die sie auswerten. Das Schema beruht auf einer Zusammenstellung in Jobmann et al. 2014 (5); dort findet sich auch eine kurze Beschreibung zu PlumX, ImpactStory, Altmetric Explorer von altmetric.com und Webmetric Analyst. Neben diesen kommerziellen Anbietern gibt es seit 2009 Lagotto (6). Dabei handelt es sich um eine freie Software, die flexibel konfigurierbar ist und von PLOS entwickelt und via GitHub bereitgestellt wurde. Es wird u.a. von PLOS ONE, Copernicus Publications und CrossRef verwendet (7).

Tabelle mit den Datenaggregatoren und Datenquellen

Datenaggregatoren und Datenquellen

Es ist zu erkennen, dass insbesondere PlumX, aber auch die anderen Aggregatoren von Altmetriken bemüht sind, eine möglichst große Vielfalt an Datenanbietern zu identifizieren und in ihr Produkt zu implementieren. Erkennbar ist auch, dass neben den klassischen Zitationen auch „comments“, „likes“, „mentions“, „views“, „follower“s, „readers“, etc. ausgewertet werden.

Was sich aus der Tabelle nicht ablesen lässt, ist, was sich hinter den einzelnen Datenquellen und deren Kennzahlen verbirgt. Auch kann die Fülle aus 35 Datenquellen und 58 dazugehörigen Auswertungsmerkmalen bei der erstmaligen Betrachtung in dieser reinen Auflistung für Überforderung sorgen. Um diesem vorzubeugen, erscheint es sinnvoll, die einzelnen Datenquelle näher zu betrachten und genauer zu überprüfen, was diese im Kontext von Impact-Messung zu bieten haben. Dieses wird in der nachfolgenden Tabelle versucht zu erläutern:

Tabelle mit Datenquellen und Impactmessung

Datenquellen und Impactmessung – Erläuterung

Die Diversität macht deutlich, wie vielfältig Impact-Messung sein kann. Neben Microblogging-Dienste wie Twitter, Soziale Medien wie Facebook und Bookmarking-Dienste wie Mendeley werden auch Erwähnungen auf Blogs, in Wikipedia, in Patentdokumenten oder in „policy documents“ in Betracht gezogen. Zudem werden Schnittstellen von „Sharing“-Plattformen wie Repository-Anbietern, Figshare, Github und Video-Plattformen „angezapft“ und Bewertungsseiten wie Reddit ausgewertet (8).

Vor der Auswahl einer Datenquelle bzw. eines Aggregators empfiehlt es sich, die eigene Zielsetzung zu definieren (Welche Zahlen möchte ich für wen erheben und zu welchem Zweck?). Bei Nutzung aller möglichen Quellen und allen dort auswertbaren Daten kann es passieren, dass die eigenen Nutzerinnen und Nutzer auf Grund der Masse an Informationen überfordert sind. Gleichzeitig besteht die Gefahr der Beliebigkeit und damit der möglichen Einschränkung des Impact von Altmetriken. Andererseits ist es ja gerade der Sinn von alternativen Metriken, neben der klassischen Zählung von Zitationen auch andere Nutzungsdaten auszuwerten, weswegen eine zu starke Beschränkung auf wenige Werte das Potenzial missachten würde. Inwieweit alle hier dargestellten Kennzahlen tatsächlich dauerhaft in die altmetrische Impact-Messung Eingang finden, darüber lässt sich nur spekulieren. Vielfach ist noch unklar, wie sich Erwähnungen und deren Häufigkeit tatsächlich interpretieren lassen. Insbesondere dadurch, dass sowohl der Kontext, als auch der Inhalt nicht in die Auswertung mit einfließen, fehlt häufig ein Anhaltspunkt für die Qualität z.B. einer Erwähnung auf Twitter, einem Like bei Facebook oder aber auch einer Erwähnung auf einem Blog von WordPress. Auch ist bislang noch nicht geklärt, wie mit den Messwerten von „Views“ auf Videoplattformen wie Youtube und Vimeo umgegangen wird und was diese aussagen. Möglich wäre dabei auch eine unterschiedliche Gewichtung der Quellen. Es darf aber auch nicht vergessen werden, dass es gerade die Idee von alternativen Metriken ist, die bisherige Beschränkung auf wenige renommierte Quellen aufzubrechen und Nutzung viel genereller und offener darstellbar zu machen. Daraus ergibt sich auch die große Möglichkeit, dass für unterschiedliche Fachdisziplinen unterschiedliche Metriken Einfluss auf den jeweiligen Impact haben und damit fachspezifische Faktoren entworfen werden können.

ZB MED prüft derzeit die Möglichkeiten der Einbindung von Altmetriken in seine PUBLISSO-Publikationsplattformen, um Herausgeberinnen / Herausgeber und Autorinnen /Autoren, Informationen zur Nutzung der Publikationen bereitzustellen.


(1) Siehe auch: J. Schmitz (2016): Messung von Forschungsleistungen. Altmetrics: Auf dem Weg zur Standardisierung. In: Open Password Pushdienst vom 10.06.2016
(2) San Francisco Declaration on Research Assessment
(3) J. Priem, D. Taraborelli, P. Groth, C. Neylon (2010), Altmetrics: A manifesto, 26.10.2010
(4) Altmetric Badges
(5) A. Jobmann, Ch. P. Hoffmann, S. Künne, I. Peters, J. Schmitz, G. Wollnik-Korn (2014): Altmetrics for large, multidisciplinary research groups: Comparison of current tools. In: Bibliometrie: Praxis und Forschung. Band 3, urn:nbn:de:bvb:355-bpf-205-9
(6) Lagotto
(7) ALM – Article-Level Metrics
(8) Siehe hierzu auch S. Haustein (2016): Grand challenges in altmetrics: heterogeneity, data quality and dependencies. In: Scientometrics 108: 413-423. DOI:10.1007/s11192-016-1910-9.

Verlag stellt Creative-Commons-Lizenzen in Frage: Warum (liberale) Open-Content-Lizenzen doch sinnvoll für Autorinnen und Autoren sind

Von Jasmin Schmitz

Die Creative-Commons-Lizenz CC-BY ist die laut Directory of Open Access Journals (DOAJ) mit Abstand am häufigsten genutzte Lizenz. Ein Blogbeitrag von De Gruyter Open stellt nun in Frage, ob die Lizenzbedingungen tatsächlich im Sinne der wissenschaftlichen Autorinnen und Autoren sind [1].

Dabei stützt man sich auf die Ergebnisse einer Befragung. Autorinnen und Autoren wurde die Frage gestellt, ob sie ohne persönliche Zustimmung Lesern erlauben würden, ihre Publikation zu übersetzen, in einen Sammelband zu übernehmen, automatische Extraktion von Daten mittels Software durchzuführen oder die Arbeit von einer kommerziellen Firma noch einmal zu veröffentlichen. Zweifelsohne sind dies alles Nutzungsmöglichkeiten, die von der CC-BY-Lizenz gestattet werden. Während beim letzten Aspekt (kommerzielle Wiederverwendung) die Zustimmung bei unter 10% liegt, erreichen sie bei den übrigen Punkten unter 40% Zustimmung. Daraus wird geschlossen, dass die Mehrheit der Autorinnen und Autoren mit den Grundsätzen der CC-BY-Lizenz nicht einverstanden ist.

Allerdings ist die Art, wie die Fragen gestellt wurden, problematisch (wie auch in den Kommentaren angemerkt [2]), weil der insbesondere für die Wissenschaft relevante Kernaspekt der „Pflicht zur Namensnennung“ (Attribution), die Bestandteil aller Creative-Commons-Lizenzen ist,  in der Fragestellung nicht auftaucht. Wissenschaftliche Autorinnen und Autoren sind insbesondere daran interessiert, dass die von ihnen generierten Ergebnisse und Erkenntnisse auch mit ihrem Namen in Verbindung gebracht werden. Zudem sind sie an deren Verbreitung interessiert. Die CC-BY-Lizenz ist hier ideal, weil sie in ihren Lizenzbedingungen vorsieht, dass ein Werk genutzt und verbreitet werden darf, ohne dass jeweils die Zustimmung der Autorinnen und Autoren eingeholt werden, wohl aber deren Namen genannt werden muss. Letzteres ist im Übrigen auch ein Gebot der wissenschaftlichen Redlichkeit.

Zudem wird den Befragten nicht näher erklärt, was mit „Extraktion mittels automatischer Software“ und „Nutzung durch kommerzielle Firmen“ gemeint ist.  Beides wird nicht allen Autorinnen und Autoren bekannt sein. Ersteres meint in erster Linie Text und Data Mining, welches zum Ziel hat, auf der Basis größerer Text- und Datenmengen Muster oder Zusammenhänge zu finden, die unter Umständen auf neue Erkenntnisse deuten. Also eigentlich Verfahren, gegen die Wissenschaftlerinnen und Wissenschaftler nicht ernsthaft Einwände haben können. Im Rahmen der Auslegung des NC-(Non-Commercial-) Bestandteils von Creative-Commons-Lizenzen gelten selbst gemeinnützige Plattformen wie Wikipedia als kommerziell, wenn sie eine Textauswahl als CD/DVD vertreibt. Zur kommerziellen Nutzung würde auch die Aufnahme in Fachdatenbanken gehören, die dann unter Umständen gegen Gebühr lizenziert werden. Beides dient aber auch schlussendlich wieder der Verbreitung. Mit der Frage nach unautorisierter Übersetzung und Aufnahme in Sammelbänden werden Nutzungsszenarien angesprochen, die im wissenschaftlichen Kontext nicht unbedingt alltagsüblich sind, wenngleich sie auch in Einzelfällen vorkommen.

Was wäre die Alternative zur Creative-Commons-Lizenzierung? Ohne eine Open-Content-Lizenz gilt das Urheberrecht. Verschwiegen wird, dass klassische Verlags-/Autorenverträge häufig vorsehen, dass Autorinnen und Autoren das ausschließliche Nutzungsrecht an den Verlag abtreten und somit im schlimmsten Fall selbst von der Nutzung ihres eigenen Werkes ausgeschlossen werden [3].

Mit ausschließlichem Nutzungsrecht kann der Verlag ebenfalls den Artikel auf vielfältige Weise weiter nutzen, ohne Autorinnen und Autoren um Erlaubnis zu fragen. Bei einer Creative-Commons-Lizenzierung hingegen behalten Autorinnen und Autoren ihre Nutzungsrechte.

Die Vergabe von Creative-Commons-Lizenzen für Open-Access-Publikationen in eigenen Zeitschriften bedeutet schlussendlich für Verlage, dass sie den von ihnen veröffentlichten Content nicht exklusiv besitzen. Aus wirtschaftlicher Sicht mag das ein Nachteil sein. Doch auch Verlage sind an einer möglichst großen Verbreitung interessiert und die damit einhergehende Möglichkeit, häufiger rezipiert und zitiert zu werden.

Die Studie zeigt lediglich, wie wenig Autorinnen und Autoren tatsächlich über Urheberrecht, Nutzungsrechte und die Vorteile, die Open-Content-Lizenzen wie Creative Commons bieten, wissen [4]. Hier ist dringend Aufklärung vonnöten! Die Ergebnisse taugen aber nicht dazu, die bisherige Praxis in Bezug auf Vergabe von Open-Content-Lizenzen bei Open-Access-Zeitschriftenbetreibern in Frage zu stellen.


Weitere Informationen zum Thema Creative-Commons-Lizenzen finden sich in unserem FAQ „Creative-Commons-Lizenzen: Was ist darunter zu verstehen?“ 


[1] Blogbeitrag von De Gruyter Open, 25. April 2016

[2] Siehe Kommentar von Bernhard Mittermaier vom 1. Mai 2016.

[3] Siehe Kommentare von Sebastian Nordhoff vom 26. April 2016 und Richard W vom 2. Mai 2016.

[4] Siehe Kommentare von Sebastian Nordhoff vom 26. April 2016, Nicholas Goncharoff vom 29. April 2016 und Richard W vom 2. Mai 2016.

 

Tipps & Tricks: Den Journal Impact Factor für Zeitschriften ermitteln, in denen man publiziert hat

Von Jasmin Schmitz

Wissenschaftlerinnen und Wissenschaftler wenden sich häufig mit der Frage an uns, wie Sie den Journal Impact Factor (JIF) für Zeitschriften bestimmen können, in denen sie veröffentlicht haben. Der Journal Impact Factor gibt an, wie häufig die Artikel einer Zeitschrift durchschnittlich zitiert werden. Hierzu werden die Zitationen im Berichtsjahr auf Publikationen, die in den vergangenen zwei Jahren veröffentlicht wurden, gezählt und durch die Anzahl der Artikel, die in diesen vergangenen zwei Jahren erschienen sind, geteilt.

Die JIFs lassen sich einerseits über die Journal Citation Reports (JCR) ermitteln; nicht selten finden sich auch Angaben auf den entsprechende Webseiten der Zeitschriften. Ein anderer Weg führt über das Web of Science.

Folgende Schritte sind notwendig:

  1. Recherche nach den eigenen Publikationen
  2. Aufruf der Detailansicht durch Klick auf den Titel des Artikels
  3. Im oberen Drittel der Seite befindet sich ein Link „View Journal Information“ (Abbildung 1). Mit Klick darauf wird der aktuelle Journal Impact Factor der Zeitschrift angezeigt sowie Informationen darüber, wie sich die Zeitschrift im Fachgebiet verorten lässt (Abbildung 2).

Screenshot Artikel im Web of Science

Abb. 1: Detailseite eines Artikels im Web of Science

Screenshot Artikel im Web of Science

Abb. 2: Informationen zu einer Zeitschrift, einschließlich Journal Impact Factor

Diese Informationen stehen allerdings nur dann zur Verfügung, wenn die Zeitschrift auch in den Journal Citation Reports aufgenommen wurde, andernfalls lässt sich kein JIF ermitteln.

Zu beachten ist, dass das Web of Science eine lizenzpflichtige Datenbank ist. Viele Hochschulbibliotheken haben diese abonniert. Ein Zugriff ist allerdings nur möglich, wenn man sich im IP-Bereich der jeweiligen Einrichtung befindet bzw. wenn über „remote access“ der Zugriff von außen eingerichtet wurde.

Der Journal Impact Factor ist insgesamt nicht unumstritten und eignet sich nicht, um Aussagen über die Qualität einer wissenschaftlichen Publikation zu treffen, insbesondere da er auf der Ebene der Zeitschrift berechnet wird. Mit der durchschnittlichen Zitierhäufigkeit der Zeitschrift lässt sich nicht vorhersagen, wie häufig der eigene Artikel zitiert werden wird.

Weitere Informationen zu den Kritikpunkten und mögliche Alternativen finden Sie in unserem FAQ auf der PUBLISSO-Website: Journal Impact Factor und Alternativen: Was gibt es hier Wissenswertes?


Weiterführende Informationen:

Journal Citation Reports

Web of Science

Pay What You Want: Autorinnen und Autoren legen die Höhe der Publikationsgebühren selbst fest

Von Jasmin Schmitz

Eine Variante der Finanzierung von Open-Access-Publikationen ist das Erheben von Publikationsgebühren (sogenannten Article Processing Charges, kurz APCs), die von wenigen Euro bis zu Beträgen im mittleren vierstelligen Bereich reichen können. Ein neues Modell erprobt derzeit der Thieme Verlag: Für seine im letzten Sommer gegründete Zeitschrift „The Surgery Journal“ möchte der Verlag die Autorinnen und Autoren selbst entscheiden lassen, wie hoch jeweils die Publikationsgebühr sein soll (Pay What You Want)(1). Das Geschäftsmodell wurde gemeinsam mit Betriebswirtschaftswissenschaftlerinnen und -wissenschaftlern der LMU München entwickelt. Laut Autorenrichtlinien der Zeitschrift kann nach dem Peer Review und Akzeptanz der Publikation die Höhe der Publikationsgebühr festgelegt werden (2). Thieme möchte mit diesem Versuch Fakten dahingehend sammeln, wie viel Autorinnen und Autoren der Übergang zu Open Access tatsächlich Wert ist und diese in die Diskussion über die Finanzierung von Open Access einbringen. Der Verlag betont, dass ein rigoroses Peer Review durchgeführt wird und die Veröffentlichung den hohen Qualitätsstandards des Verlages entspricht.

Durch die Festlegung der Publikationsgebühren am Ende des Peer-Review-Prozesses besteht nicht die Gefahr, dass die Autorinnen und Autoren sich durch die Bereitschaft zur Zahlung hoher Gebühren „einkaufen“ können. Den Informationen auf der Zeitschriften-Website nach zu urteilen, sind zudem feste Ausgaben geplant; das Konzept von Megajournals wie PLOS ONE wird folglich nicht aufgegriffen, so dass auch nicht über eine höhere Anzahl von Artikeln entsprechende Einnahmen generiert werden (3).

Thieme ist zuversichtlich, dass Autorinnen und Autoren angemessene Beträge zahlen, damit das Angebot aufrechterhalten werden kann. Allerdings fehlen ihnen konkrete Anhaltspunkte zur Festsetzung der APCs, dahingehend was die digitale Publikation wissenschaftlicher Artikel tatsächlich kostet, da die Verlage sich hier bedeckt halten (4).

Eine Möglichkeit wäre, sich an vergleichbare APCs im Feld zu orientieren. In der Medizin sind Beträge in der Größenordnung von 1.500-2.000 USD (ca. 1.300-1.700 Euro) durchaus üblich. Allerdings ist die Höhe der APCs auch an das Prestige einer Zeitschrift und der Höhe des Journal Impact Factors geknüpft (5.). Da es sich bei „The Surgery Journal“ um eine Zeitschriftenneugründung handelt, lassen sich nur schwerlich Aussagen über die Qualität der Zeitschrift machen. In diesem Fall muss sich auf das Prestige des Verlages verlassen werden.

Anhaltspunkte hinsichtlich der Bereitschaft zur Bezahlung von APCs und zur möglichen Höhe lassen sich Umfragen unter Wissenschaftlerinnen und Wissenschaftlern entnehmen. Eine Untersuchung, an der mehrere Einrichtungen aus dem Wissenschaftsbetrieb und Publikationswesen beteiligt waren, kommt zu dem Ergebnis, dass die Mehrheit der Autorinnen und Autoren maximal 500 Euro für eine Publikation bezahlen würden (6). Eine weitere Studie kommt zu ähnlichen Ergebnissen (7).

Erste Ergebnisse von der LMU München bestätigen diese Größenordnungen (8), wenngleich noch sehr wenige Daten zur Verfügung stehen. Durchschnittlich wurden 427,50 USD bezahlt, der Median liegt bei 250 USD. „Freeriding“ (also Autorinnen und Autoren, die nicht bezahlen) kommt vor, die Mehrheit bezahlt aber Publikationsgebühren.


 

(1) Thieme to launch new Pay What You Want Open Access Journal this spring, 03.06.2015.

(2) The Surgery Journal – Author Instructions.

(3) U. Herb: Open Access: Pay What You Want. Telepolis, 30.06.2015.

(4) Ebenda

(5) D. J. Solomon/ B.-C. Björk: A study of open access journals using article processing charges. Journal of the American Society for Information Science and Technology, 63 (8), 2012: 1485-1495. Doi: 10.1002/asi.22673

(6) Suenje Dallmeier-Tiessen et al.: Open Access Publishing Today: What scientists do and why. SOAP Symposium, January 13th, 2011, Berlin (presented by Salvatore Mele).

(7) D. J. Solomon/ B.-C. Björk: Publication fees in open access publishing: Sources of funding and factors influencing choice of journal. Journal of the American Society for Information Science and Technology, 63(1): 98-107. Doi: 10.1002/asi.21660.

(8) M. Spann: Open Access Pricing: Pay what you want. Vortrag im Rahmen des EC Workshop on Alternative Open Access Publishing Models am 12.10.2016 in Brüssel: ab 05:17:00.

Was kosten Publikationsleistungen?: Erhebliche Spannbreiten bei Publikationsgebühren von Open- Access-Zeitschriften

von Jasmin Schmitz

Vor einiger Zeit wurden wir auf eine Excel-Tabelle auf der Plattform Figshare aufmerksam, die Publikationsgebühren (engl. article processing charge, kurz: APC) und Journal Impact Factors (JIF) von mehr als 2.600 originären Open-Access- sowie Hybrid-Zeitschriften darstellt. Die Daten liegen einem Blog-Beitrag des Verlages Frontiers zugrunde, der im letzten Jahr veröffentlicht wurde. Während der Blogbeitrag nur bedingt lesenswert ist, da er insbesondere auf Eigenwerbung abzielt, ist eine nähere Beschäftigung mit der Tabelle auf Figshare lohnenswert.

Sie bietet einen Überblick über die Publikationsgebühren von Gold Open-Access- und hybriden Zeitschriften zahlreicher Verlage. Hybride Zeitschriften sind solche, die in erster Linie als Subskriptionszeitschriften vertrieben werden, bei denen aber die Möglichkeit besteht, durch die Zahlung von Publikationsgebühren einzelne Artikel „freizukaufen“ und diese Open Access zu stellen. Zu beachten ist allerdings, dass die Liste der Verlage nicht vollständig ist. Hier eine Zusammenfassung der Daten zu den Publikationsgebühren der Tabelle auf Figshare. Es wurden die durchschnittliche APC und der Median je genannter Verlag berechnet sowie die jeweils höchsten und niedrigsten Publikationsgebühren extrahiert.

Tabelle 1: Übersicht Publikationsgebühren unterschiedlicher Verlage. Quelle: Rocha da Silva (2016): https://dx.doi.org/10.6084/m9.figshare.2060592.v1, teilweise eigene Berechnungen

Tabelle 1: Übersicht Publikationsgebühren unterschiedlicher Verlage. Quelle: Rocha da Silva (2016): https://dx.doi.org/10.6084/m9.figshare.2060592.v1, teilweise eigene Berechnungen

Es wird deutlich, wie die Preise von Zeitschrift zu Zeitschrift auch innerhalb eines Verlages variieren können (siehe Tabelle 1 in diesem Beitrag); lediglich Frontiers und die hybriden Zeitschriften von Springer verlangen einheitliche Gebühren. Zudem wird ersichtlich, dass die hier aufgeführten zwei Verlage für ihre hybriden Zeitschriften deutlich höhere Publikationsgebühren verlangen als für originäre Open-Access-Zeitschriften. Zu beachten ist allerdings, dass die gezahlten Publikationsgebühren durch Mitgliedschaftsmodelle, Nachlässe für bestimmte Gruppen von Wissenschaftlerinnen und Wissenschaftler o.ä. von den genannten Zahlen abweichen können. Die OpenAPC-Initiative sammelt gezahlte Publikationsgebühren von wissenschaftlichen Einrichtungen und wertet diese aus.

In diesem Zusammenhang ist auch erwähnenswert, dass laut Angaben im Directory of Open Access Journals (DOAJ) eine deutliche Mehrheit der Zeitschriften keine Publikationsgebühren erheben, sondern sich anderweitig finanzieren.

Tabelle mit der Anzahl der im DOAJ gelisteten Zeitschriften mit und ohne Publikationsgebühren

Abbildung: Anzahl der im DOAJ gelisteten Zeitschriften mit und ohne Publikationsgebühren: https://doaj.org/search (Stand 29.02.2016)

In Anbetracht der Tatsache, dass die Publikationsgebühren von 525-5.000 USD schwanken, stellt sich die Frage, was Publikationsleistungen tatsächlich kosten. Anders gefragt: Welche zusätzlichen Leistungen erhalten Autorinnen und Autoren bei Zeitschriften, in denen eine Publikation mehr als 3.000 USD kostet, gegenüber einem Journal, was deutlich weniger verlangt? Die Autorinnen und Autoren des Frontiers Blog argumentieren, dass Zeitschriften mit einem JIF über 6 tendenziell höhere Gebühren verlangen (zwischen 2.000-4.000 USD). Allerdings gibt es auch Verlage, die für Zeitschriften mit einem deutlich niedrigeren Journal Impact Factor Gebühren in dieser Größenordnung berechnen (siehe Tabelle 2 in diesem Beitrag). Somit können höhere Preise nicht damit begründet werden, dass mehr Aufwand betrieben wird, um den Impact einer Zeitschrift zu erhöhen, was ohnehin nur bedingt möglich ist.

Tabelle mit Übersicht der Spannbreite von Publikationsgebühren und JIFs unterschiedlicher Verlage

Tabelle 2: Übersicht Spannbreite Publikationsgebühren und JIFs unterschiedlicher Verlage. Quelle: Rocha da Silva (2016): https://dx.doi.org/10.6084/m9.figshare.2060592.v1

Allerdings lässt sich mit der von Frontiers erstellten Tabelle das Argument einiger Wissenschaftlerinnen und Wissenschaftler entkräften, sie könnten nicht Open Access publizieren, weil sie darauf angewiesen seien, in einer Zeitschrift mit Journal Impact Factor zu veröffentlichen. Die Tabelle zeigt, dass es mittlerweile viele Open-Access-Zeitschriften gibt, die über einen JIF verfügen, wenngleich die „Dichte“ je nach Fachgebiet variiert. Insgesamt finden sich hier mehr als 2.000 Zeitschriftentitel mit einem JIF größer/gleich 1. Die Listung in den Journal Citations Reports (JCR) zeigt zudem, dass es sich nicht um Nischen-Zeitschriften handelt, die nur wenig rezipiert werden.

 

Quellen:

Rocha da Silva, Pascal (2016): Article Processing Charges Open Access could save global research_data_20160104.xlsx. figshare. https://dx.doi.org/10.6084/m9.figshare.2060592.v1 (zuletzt abgerufen am 29.02.2016)

Frontiers Communications (2015): Article Processing Charges: Open Access could save global research. Frontiers Blog, 24.12.2015 (zuletzt abgerufen am 29.02.2016)