Data Journals als Publikationsform in den Lebenswissenschaften

Von Birte Lindstädt und Robin Rothe

Neben den klassischen wissenschaftlichen Zeitschriften gibt es einen Journaltypus, der sich ausschließlich auf Daten bezieht, dabei vielleicht aber eher unbekannt geblieben ist. In diesem Blogbeitrag geht es darum, diese Data Journals vorzustellen und näher zu beleuchten.

Was ist ein Data Journal?

Data Journals veröffentlichen sogenannte „Data Papers“ – Veröffentlichungen, die sich mit der Beschreibung von Datensätzen befassen. Im Gegensatz zu den wissenschaftlichen Artikeln, die Forschungsergebnisse zum Inhalt haben, geht es in den Data Papers hauptsächlich um die Darstellung und Beschreibung von Methoden, die zur Erstellung von Datensätzen eingesetzt wurden. Dies beinhaltet beispielsweise welche Messgeräte an welchem Ort in  welchem Zeitraum verwendet wurden, wie groß die jeweilige Grundgesamtheit an untersuchten Objekten ist und welche Berechnungen anhand welcher Formeln durchgeführt wurden. Zudem verweisen Data Papers auf den Speicherort, an dem sich die Datensätze befinden (in der Regel ein institutionelles oder fachbezogenes Repositorium). Zu beachten ist dabei, dass nur eine kleine Anzahl an Journals reine Data Journals sind. Wie in einer Studie von 2015 bezüglich Data Journals festgestellt wurde, sind die meisten Journals Mischformen, die sowohl normale Artikel als auch Data Papers publizieren (1). Zum anderen besteht zwischen den Journals nicht zwingend Einigkeit in der Benennung. Dies betrifft vor allem die Artikel. Diese werden z.B. als data article, dataset paper, data in brief, data note oder data original article bezeichnet (2).

Warum wurden Data Journals entwickelt?

Die Idee hinter Data Journals war ursprünglich, Forschungsergebnisse in Form von Datensätzen, die auf einem institutionellen Repositorium zwischen unzähligen anderen Daten versteckt lagen, bekannter zu machen, damit diese auch beachtet und gelesen werden (3). Es sollten also Forschungsergebnisse durch die Publikation von Beschreibungen von Datensätzen transparenter und besser sichtbar gemacht werden. Grundsätzlich ging es den Pionieren der Data Journals – das International Journal of Robotics Research erschien 2009 als erstes Data Journal – darum, die Datensätze zitierfähig zu machen und damit zu ihrer Verbreitung beizutragen. Zudem bieten sie eine Möglichkeit, die Ergebnisse von Forschung anhand einer Beschreibung der Vorgehensweise zur Erstellung der Daten zusätzlich inhaltlich aufzubereiten und für die Nachnutzung besser nachvollziehbar zu machen.

Wer bietet Data Journals an?

Neben vielen kleinen Anbietern von einzelnen Data Journals, welche zum Teil aus Fachgesellschaften entstanden sind, sind hier BioMed Central, Pensoft  und SpringerOpen als namhafte Verlage mit drei oder mehr Data Journals zu nennen, welche allerdings teilweise nur gemischte Journals anbieten (4). Dazu kommt Ubiquity Press (5) als kleinerer Verlag, welcher reine Data Journals anbietet.

Welche Beispiele aus den Lebenswissenschaften gibt es?

Für eine Betrachtung über die Lebenswissenschaften hinaus empfiehlt sich die Liste von Pauline Ward im Wiki der University of Edinburgh (6). Des Weiteren hat das Wiki forschungsdaten.org eine Liste mit Data Journals begonnen, welche zur Ergänzung herangezogen werden kann (7).

Wo liegen Problemfelder der Data Journals?

Da Data Journals noch recht neu sind, haben sich noch keine einheitlichen Regelungen für Autorinnen und Autoren gebildet. Insbesondere in Bezug auf inhaltliche Beschreibungen, die beispielsweise die Qualität der Messungen inklusive Benennung eventuell aufgetretener Anomalien oder die Informationen zur Nachnutzung betreffen, fehlen bei sehr vielen Data Journals Regeln. Dies kann zu erheblichen Qualitätsschwankungen von Data Papers innerhalb desselben Data Journals führen. Durch Peer-Review-Verfahren ist dies nur dann zu verändern, wenn der Peer-Review-Bogen den neuen Anforderungen angepasst wird und zum Beispiel bei Auslassungen von Messergebnissen, Ungenauigkeiten und anderen nicht dokumentierten Vorfällen gegebenenfalls ein Data Paper abgelehnt wird.

Darüber hinaus nimmt die Publikation von Forschungsdaten in eigens dafür vorgesehenen Repositorien zu, die die Ergänzung der Daten durch Metadaten fordern, um die Auffindbarkeit zu verbessern. Dadurch steigt der Anreiz, Forschungsdaten mit beschreibenden Metadaten aufzubereiten. Wenn dies nicht in den Metadaten direkt geschieht, dann gegebenenfalls über eine Art Read-me-Datei, die angefügt wird. Damit werden genau die Informationen abgebildet, die ein Data Paper beinhaltet. Dies gewährleistet die direkte Zitierung und den Zugriff auf die Forschungsdaten ohne den Umweg über ein Data Journal.

Trotzdem können Data Journals und die Idee dahinter eine Basis zur Diskussion sein, wie und in welchem (Mindest-)Maß Informationen zur Nachnutzung von Forschungsdaten mit eben diesen verknüpft werden.


 

(1) Vgl. Candela, Leonardo; Castelli, Donatella; Manghi, Paolo; Tani, Alice (2015): Data journals. A survey. In: J Assn Inf Sci Tec 66 (9), S. 1747–1762.  S.1750. Abgerufen am 01.02.2017

(2) Vgl. ebd. S.1752- 7153. Abgerufen am 01.02.2017

(3) Vgl. Pfeiffenberger, H., & Carlson, D. (2011). “Earth System Science Data” (ESSD)—A peer reviewed journal for publication of data. D-Lib Magazine, 17(1/2). Abgerufen am 01.02.2017

(4) Vgl. GBIF (o.J.): Journals that publish data papers. Abgerufen am 01.02.2017

(5) Vgl. Ubiquity Press (o.J.): UPmetajournals. Abgerufen am 01.02.2017

(6) Vgl. Ward, Pauline (29.09.2016): Sources of dataset peer review. Abgerufen am 01.02.2017

(7) Vgl. forschungsdaten.org (09.12.2016): Data Journals. Abgerufen am 01.02.2017

Video-Tutorials zu Open Access und Open Data – Tabelle online

Von Jasmin Schmitz, PUBLISSO Publikationsberatung

Video-Tutorials erfreuen sich schon seit längerem enormer Beliebtheit, da sie die Möglichkeit bieten, komplexe Inhalte audio-visuell aufzubereiten und somit Nutzerbedürfnissen nachkommen.

Auf der ZB MED-Publikationsplattform PUBLISSO findet sich eine Tabelle mit Video-Tutorials zu Open Access und Open Data (1). Zusätzlich wurden auch Videos zu Creative-Commons-Lizenzierung, Peer Review, Journal Impact Factor, h-Index und Altmetrics aufgenommen.

Tabelle mit Video-Tutorials

Die Tabelle bildete die Grundlage einer Untersuchung, deren Ergebnisse im März auf dem Bibliothekskongress in Leipzig vorgestellt wurden und in ausführlicher Form kürzlich in o-bib – dem offenen Bibliotheksjournal erschienen sind (2).

Auch ZB MED setzt im Rahmen der Open-Access-Publikationsberatung neben FAQs, persönlicher Beratung sowie Workshops und Vorträgen Video-Tutorials ein. Die Ergebnisse der oben genannten Untersuchung dienen der Entscheidungsfindung, zu welchen Themen Tutorials nachgenutzt werden können, beziehungsweise wo Lücken mit selbst produzierten Tutorials geschlossen werden können. Näheres zum Konzept von ZB MED findet sich in dem Beitrag „Komplexes einfach visualisiert: Video-Tutorials von ZB MED“(3).

In der Tabelle finden sich neben Links zu den Video-Tutorials noch einige Zusatzinformationen über die bereitstellende Institution/Person, das Thema, näheres zum Inhalt, Angaben zur Lizenz (sofern vorhanden), Länge, Sprache und inwieweit die Tutorials frei von institutionellen Bezügen sind.

Die Tabelle wird regelmäßig aktualisiert und ergänzt. Nutzerinnen und Nutzer sind eingeladen, eigene Vorschläge einzureichen. Die vorgeschlagenen Tutorials sollten sich mit den genannten Themen beschäftigen und idealerweise eine maximale Länge von fünf Minuten haben.


 

(1) Video-Tutorials zu Open Access und Open Data

(2) Schmitz, J.: Video-Tutorials zu Open Access und Open Data – Analyse und mögliche Nachnutzbarkeit. o-bib, das Offene Bibliotheksjournal, 2016

(3) Kullmer, B., Schmitz, J.: Komplexes einfach visualisiert: Video-Tutorials von ZB MED. ZB MED-Blog, 2016

Institutionelle Data Policies am Beispiel der deutschen Hochschullandschaft

von Birte Lindstädt und Robin Rothe

Im Blogbeitrag „Data Policies bei wissenschaftlichen Verlagen“ wurde bereits angedeutet, dass Data Policies schon seit längerem ein viel diskutiertes Thema auf institutioneller Ebene sind. Zum besseren Verständnis und zur Verortung der Policies von wissenschaftlichen Verlagen soll in diesem Blogbeitrag der Status Quo zu diesem Thema in der deutschen Hochschullandschaft beleuchtet werden. Dabei spielen die „Vorschläge zur Sicherung guter wissenschaftlicher Praxis“ seitens der DFG (1)  eine bedeutende Rolle. Sie gelten als Maßstab im Bezug auf den Umgang mit Forschungsdaten und damit auch der Festlegung von Regeln bzw. Verhaltenskodizes. In diesem Zusammenhang hat die Hochschulrektorenkonferenz (HRK) im November 2015 auf der 19. Mitgliederversammlung Empfehlungen zur Steuerung der Entwicklung von Forschungsdatenmanagement seitens der Hochschulleitungen beschlossen (2).

Die nachfolgende Tabelle orientiert sich an den dort festgelegten Punkten eines idealtypischen Prozesses zur Erstellung von Richtlinien für Forschungsdatenmanagement im Hochschulkontext, die auch auf andere Institutionen übertragen werden können. Ergänzt werden die dort genannten Bestandteile einer Data Policy durch Beispiele aus bereits existierenden Research Data Policies, die aus dem Wiki „forschungsdaten.org“ entnommen wurden (3). Die vorgestellte Liste der Beispiele ist nicht abschließend. Weitere Hochschulen haben mittlerweile eine Data Policy beschlossen – wie z. B. die RWTH Aachen (4), die aber nicht auf „forschungsdaten.org“ verzeichnet wurden.

Tabelle: Zielsetzung und Bestandteile einer Research Data Policy

Zielsetzung und Bestandteile einer Research Data Policy

Die Reihenfolge, wie sie die HRK empfiehlt, wird in den einzelnen Data Policies nicht unbedingt eingehalten und es werden nicht in allen Policies alle Punkte abgedeckt. Dies kann aber in Anbetracht der Tatsache, dass alle vorgestellten Policies vor dem Beschluss der HRK Ende des Jahres 2015 formuliert und veröffentlicht wurden, nicht erwartet werden. Vielmehr ist erkennbar, dass bereits vor einer hochschulübergreifenden Debatte an einzelnen Universitäten das Thema Forschungsdaten und dabei insbesondere die Bedeutung von Data Policies als Instrument im Forschungsdatenmanagement erkannt wurden. Insofern haben alle genannten Hochschulen Pionierarbeit in Sachen Research Data Policies in Deutschland geleistet.


(1) DFG (2013). Vorschläge zur Sicherung guter wissenschaftlicher Praxis: Empfehlungen der Kommission „Selbstkontrolle in der Wissenschaft“. In DFG (2013). Denkschrift „Sicherung guter wissenschaftlicher Praxis“ (S.5-55).

(2) Vgl. Hochschulrektorenkonferenz (2015). Wie Hochschulleitungen die Entwicklung des Forschungsdatenmanagements steuern können. Orientierungspfade, Handlungsoptionen, Szenarien: Empfehlung der 19. HRK-Mitgliederversammlung am 10.11.2015.

(3) Vgl. Data Policies: Institutionelle Policies (17.10.2016). In forschungsdaten.org.

(4) RWTH Aachen (2016): Forschungsdatenmanagement an der RWTH Aachen.

Data Policies bei wissenschaftlichen Verlagen

Von Birte Lindstädt und Robin Rothe

Data Policies werden seit einigen Jahren zunehmend als wichtiges Instrument zur Regelung und Optimierung des Managements von Forschungsdaten angesehen. Bereits 2011 veröffentlichten Heinz Pampel und Roland Bertelmann einen Beitrag zu verschiedenen Formen von Data Policies sowohl im disziplinären, wie auch im interdisziplinären Bereich der Wissenschaft. Darin bieten sie einen Überblick über bereits existierende Data Policies, sowie aktuelle und künftige Herausforderungen für die Policies (1). So veröffentlichte die DFG im Herbst 2015 die aktuelle Fassung ihrer „Leitlinien zum Umgang mit Forschungsdaten“ (2) . Diese resultieren aus den 2008 erstmals verabschiedeten und 2009 veröffentlichten „Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten“ (3). Die Umwandlung von Empfehlungen zu Leitlinien zeigt bereits, wie wichtig das Thema mittlerweile genommen wird.

Bei uns entstand nun die Frage: Wie gehen wissenschaftliche Verlage mit der Publikation von Forschungsdaten um? Insbesondere aufgrund der Tatsache, dass Verlage auch in Zeiten von institutionellen Repositorien, disziplinären Portalen und OA-Journals von freien Initiativen und Institutionen immer noch eine bedeutende Rolle in wissenschaftlichen Publikationsprozessen spielen, kommt deren Umgang mit (Forschungs-)Daten eine nicht zu unterschätzende Bedeutung bei der Verbesserung der guten wissenschaftlichen Praxis zu. Bei Pampel und Bertelmann werden bereits Journal Policies in einem eigenen Unterkapitel erwähnt. Zum einen beschränken diese sich jedoch auf wenige Beispiele, zum anderen – bis auf Nature – auf publizierende Einrichtungen außerhalb des wissenschaftlichen Verlagswesens (4).

ZB MED hat in diesem Zusammenhang wissenschaftliche Verlage aus den Lebenswissenschaften dahingehend überprüft, inwiefern diese über Data Policies verfügen. Dabei wurden die Verlagsseiten und deren Umfeld von Springer-Nature, Elsevier, Wiley, BiomedCentral, Sage Publications und DeGruyter analysiert. Zusätzlich wurde PLOS als Non-Profit-Projekt zur wissenschaftlichen Publikation aufgrund der Bedeutung insbesondere von PLOS One mit in die Untersuchung aufgenommen. Inhaltlich ging es erstens darum zu überprüfen, welche Verlage überhaupt eine Data Policy haben, und zweitens darum im nächsten Schritt zu erörtern, was in den jeweiligen Policies festgehalten wurde. Dabei stellte sich insbesondere die Frage, ob und inwiefern die Publikation den Textveröffentlichungen zugrundeliegender Daten Voraussetzung für die Annahme von Artikeln ist.

Tabelle: Data Policies der Verlage

Data Policies der Verlage

Wie die nachfolgende Tabelle zeigt, haben von den sieben untersuchten Anbietern drei keine journal-übergreifende Data Policy. Wiley verweist auf die Data Policies der zugehörigen Zeitschriften. Sage Publications und DeGruyter haben keine Hinweise auf etwaige Data Policies.

Tabelle: Data Policies der Verlage

Wie man der Tabelle entnehmen kann, gehen die Anbieter unterschiedlich mit dem Thema um. Springer Nature bietet ganz im Sinne des Dienstleistungsprinzips für jeden Bedarf unterschiedlicher wissenschaftlicher Communities eine Standard-Policy an. Laut eigener Aussage wird damit das Ziel verfolgt, Autorinnen und Autoren je nach Vorgaben der Förderungsorganisationen und den disziplinspezifischen Regelungen die Möglichkeit zu bieten, auf Springer Nature zu publizieren. Hierfür hat man ein Baukastensystem für die Zeitschriftenbetreiber entwickelt, das jede Eventualität abdeckt (5). Auf Grund dessen bietet sich dieses System bestehend aus vier Policy-Typen als Vergleichsmöglichkeit mit den Data Policies anderer wissenschaftlicher Verlage an.

Abgerufen von http://blogs.springeropen.com/springeropen/wp-content/uploads/sites/16/2016/07/DataPolicy.jpg

SpringerNature (2016). Overview of the policies.

Die Policy von PLOS ist demzufolge vergleichbar dem Typ 4 mit der Einschränkung, dass ein Peer-Review-Verfahren für die Daten nicht vorgesehen ist. Zwar werden bei PLOS Ausnahmen in der Data Policy benannt, diese sind aber als sehr restriktiv (nur für den Fall von Datenschutzverletzungen bei Veröffentlichung der Daten) zu bewerten. Eine Zurückhaltung der Daten aus persönlichen und/oder kommerziellen Gründen wird kategorisch ausgeschlossen. Die Data Policy von BiomedCentral ist dem Typ 3 zuzuordnen und die von Elsevier als schwächste Form dem Typ 1. Alle vier Verlage bieten ergänzend Hilfe bei der Umsetzung von Datenveröffentlichungen an. Die Angebote reichen von FAQs über Listen von potenziellen Repositorien bis hin zu eigenen Infrastrukturen zur Datenpublikation.

In Anbetracht der noch sehr unterschiedlichen Datenkultur in den einzelnen Disziplinen und der Tatsache, dass sowohl die deutschen Forschungsförderer und die EU als auch die Hochschulrektorenkonferenz disziplinübergreifend ebenfalls lediglich die Publikation von Daten empfehlen, ist es positiv, dass diese vier Verlage bereits eine Data Policy haben. Auch darf nicht vergessen werden, dass viele Editorial Boards ihren Journals eigene Data Policies auf der Grundlage der jeweiligen disziplinären Ausrichtung gegeben haben.

Die Frage ist, was die Verlage motiviert, solche Policies aufzusetzen? Sicherlich spielt die Ausweitung des Dienstleistungsspektrums hier ebenso eine Rolle wie das Ziel einer Erweiterung des bereitgestellten Contents. Die Autoren und Autorinnen müssen den politischen Anforderungen beim Umgang mit Forschungsdaten zunehmend folgen, indem sie Datenpublikationen vorsehen. Die Leser haben Interesse an transparent dargestellten Forschungsergebnissen und somit auch an den verwendeten Daten. Somit bedienen die Verlage mit den Data Policies Kundeninteressen.


 

(1) Vgl. Pampel, H. & Bertelmann, R. (2011). „Data Policies“ im Spannungsfeld zwischen Empfehlung und Verpflichtung. In S. Büttner, H.-C. Hobohm & L. Müller (Hrsg.), Handbuch Forschungsdatenmanagement (S. 49 – 61).

(2) Vgl. DFG (2015). Leitlinien zum Umgang mit Forschungsdaten.

(3) Vgl. DFG (2009). Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten.

(4) Vgl. Pampel, H. & Bertelmann, R. (2011). „Data Policies“ im Spannungsfeld zwischen Empfehlung und Verpflichtung (S. 56 – 57). In S. Büttner, H.-C. Hobohm & L. Müller (Hrsg.), Handbuch Forschungsdatenmanagement.

(5) Vgl. Hrynaszkiewicz, I. (2016): Promoting research data sharing at Springer Nature. BioMed Central Blog.
Dieser Blogbeitrag wurde zeitgleich von Scott Epstein auf dem SpringerOpen blog (http://blogs.springeropen.com/springeropen/2016/07/05/promoting-research-data-sharing-springer-nature/ )  und Lilienne Zen auf „of schemes and memes – a community blog from nature.com“ veröffentlicht.

 

 

Die mögliche Vielfalt der Impact-Messung: Anbietervergleich von Aggregatoren von Altmetriken

Von Robin Rothe und Jasmin Schmitz

Die „klassische“ Impact-Messung basierend auf der Zählung von Zitationen wird zunehmend als unzureichend erachtet. Hauptkritikpunkte sind hierbei, dass die von kommerziellen Anbietern generierten Zitationszahlen nicht offen einsehbar und daher wenig transparent sind. Zudem stehen diese nicht für alle Produkte wissenschaftlichen Forschungsoutputs wie Forschungsdaten oder Software zur Verfügung. Außerdem stellt das Zählen von Zitationen nur eine Möglichkeit dar, Impact zu messen (1). Zentrale Forderungen von Initiativen wie San Francisco Declaration on Research Assessment (DORA) (2) und Altmetrics Manifesto (3) sind daher, die Impact-Messung auf eine breitere Basis zu stellen und auch auf andere Formen der Nutzung auszuweiten. Diese Ausweitung wird unter dem Schlagwort „Altmetriken“ (engl. Altmetrics) diskutiert, einer Zusammensetzung aus „alternativ“ und „Metriken“. Dabei verstehen sich Altmetriken aber eher als Ergänzung zur klassischen Impact-Messung, weniger als Ersatz. Häufig werden diese auch als „article level metrics“ bezeichnet, weil entsprechende Zahlen auf der Ebene der Publikationen (z.B. Zeitschriftenartikel, Forschungsdatenveröffentlichung, Softwarepublikation, Blogbeitrag, Veröffentlichung von Präsentationsfolien) selbst erhoben werden.

Neben der Ermittlung, wie häufig Veröffentlichungen zitiert werden, wird auch gemessen, wie häufig diese beispielsweise abgerufen, gespeichert, geteilt, kommentiert oder empfohlen wurden. Insbesondere die Erwähnung in Sozialen Medien spielt dabei eine große Rolle, die mittlerweile Einzug in sämtliche Lebensbereiche gehalten haben und daher auch bei der Impact-Messung berücksichtigt werden sollen. Viele der Plattformen bieten mittlerweile die Möglichkeit, über eine API altmetrische Kennzahlen für Publikationen abzurufen. Häufig wird hierbei mit einem persistenten Identifikator wie dem DOI gearbeitet. Zudem gibt es eine Reihe von Datenaggregationen, die entsprechende Anbieter abfragen und die Kennzahlen gebündelt präsentieren. Die bekannteste Darstellungsform ist hierbei der „Donut“ von altmetric.com (4).

Möchte man selbst altmetrische Kennzahlen für Publikationen erheben (z.B. für sich selbst oder für Publikationen im Repositorium oder Publikationsdienst), stellt sich die Frage nach einem geeigneten Anbieter. Hierbei ist nicht unerheblich, wie viele und welche Datenquellen ausgewertet werden.

Die nachfolgende Tabelle informiert über verschiedene Datenaggregatoren und die Datenquellen, die sie auswerten. Das Schema beruht auf einer Zusammenstellung in Jobmann et al. 2014 (5); dort findet sich auch eine kurze Beschreibung zu PlumX, ImpactStory, Altmetric Explorer von altmetric.com und Webmetric Analyst. Neben diesen kommerziellen Anbietern gibt es seit 2009 Lagotto (6). Dabei handelt es sich um eine freie Software, die flexibel konfigurierbar ist und von PLOS entwickelt und via GitHub bereitgestellt wurde. Es wird u.a. von PLOS ONE, Copernicus Publications und CrossRef verwendet (7).

2016_09_23_Altmetrics_Screenshot1

Datenaggregatoren und Datenquellen

Es ist zu erkennen, dass insbesondere PlumX, aber auch die anderen Aggregatoren von Altmetriken bemüht sind, eine möglichst große Vielfalt an Datenanbietern zu identifizieren und in ihr Produkt zu implementieren. Erkennbar ist auch, dass neben den klassischen Zitationen auch „comments“, „likes“, „mentions“, „views“, „follower“s, „readers“, etc. ausgewertet werden.

Was sich aus der Tabelle nicht ablesen lässt, ist, was sich hinter den einzelnen Datenquellen und deren Kennzahlen verbirgt. Auch kann die Fülle aus 35 Datenquellen und 58 dazugehörigen Auswertungsmerkmalen bei der erstmaligen Betrachtung in dieser reinen Auflistung für Überforderung sorgen. Um diesem vorzubeugen, erscheint es sinnvoll, die einzelnen Datenquelle näher zu betrachten und genauer zu überprüfen, was diese im Kontext von Impact-Messung zu bieten haben. Dieses wird in der nachfolgenden Tabelle versucht zu erläutern:

2016_09_23_Altmetrics_Screenshot2

Datenquellen und Impactmessung – Erläuterung

Die Diversität macht deutlich, wie vielfältig Impact-Messung sein kann. Neben Microblogging-Dienste wie Twitter, Soziale Medien wie Facebook und Bookmarking-Dienste wie Mendeley werden auch Erwähnungen auf Blogs, in Wikipedia, in Patentdokumenten oder in „policy documents“ in Betracht gezogen. Zudem werden Schnittstellen von „Sharing“-Plattformen wie Repository-Anbietern, Figshare, Github und Video-Plattformen „angezapft“ und Bewertungsseiten wie Reddit ausgewertet (8).

Vor der Auswahl einer Datenquelle bzw. eines Aggregators empfiehlt es sich, die eigene Zielsetzung zu definieren (Welche Zahlen möchte ich für wen erheben und zu welchem Zweck?). Bei Nutzung aller möglichen Quellen und allen dort auswertbaren Daten kann es passieren, dass die eigenen Nutzerinnen und Nutzer auf Grund der Masse an Informationen überfordert sind. Gleichzeitig besteht die Gefahr der Beliebigkeit und damit der möglichen Einschränkung des Impact von Altmetriken. Andererseits ist es ja gerade der Sinn von alternativen Metriken, neben der klassischen Zählung von Zitationen auch andere Nutzungsdaten auszuwerten, weswegen eine zu starke Beschränkung auf wenige Werte das Potenzial missachten würde. Inwieweit alle hier dargestellten Kennzahlen tatsächlich dauerhaft in die altmetrische Impact-Messung Eingang finden, darüber lässt sich nur spekulieren. Vielfach ist noch unklar, wie sich Erwähnungen und deren Häufigkeit tatsächlich interpretieren lassen. Insbesondere dadurch, dass sowohl der Kontext, als auch der Inhalt nicht in die Auswertung mit einfließen, fehlt häufig ein Anhaltspunkt für die Qualität z.B. einer Erwähnung auf Twitter, einem Like bei Facebook oder aber auch einer Erwähnung auf einem Blog von WordPress. Auch ist bislang noch nicht geklärt, wie mit den Messwerten von „Views“ auf Videoplattformen wie Youtube und Vimeo umgegangen wird und was diese aussagen. Möglich wäre dabei auch eine unterschiedliche Gewichtung der Quellen. Es darf aber auch nicht vergessen werden, dass es gerade die Idee von alternativen Metriken ist, die bisherige Beschränkung auf wenige renommierte Quellen aufzubrechen und Nutzung viel genereller und offener darstellbar zu machen. Daraus ergibt sich auch die große Möglichkeit, dass für unterschiedliche Fachdisziplinen unterschiedliche Metriken Einfluss auf den jeweiligen Impact haben und damit fachspezifische Faktoren entworfen werden können.

ZB MED prüft derzeit die Möglichkeiten der Einbindung von Altmetriken in seine PUBLISSO-Publikationsplattformen, um Herausgeberinnen / Herausgeber und Autorinnen /Autoren, Informationen zur Nutzung der Publikationen bereitzustellen.


(1) Siehe auch: J. Schmitz (2016): Messung von Forschungsleistungen. Altmetrics: Auf dem Weg zur Standardisierung. In: Open Password Pushdienst vom 10.06.2016
(2) San Francisco Declaration on Research Assessment
(3) J. Priem, D. Taraborelli, P. Groth, C. Neylon (2010), Altmetrics: A manifesto, 26.10.2010
(4) Altmetric Badges
(5) A. Jobmann, Ch. P. Hoffmann, S. Künne, I. Peters, J. Schmitz, G. Wollnik-Korn (2014): Altmetrics for large, multidisciplinary research groups: Comparison of current tools. In: Bibliometrie: Praxis und Forschung. Band 3, urn:nbn:de:bvb:355-bpf-205-9
(6) Lagotto
(7) ALM – Article-Level Metrics
(8) Siehe hierzu auch S. Haustein (2016): Grand challenges in altmetrics: heterogeneity, data quality and dependencies. In: Scientometrics 108: 413-423. DOI:10.1007/s11192-016-1910-9.

Tipps & Tricks: Ermittlung von Zitationsraten für Zeitschriften, die nicht im Web of Science ausgewertet werden

Von Jasmin Schmitz

Für Herausgeber von wissenschaftlichen Zeitschriften stellt sich häufig die Frage: Wie wird meine Zeitschrift rezipiert? Abruf- und Downloadzahlen geben Aufschluss darüber, wie häufig Artikel angesehen wurden. Die „Währung“ im Wissenschaftsbetrieb sind allerdings Zitationen. Die Häufigkeit, mit der Artikel oder Zeitschriften zitiert werden, ist in unterschiedlichen Evaluierungskontexten von Interesse. Auch bei Zeitschriftenrankings wie den Journal Citation Reports (JCR) (1) spielen sie eine Rolle.

Für die Ermittlung von Zitationsraten benötigt man Zitationsdatenbanken wie Web of Science (2) und Scopus (3), die für die von ihnen aufgenommenen Zeitschriften auszählen, wie häufig die in dieser Zeitschrift erschienenen Artikel in den Referenzen anderer Artikel auftauchen. Google Scholar (4) erfasst ebenfalls Zitationsraten, ist aber aufgrund der fehlenden Transparenz und unzureichender Fehlerbereinigung nur bedingt zu empfehlen (5).

Doch was machen Zeitschriftenbetreiber, wenn ihre Zeitschriften nicht von den Zitationsdatenbanken indexiert werden? Dies betrifft häufig Zeitschriften-Neugründungen oder Zeitschriften, die aufgrund ihres speziellen thematischen Zuschnitts nicht in das „Auswertungsprofil“ der Zitationsdatenbanken passen. Entsprechende Zitatraten lassen sich mit etwas Aufwand ebenfalls mithilfe von Zitationsdatenbanken ermitteln. Hierzu kann in den Referenzen (engl. Cited References) der Artikel gesucht werden, die in Zeitschriften erscheinen, die in den Zitationsdatenbanken indexiert sind. Dort schaut man, wie häufig die gesuchte Zeitschrift zitiert wurde.

Das Vorgehen soll exemplarisch anhand des Web of Science erläutert werden.

 

Schritt 1 – Aufruf der „Cited Reference Search“:

Schmitz_Zitationsraten_1

 

Schritt 2 – Suche nach der Zeitschrift im Feld „Cited Work“:

Schmitz_Zitationsraten_2

 

Schritt 3 – Durchsicht der Trefferliste:

Schmitz_Zitationsraten_3

Aufgelistet werden die Publikationen der gesuchten Zeitschrift, die zitiert wurden, alphabetisch sortiert nach dem Namen des Erstautors. In der Spalte „Citing Articles“ wird angegeben, wie häufig der entsprechende Artikel im Web of Science zitiert wurde. Um eine Zitationsrate für die gesamte Zeitschrift oder Jahrgänge zu ermitteln, müssten die Werte jeweils zusammengezählt werden. Da die Zeitschrift selbst nicht vom Web of Science indexiert wird, tauchen hier nur Artikel auf, die auch tatsächlich innerhalb des Web of Science zitiert werden.

Hakt man bei „Select“ einzelne Artikel an und geht anschließend auf „Finish Search“, so kann man die Artikel sehen, die die gesuchte Zeitschrift zitieren.

Grundsätzlich: Bei der Bewertung von sämtlichen Zitationszahlen sollte unbedingt beachtet werden, dass nur Referenzen innerhalb der jeweiligen Zitationsdatenbank ausgewertet werden (also Referenzen von Artikeln aus Zeitschriften, die in der Zitationsdatenbank indexiert werden). Die tatsächliche Anzahl der Zitationen kann daher höher sein.


 

(1) Thomson Reuters: Journal Citation Reports
(2) Thomson Reuters: Web of Science
(3) Elsevier: Scopus
(4) Google Scholar Help
(5) Jacso, Peter (2012): Using Google Scholar for journal impact factors and the h-index in nationwide publishing assessments in academia – Siren songs and air-raid sirens (final manuscript). Online Information Review, 36(3): 462-478. DOI: 10.1108/14684521211241503

Verlag stellt Creative-Commons-Lizenzen in Frage: Warum (liberale) Open-Content-Lizenzen doch sinnvoll für Autorinnen und Autoren sind

Von Jasmin Schmitz

Die Creative-Commons-Lizenz CC-BY ist die laut Directory of Open Access Journals (DOAJ) mit Abstand am häufigsten genutzte Lizenz. Ein Blogbeitrag von De Gruyter Open stellt nun in Frage, ob die Lizenzbedingungen tatsächlich im Sinne der wissenschaftlichen Autorinnen und Autoren sind [1].

Dabei stützt man sich auf die Ergebnisse einer Befragung. Autorinnen und Autoren wurde die Frage gestellt, ob sie ohne persönliche Zustimmung Lesern erlauben würden, ihre Publikation zu übersetzen, in einen Sammelband zu übernehmen, automatische Extraktion von Daten mittels Software durchzuführen oder die Arbeit von einer kommerziellen Firma noch einmal zu veröffentlichen. Zweifelsohne sind dies alles Nutzungsmöglichkeiten, die von der CC-BY-Lizenz gestattet werden. Während beim letzten Aspekt (kommerzielle Wiederverwendung) die Zustimmung bei unter 10% liegt, erreichen sie bei den übrigen Punkten unter 40% Zustimmung. Daraus wird geschlossen, dass die Mehrheit der Autorinnen und Autoren mit den Grundsätzen der CC-BY-Lizenz nicht einverstanden ist.

Allerdings ist die Art, wie die Fragen gestellt wurden, problematisch (wie auch in den Kommentaren angemerkt [2]), weil der insbesondere für die Wissenschaft relevante Kernaspekt der „Pflicht zur Namensnennung“ (Attribution), die Bestandteil aller Creative-Commons-Lizenzen ist,  in der Fragestellung nicht auftaucht. Wissenschaftliche Autorinnen und Autoren sind insbesondere daran interessiert, dass die von ihnen generierten Ergebnisse und Erkenntnisse auch mit ihrem Namen in Verbindung gebracht werden. Zudem sind sie an deren Verbreitung interessiert. Die CC-BY-Lizenz ist hier ideal, weil sie in ihren Lizenzbedingungen vorsieht, dass ein Werk genutzt und verbreitet werden darf, ohne dass jeweils die Zustimmung der Autorinnen und Autoren eingeholt werden, wohl aber deren Namen genannt werden muss. Letzteres ist im Übrigen auch ein Gebot der wissenschaftlichen Redlichkeit.

Zudem wird den Befragten nicht näher erklärt, was mit „Extraktion mittels automatischer Software“ und „Nutzung durch kommerzielle Firmen“ gemeint ist.  Beides wird nicht allen Autorinnen und Autoren bekannt sein. Ersteres meint in erster Linie Text und Data Mining, welches zum Ziel hat, auf der Basis größerer Text- und Datenmengen Muster oder Zusammenhänge zu finden, die unter Umständen auf neue Erkenntnisse deuten. Also eigentlich Verfahren, gegen die Wissenschaftlerinnen und Wissenschaftler nicht ernsthaft Einwände haben können. Im Rahmen der Auslegung des NC-(Non-Commercial-) Bestandteils von Creative-Commons-Lizenzen gelten selbst gemeinnützige Plattformen wie Wikipedia als kommerziell, wenn sie eine Textauswahl als CD/DVD vertreibt. Zur kommerziellen Nutzung würde auch die Aufnahme in Fachdatenbanken gehören, die dann unter Umständen gegen Gebühr lizenziert werden. Beides dient aber auch schlussendlich wieder der Verbreitung. Mit der Frage nach unautorisierter Übersetzung und Aufnahme in Sammelbänden werden Nutzungsszenarien angesprochen, die im wissenschaftlichen Kontext nicht unbedingt alltagsüblich sind, wenngleich sie auch in Einzelfällen vorkommen.

Was wäre die Alternative zur Creative-Commons-Lizenzierung? Ohne eine Open-Content-Lizenz gilt das Urheberrecht. Verschwiegen wird, dass klassische Verlags-/Autorenverträge häufig vorsehen, dass Autorinnen und Autoren das ausschließliche Nutzungsrecht an den Verlag abtreten und somit im schlimmsten Fall selbst von der Nutzung ihres eigenen Werkes ausgeschlossen werden [3].

Mit ausschließlichem Nutzungsrecht kann der Verlag ebenfalls den Artikel auf vielfältige Weise weiter nutzen, ohne Autorinnen und Autoren um Erlaubnis zu fragen. Bei einer Creative-Commons-Lizenzierung hingegen behalten Autorinnen und Autoren ihre Nutzungsrechte.

Die Vergabe von Creative-Commons-Lizenzen für Open-Access-Publikationen in eigenen Zeitschriften bedeutet schlussendlich für Verlage, dass sie den von ihnen veröffentlichten Content nicht exklusiv besitzen. Aus wirtschaftlicher Sicht mag das ein Nachteil sein. Doch auch Verlage sind an einer möglichst großen Verbreitung interessiert und die damit einhergehende Möglichkeit, häufiger rezipiert und zitiert zu werden.

Die Studie zeigt lediglich, wie wenig Autorinnen und Autoren tatsächlich über Urheberrecht, Nutzungsrechte und die Vorteile, die Open-Content-Lizenzen wie Creative Commons bieten, wissen [4]. Hier ist dringend Aufklärung vonnöten! Die Ergebnisse taugen aber nicht dazu, die bisherige Praxis in Bezug auf Vergabe von Open-Content-Lizenzen bei Open-Access-Zeitschriftenbetreibern in Frage zu stellen.


Weitere Informationen zum Thema Creative-Commons-Lizenzen finden sich in unserem FAQ „Creative-Commons-Lizenzen: Was ist darunter zu verstehen?“ 


[1] Blogbeitrag von De Gruyter Open, 25. April 2016

[2] Siehe Kommentar von Bernhard Mittermaier vom 1. Mai 2016.

[3] Siehe Kommentare von Sebastian Nordhoff vom 26. April 2016 und Richard W vom 2. Mai 2016.

[4] Siehe Kommentare von Sebastian Nordhoff vom 26. April 2016, Nicholas Goncharoff vom 29. April 2016 und Richard W vom 2. Mai 2016.

 

Komplexes einfach visualisiert: Video-Tutorials von ZB MED

Von Bettina Kullmer (Informationskompetenzvermittlung) und Jasmin Schmitz (PUBLISSO Publikationsberatung)

Eines der Ziele von ZB MED ist die Förderung von Open Access in den Lebenswissenschaften. Hierzu werden über das Publikationsportal PUBLISSO (www.publisso.de) Open-Access-Publikations- und Beratungsangebote bereitgestellt. Die Publikation von wissenschaftlichen Ergebnissen in Textform sowie von Forschungsdaten steht dabei gleichermaßen im Fokus. Zur Unterstützung beim Publizieren von Forschungsdaten bietet ZB MED Wissenschaftlerinnen und Wissenschaftlern zahlreiche Services an. In kurzen Video-Tutorials werden zwei der Services vorgestellt und beispielhalt gezeigt, wie und wo sie im Wissenschaftsalltag eingesetzt werden können: Das zweiteilige Tutorial zu „Digital Object Identifier (DOIs) für Forschungsdaten und Publikationen in den Lebenswissenschaften“ informiert darüber, wie Forschungseinrichtungen DOIs vergeben können. Das Tutorial „Der Publikationsservice GMS und das Forschungsdatenrepositorium DRYAD“ zeigt, wie Autorinnen und Autoren Forschungsdaten, die ihren Veröffentlichungen zugrunde liegen, über DRYAD zugänglich machen können, wenn sie einen Artikel in einem der GMS-Journals publizieren. Die Tutorials liegen in Deutsch und in Englisch vor. Alle Videos sind über eine Playlist im YouTube-Kanal von ZB MED abrufbar.

Im Fachrepositorium Lebenswissenschaften (1) finden Sie barrierearme, – sämtliche Texte werden auch gesprochen – bibliographisch erschlossene und mittels DOI referenzierbare Versionen der Tutorials. Über einen integrierten Player sind die Videos auch direkt im Repositorium abspielbar.

Alle Online-Tutorials sind gemäß der Creative-Commons-Lizenz CC-BY-ND 4.0 nachnutzbar.

Hintergründe: Konzept und Produktion von ZB MED-Tutorials

Die 2013 extern durchgeführte bundesweite Marktstudie (2) und eine eigene Online-Befragung (3) bei Bibliothekarinnen und Bibliothekaren zur Informationskompetenzvermittlung (IK) in den Lebenswissenschaften zeigten bei allen Befragten einen Unterstützungsbedarf bei der IK-Vermittlung. Als ein mögliches Format boten sich besonders Video-Tutorials an, die audio-visuelle Informationsgewohnheiten aufgreifen und jederzeit individuell nutzbar sind.

Für die Tutorials entwickelte ZB MED Storyboards, in deren Mittelpunkt sogenannte Personas stehen, also Prototypen, die jeweils für einzelne Nutzergruppen stehen. Die Personas kommen aus den verschiedenen Fachdisziplinen und zeigen, wie diese in ihrem jeweiligen lebenswissenschaftlichen Alltag agieren und dabei von ZB MED-Services unterstützt werden.

Die Realisierung erfolgte nach einer Ausschreibung in Zusammenarbeit mit einer externen Firma. In den Entstehungsprozess eingebunden waren jeweils Fachwissenschaftlerinnen und -wissenschaftler, welche die Authentizität der dargestellten wissenschaftlichen Inhalte und die allgemeine Verständlichkeit überprüften.

Lessons learned

Da das Format zum ersten Mal eingesetzt wurde, gestaltete sich der Prozess der Ausschreibung, der Einbindung und der Feinabstimmung zwischen inhaltlich beteiligten Kolleginnen und Kollegen in ZB MED, der Beratung mit Wissenschaftlerinnen und Wissenschaftlern der dargestellten Disziplinen und schließlich die externe Umsetzung als sehr kleinteilig und langwierig. Mittlerweile liegt eine Prozessbeschreibung vor, die insbesondere Verantwortlichkeiten in Form von sogenannten Service-Level-Agreements mit den jeweiligen Produktverantwortlichen, der IK-Verantwortlichen und dem Querschnittsbereich Marketing regelt. Aufgrund dieser Festlegung der Zuständigkeiten einerseits und durch Kooperationen mit öffentlichen Einrichtungen, die eine entsprechende Expertise mitbringen, andererseits, erhofft sich ZB MED eine deutliche Reduzierung aller Ressourcen. Hinsichtlich der Verbreitung der Tutorials sind ebenfalls Kooperationen denkbar. Grundsätzlich sollte die Produktion von Tutorials frühzeitig – beispielsweise im Rahmen einer Jahresarbeitsplanung – konzeptioniert und mit den beteiligten Abteilungen abgestimmt werden.

Weitere Planungen

Bei entsprechenden Nutzungszahlen und guter Resonanz ist die Erstellung von Tutorials zu weiteren ZB MED-Services angedacht. Zudem sollen Tutorials im Rahmen der Open-Access-Publikationsberatung eingesetzt werden. Nutzerwünsche werden dabei gerne berücksichtigt! Als weiteres Format wird ZB MED in Kürze Live-Webinare zum Einstieg in das Publikationsportal PUBLISSO sowie das Suchportal LIVIVO anbieten, zu denen über verschiedene Kanäle – E-Mail, Newsletter, Social Media – eingeladen wird. Im Nachgang können Mitschnitte der Webinare über die ZB MED-Website aufgerufen werden. In diesem Zusammenhang, ist sicherlich auch die weitere Entwicklung von ZB MED interessant. Aktuelle Informationen finden sie hier. Über alles Weitere werden wir Sie ebenfalls im Blog auf dem Laufenden halten.


(1) Fachrepositorium Lebenswissenschaften
(2) E.F. Heinold / U. Korwitz: Markt- und Zielgruppenstudie – GAP-Analyse und Empfehlungen für die ZB MED. Köln, 2014. DOI: 10.4126/zbmed2014001
(3) B. Kullmer: Ein Vergleich des Sachstands der Vermittlung von Informationskompetenz (IK) in verschiedenen Disziplinen der Lebenswissenschaften. Ergebnisse einer Online-Befragung von Bibliothekaren universitärer und außeruniversitärer Einrichtungen in Deutschland. Köln, 2013

 

Tipps & Tricks: Den Journal Impact Factor für Zeitschriften ermitteln, in denen man publiziert hat

Von Jasmin Schmitz

Wissenschaftlerinnen und Wissenschaftler wenden sich häufig mit der Frage an uns, wie Sie den Journal Impact Factor (JIF) für Zeitschriften bestimmen können, in denen sie veröffentlicht haben. Der Journal Impact Factor gibt an, wie häufig die Artikel einer Zeitschrift durchschnittlich zitiert werden. Hierzu werden die Zitationen im Berichtsjahr auf Publikationen, die in den vergangenen zwei Jahren veröffentlicht wurden, gezählt und durch die Anzahl der Artikel, die in diesen vergangenen zwei Jahren erschienen sind, geteilt.

Die JIFs lassen sich einerseits über die Journal Citation Reports (JCR) ermitteln; nicht selten finden sich auch Angaben auf den entsprechende Webseiten der Zeitschriften. Ein anderer Weg führt über das Web of Science.

Folgende Schritte sind notwendig:

  1. Recherche nach den eigenen Publikationen
  2. Aufruf der Detailansicht durch Klick auf den Titel des Artikels
  3. Im oberen Drittel der Seite befindet sich ein Link „View Journal Information“ (Abbildung 1). Mit Klick darauf wird der aktuelle Journal Impact Factor der Zeitschrift angezeigt sowie Informationen darüber, wie sich die Zeitschrift im Fachgebiet verorten lässt (Abbildung 2).

Journal Impact Factor_1

Abb. 1: Detailseite eines Artikels im Web of Science

Journal Impact Factor_2

Abb. 2: Informationen zu einer Zeitschrift, einschließlich Journal Impact Factor

Diese Informationen stehen allerdings nur dann zur Verfügung, wenn die Zeitschrift auch in den Journal Citation Reports aufgenommen wurde, andernfalls lässt sich kein JIF ermitteln.

Zu beachten ist, dass das Web of Science eine lizenzpflichtige Datenbank ist. Viele Hochschulbibliotheken haben diese abonniert. Ein Zugriff ist allerdings nur möglich, wenn man sich im IP-Bereich der jeweiligen Einrichtung befindet bzw. wenn über „remote access“ der Zugriff von außen eingerichtet wurde.

Der Journal Impact Factor ist insgesamt nicht unumstritten und eignet sich nicht, um Aussagen über die Qualität einer wissenschaftlichen Publikation zu treffen, insbesondere da er auf der Ebene der Zeitschrift berechnet wird. Mit der durchschnittlichen Zitierhäufigkeit der Zeitschrift lässt sich nicht vorhersagen, wie häufig der eigene Artikel zitiert werden wird.

Weitere Informationen zu den Kritikpunkten und mögliche Alternativen finden Sie in unserem FAQ auf der PUBLISSO-Website: Journal Impact Factor und Alternativen: Was gibt es hier Wissenswertes?


Weiterführende Informationen:

Journal Citation Reports

Web of Science

Das perfekte Webinar – Ergebnisse einer ZB MED-Umfrage

Bequem vom Arbeitsplatz oder von zuhause aus, am PC oder Tablet, zeitlich flexibel den beruflichen oder privaten Horizont erweitern und in den direkten Austausch mit Fachexperten kommen? Webinare machen’s möglich.

Auch wir bei ZB MED möchten zukünftig mit Webinaren über unsere Produkte und Services informieren. Das Format wird für alle Interessierten zur Verfügung stehen, sich aber in erster Linie an multiplizierende Personen wie Bibliothekarinnen und Bibliothekare richten. Studierende und Forschende, so ein Ergebnis einer Befragung im Rahmen einer Usability-Studie an LIVIVO 2015, bevorzugen statt Webinaren kurze Online-Videos wie ZB MED sie bereits für Ihre Services GMS, DOI-Vergabe & Co. anbietet (zum YouTube-Channel von ZB MED).

Wir möchten dabei unsere Angebote möglichst nah an den Wünschen und Erwartungen unserer Nutzerinnen und Nutzer entwickeln. Daher haben wir Personen aus unserer Zielgruppe zu einer Online-Umfrage eingeladen, um mehr über deren Vorstellungen zu erfahren. 59 Personen füllten die Umfrage vollständig aus und erlaubten uns teils sehr detaillierte Einblicke in ihre Ansichten.

Zunächst ein bisschen Demographie:Sozio-Demographie_kleinDie Befragten waren zwischen 29 und 64 Jahre alt und kamen aus ganz Deutschland, nur 4% aus dem direkten ZB MED-Einzugsgebiet (Köln/Bonn). 86% waren Bibliothekarinnen und Bibliothekare, der Rest entstammte der Wissenschaft (z.B. Lehrende an Hochschulen). Es beteiligten sich Vertreter aller ZB MED-Fachgebiete Medizin, Gesundheitswesen, Ernährungs-, Umwelt- und Agrarwissenschaften. Das Fachgebiet Medizin war dabei mit 72% am häufigsten vertreten, dafür waren aber auch Personen aus dem Bereich der Naturwissenschaften (7%), wie Biologie oder Chemie unter den Befragten.

Die Befragung hat interessante Ansätze für die Ausgestaltung von ZB MED-Webinaren ergeben:
Das ideale Webinar findet demnach am Vormittag oder frühen Nachmittag statt, der Termin vermeidet dabei Montage und Freitage. Mit 30 bis maximal 45 Minuten ist es kurz gehalten. Eingeladen wird per E-Mail, bei produktbezogenen Webinaren auch gerne über einen Hinweis beim Produkt selbst, wie z.B. in LIVIVO. Das Webinar verwendet interaktive Elemente wie Chat und Downloadmöglichkeiten, sowie Umfragen und Feedback-Buttons (z.B. für „Hand heben“, „Applaus“). Im Nachgang steht eine Aufzeichnung des Webinars als Download zur Verfügung, Chat & Co. sind dabei jedoch anonymisiert.

Themen ZB MED-WebinareGefragte Themen für ZB MED-Webinare sind in erster Linie das ZB MED-Suchportal LIVIVO, sowie die Beratung zum Thema Open-Access-Publizieren und das Publikationsportal PUBLISSO. Nach Ansicht der Befragten sollte das Format von ZB MED quartalsweise oder bei Bedarf zu unterschiedlichen Themen angeboten werden.

Freitext-Felder in der Befragung wurden rege genutzt, um auch konkrete Fragestellungen anzusprechend. Einige dieser Anregungen sind bereits in Hilfetexte und Schulungen für LIVIVO oder PUBLISSO eingeflossen, z.B. zur Transparenz der Suche und der Rankingkriterien.

Auf Basis dieser Ergebnisse wird nun ein passendes Angebot entwickelt. Die ersten Webinare für die ZB MED-Produkte PUBLISSO und LIVIVO gehen in Kürze an den Start.