#eDissPlus
Explore tagged Tumblr posts
Text
Forschungsdatenmanagementpläne sind eine Grundbedingung guter Wissenschaft. Meint Nature.
Eine Notiz und einige Anmerkungen von Ben Kaden (@bkaden)
In der Nature-Ausgabe vom 13.März 2018 findet sich ein Editorial, dass zum Thema Forschungsdatenmanagement eine Reihe von Aspekten benennt, welche weitgehend Trends bestätigen, die sich auch im Rahmen des eDissPlus-Projektes zeigten. Ich möchte hier kurz einige Beobachtung aus dem Text mit der so programmatischen wie zutreffenden Überschrift Everyone needs a data-management plan (Nature 555, 286 (2018) doi: 10.1038/d41586-018-03065-z ) aufgreifen und einige eigene Erfahrungen aus dem eDissPlus-Projekt ergänzen.
Tatsächlich wäre ein Forschungsdatenmanagement für jedes Forschungsprojekt wünschenswert. Der Datenbegriff führt dabei in den Geisteswissenschaften ab und an zu Missverständnissen, gehen dort Forschende bisweilen davon aus, datenfrei zu arbeiten. Aber immer dann, wenn es sich um ein konkretes Forschungsobjekt handelt und man sich mit einem Abbild davon auseinandersetzt, hat man aus digitalwissenschaftlicher Sicht, auch es wenn es sich in solchen Fällen eventuell anbietet, von Forschungsmaterialien zu sprechen. So lässt sich die Reproduktion eines Kunstwerks für eine kunsthistorische Betrachtung durchaus als Forschungsdatum verstehen und aus einer dateninfrastrukturellen bzw. informationswissenschaftlichen Perspektive hätte man diese am liebsten nicht nur eingebettet als Illustration in einem PDF sondern unter einer CC-BY-Lizenz als selbstständiges Datenobjekt mit eigener DOI. Dass vor allem rechtliche Hürden einem solchen Idealzustand im Wege stehen, ist allgemein bekannt. Nichtsdestotrotz empfehlen wir aus dem eDissPlus-Zusammenhang nach Möglichkeit ein differenziertes und Vernetzbarkeit vorbereitendes Publizieren der einzelnen Bestandteile einer Publikation etwa im Sinne des so genannten Enhanced Publishing (oder “Erweiterten Publizierens”, wie wir es im Fu-PusH-Projekt nannten).
Eine Herausforderung, die uns regelmäßig begegnet und die auch im benannten Editorial von Nature deutlich wird, ist, dass wir aus Infrastruktursicht außerordentlich intensiv über Möglichkeiten und Anforderungen im Umgang mit digitalen Forschungsdaten reflektieren, viele Forschende aber vergleichsweise sehr wenig. Möchte man vermeiden, dass beide Perspektiven auseinanderdriften, muss man vermitteln. Das Editorial sieht für Hochschulen und damit in der Praxis die entsprechenden Ansprechpersonen in den Hochschulinfrastrukturen zwei Aufgaben: 1. allgemein wirksam zu kommunizieren, wie wichtig ein qualitativ hochwertiges Forschungsdatenmanagement und damit u.a. ein Forschungsdatenmanagementplan sind. Und 2. die Vermittlung von Grundlagenwissen zum Forschungsdatenmanagement als “part of postgraduate education everywhere”. Aus unserer Sicht sollte man sogar noch früher ansetzen und das Forschungsdatenmanagement dort direkt in der Methodenausbildung einbinden, wo es um die Praxis der Datenerhebung (bzw. der Identifikation des Forschungsgegenstandes) geht. Richtig und wichtig ist, dass Weiterbildung und Beratung nicht auf frühe Stufen der wissenschaftlichen Karrieren beschränkt bleiben, sondern durchgängig als Angebot stehen sollten. Aus eDissPlus-Sicht betrifft dies ausdrücklich auch die Gutachterinnen und Gutachter für wissenschaftliche Qualifikationsarbeiten, die eigentlich ein verstärktes Interesse am Blick auf das Forschungsdatenmanagement ihrer z.B. Promovierenden haben sollten, weil sich nicht zuletzt darin auch die Befähigung zum wissenschaftlichen Arbeiten zeigt.
Es zeigt sich folglich, dass ein qualitativ hochwertiges Forschungsdatenmanagement nicht allein aus Gründen der Open Science / Offenen Wissenschaft relevant ist, auch wenn das Nature-Editorial vor allem darauf abhebt. Sondern grundsätzlich im Sinne einer wissenschaftlichen Qualitätssicherung für jeden Forschungsprozess. Aber es ist zweifellos korrekt: Unsaubere Daten ohne Dokumentation erweisen auch wenn sie frei geteilt werden weder der Open-Science-Bewegung noch der Wissenschaft an sich einen Dienst.
Notwendig ist eine Forschungsdatenmanagement und damit unverzichtbar ein Forschungsdatenmanagementplan in vielen Fällen zugleich bereits aus Gründen der Komplexität. Je größer und heterogener die Datenprozesse und -mengen, desto notwendiger und leider auch aufweniger ist die Explizierung der einzelnen forschungsdatenspezifischen Aspekte, also wie Forschungsdaten erhoben, aufbereitet, gespeichert, dokumentiert, langfristig archiviert und möglicherweise geteilt bzw. veröffentlicht werden. Von der Warte der wissenschaftlichen Infrastrukturen leuchtet das ohne Abstriche ein. Für viele Forschende erscheint die Anlage eines Forschungsdatenmanagementplans dagegen offenbar als zusätzliche quasi-bürokratische Hürde, wobei ich hier den umfassenderen Erfahrungen der Nature-Redaktion vertrauen muss, denn die Gespräche im eDissPlus-Zusammenhang ergaben diesbezüglich zwar weitreichende Unkenntnis aber keinesfalls Ablehnung. Vielmehr wirkte es so, als würden die mit Forschungsdaten konfrontierten Promovierenden sogar dankbar sein, wenn sie eine klare Hilfestellung zur Organisation ihrer Datenprozesse erhielten. Die Betonung liegt hierbei auf “klar”. Die Bereitschaft zu einer besseren Organisation und Formalisierung der Forschungsprozesse ist nachvollziehbar dann besonders hoch, wenn die eigentlich Forschung möglichst wenig beeinträchtigt wird. Der logische Schritt wäre also, bestimmte Aspekte eines wünschenswerten Forschungsdatenmanagements zum integralen Bestandteil der Forschungsarbeit werden zu lassen, was insbesondere die Erschließungs- und Dokumentationsaspekte betrifft. Dass die Vergabe von Deskriptoren, das Filtern von Forschungsdaten über die Zuweisung von Metadaten und die knappe, zusammenfassende Beschreibung der Daten für eine Dokumentation selbst eine Reflexionsarbeit darstellen können, ist zwar in der Bibliotheks- und Informationswissenschaft selbstverständlich, in anderen Disziplinen erfahrungsgemäß aber deutlich wenig bewusst.
Wie sehr dieser Anteil erkenntnisbildend sein kann, hängt selbstverständlich von der Forschungsform, -frage und Disziplin ab. Ähnliches gilt, wie auch das Editorial zutreffend betont, für das “proper data management”. In dem jüngst an der Freien Universität Berlin durchgeführten eDissPlus-Workshop wurde berechtigt die Frage aufgeworfen, wo eigentlich die “Leistungsgrenzen für Bibliotheken bei Forschungsdatendiensten [liegen]”. Das gilt nicht für Bibliotheken sondern für alle Infrastrukturen außerhalb der eigentlichen Fachgemeinschaften. Es kristallisiert sich heraus, dass generische Angebote und auch Vorgaben wie Forschungsdatenpolicies strukturell nur einen sehr allgemeinen Rahmen bieten können. Je konkreter die gewünschte Lösung oder auch Vorgabe, beispielsweise auch durch Förderer, desto wichtiger ist der direkte Dialog mit den Fach- und Forschungskulturen hinsichtlich ihrer Interessen, Ansprüche und Gepflogenheiten. Interessant ist dabei, dass in nicht wenigen Fällen der Wunsch nach einem solchen Dialog ersteinmal über eine entsprechende Binnenverständigung dieser Kulturen angeregt werden muss, weshalb auch unter besten Bedingungen zum aktuellen Zeitpunkt kaum irgendwo dauerhafte und verbindliche Positionen insbesondere zur Frage der Zugänglichmachung oder auch formalen Publikation von Forschungsdaten anzutreffen sind. Der aus Sicht der Open-Science-Bewegung verständliche Wunsch nach einer freien und möglichst wenig begrenzten Zugänglichkeit und Nachnutzbarkeit von Forschungsdaten ist sicher sehr begrüßenswert. Man wird sich damit jedoch gedulden müssen, denn anders als beim Open Access von Publikationen, die bereits auf etablierte Muster des Veröffentlichens und Anerkennens in den Communities als Orientierungspunkte zurückgreifen konnten, muss für Open Research Data noch eine ganze Palette offenere Fragen geklärt. Die beginnt unter Umständen nach wie vor bei der Grundfrage “Was sind Forschungsdaten [in der jeweiligen Disziplin]?” und steuert auf die Folgefrage “Was sind publikationswürdgige Forschungsdaten..?” zu, tangiert Fragen wie “Fallen den Erhebenden bestimmte z.B. Urheberrechte an den Forschungsdaten zu?” und mündet vielleicht in “Wie bewerten wir die Qualität von Forschungsdatenpublikation? Wollen wir ein Peer Review und wollen wir es blind, pre oder post?”
Hochschulinfrastrukturen können an diesen Stellen wenig mehr leisten, als, sofern überhaupt möglich, aufzuzeigen, wie man in anderen Disziplinen oder Communities darüber diskutiert und wo möglicherweise schon elaborierte Praxen einer “Data Stewardship” vorliegen. Sie können möglicherweise auch entsprechende Diskussionen aufgreifen, aufarbeiten und eine Art transdisziplinären Erfahrungsaustauch organisieren. Andererseits liegt eventuell auch das bereits jenseits dessen, was wissenschaftliche Bibliotheken und Rechenzentren leisten können, sollen oder wollen und landet wiederum in den Besprechungsräumen der Forschungsförderer, die naturgemäß ein besonders großes Interesse daran haben, dass Forschungsinhalte, also auch Forschungsdaten nicht nur irgendwie sondern in einer bestmöglich nutzbaren Form der Wissenschaft allgemein zugänglich gemacht werden. Daher ist es nur folgerichtig, dass auch das Editorial in Nature betont: “They sound dull, but data-management plans are essential, and funders must explain why.”
(Berlin, 21.03.2018)
#Forschungsdaten#Forschungsdatenmanagement#eDissPlus#Forschungsförderung#Open Science#Nature#Forschungsdatenmanagementpläne#FDMP#Open Research Data#Forschungskulturen#Wissenschaftsinfrastrukturen#Forschungsdatenpublikationen
3 notes
·
View notes
Text
Forschungsdaten, Doppelarbeit und Bibliotheken. Zu einer Kolumne in Nature News.
Auf Nature News ist heute eine Kolumne der Neurowissenschaftlerin Franziska Denk zu lesen, die sich mit der Nachnutzung bzw. Nicht-Nachnutzung von Forschungsdaten befasst. Konkret bezieht sie sich auf Daten zur RNA-Sequenzierung, von denen anscheinend viele bereits offen verfügbar sind. Dafür, dass diese Daten dennoch selten nachgenutzt werden, benennt sie zwei Ursachen: Erstens ist Forschenden in ihrem Feld häufig nicht bewusst, wie viele für sie relevante Forschungsdaten bereits publiziert sind und zwar feldübergreifend. Zweitens gibt es eine gewisse Zurückhaltung gegenüber der Qualität dieser Forschungsdaten, die oft aus einer Unsicherheit hinsichtlich der eigenen informatischen Kompetenz entsteht:
“Because you need bioinformatics knowledge to generate and analyse sequencing results, people assume that they also need such expertise to locate and interpret them.“
Diese Sorge ist, so die Autorin, unbegründet, da die Datensätze in der Regel als Spreadsheets publiziert werden - unter anderem als Supplemente zu Zeitschriftenaufsätzen (siehe dazu u.a. auch einen Beitrag im Blog von eDissPlus). Und gerade solche Sequenzierungsdaten sind im Vergleich zu anderen Formen von Forschungsdaten gut standardisier- und anzeigbar und lassen sich auch nachträglich vergleichsweise gut hinsichtlich ihrer Qualität bewerten. Aus diesem Grund bietet es sich, so Franziska Denk, eine Nachnutzung von Forschungsdaten gerade in diesem Bereich besonders an. Zugleich nimmt sie Herausgeber und Reviewer in die Pflicht: Publizierende sollten verpflichtet sein, ihre Erkenntnisse mit bereits vorhandenen Daten abzugleichen. Reviewer könnten dies im Nachgang in einer Viertelstunde prüfen.
In dieser Form ließe sich demzufolge nicht zuletzt Doppelforschung reduzieren, was auch wissenschaftsökonomisch bedeutsam ist und auf ein älteres, spätestens seit den 1960er Jahren bekanntes Problem verweist:
Wer seine bibliothekswissenschaftlichen Grundlagen bei Professor Walther Umstätter erworben hat, weiß, dass Dokumentation, Digitalisierung und die Vermeidung von Doppelarbeit seit dem so genannten Sputnik-Schock wenigstens in den USA (und später auch in der westdeutschen Bibliothekswissenschaft) zu einem zentralen Thema in der Wissenschaft wurden. (vgl. dazu u.a. diesen Gastbeitrag vom 06. April 2006 im Tagesspiegel: Alle Bücher ins Netz. Ein Plädoyer für die Digitalisierung der Bibliotheksbestände.)
Bibliotheken sind vor diesem Hintergrund seit je “die wichtigste Rationalisierungsmaßnahme von Bildung, Forschung und Wissenschaft” (Walther Umstätter, u.a. in: derselbe (2009): Zwischen Informationsflut und Wissenswachstum. Berlin: Simon Verlag, S. 294), allein bereits dadurch, dass sie bereits vorhandene Erkenntnisse systematisch erschlossen und zugänglich machten. Dieser Prozess wird dank der Digitalisierung zugleich schneller (Innovationsleistung OPAC), umfassender (Innovationsleistung Online-Datenbanken) und tiefer (Innovationsleistung Volltexterschließung), allerdings auch komplexer. Generell erhöhen digitale Rechercheumgebungen die Möglichkeit der Auffindbarkeit in jedem Fall enorm, was mittlerweile auch für nicht-traditionelle Publikationsobjekte wie eben Forschungsdaten gilt. Entsprechend bestätigt Franziska Denk im Abschlusssatz ihrer Kolumne eine Grundeinsicht der Bibliothekswissenschaft, was vielleicht am Rande auch aufzeigt, wie sehr dank Digitalisierung und die verschiedenen Bereiche der Wissenschaft plötzlich zueinander finden. Für digitale Bibliotheken als “Rationalisierungsmaßnahme” bedeutet dies freilich, dass sie, möglichst in Kooperation mit den Fachwissenschaften, optimale, also eben auch auf bestimmte Anforderungen anpassbare, Verfahren für die Findability und Nutzbarkeit entwickeln müssen. In diesem Sinne sind sie nicht nur als Dienstleister für sondern auch Partner der Wissenschaft zu verstehen.
Franziska Denk (2017): Don’t let useful data go to waste. In: Nature News / Column World View, 28.02.2017 bzw. Nature 543, 7 (02 March 2017). DOI: 10.1038/543007a
(Ben Kaden, Berlin, 28.02.2017)
#Bibliotheken#digitale Bibliotheken#Bibliothekswissenschaft#Nature News#Franziska denk#2017#Doppelarbeit#Doppelforschung#Nachnutzung von Forschungsdaten#Forschungsdaten#Forschungsdatenpublikation
2 notes
·
View notes
Text
Der Videobeweis in der Wissenschaft. Ein Beitrag in Nature befasst sich mit Publikationserweiterungen zur Qualitätssicherung.
Timothy D. Clark (2017): Science, lies and video-taped experiments. In: Nature 542, 139 (09 February 2017) doi:10.1038/542139a
Die Frage, was zukünftige Publikationen (”Future Publications”) auszeichnen kann und auszeichnen wird, ist gleichermaßen für das Publikationswesen wie auch für Bibliotheken von erheblicher Bedeutung. Ersteres, also insbesondere Verlage und Publikationsdienstleister, sind auf Suche nach funktionierenden Geschäftsmodellen im Digitalen. Besondere wissenschaftliche Bibliotheken müssen ihre Organisation und ihre Dienstleistungen an die jeweils relevanten Medienform der Wissenschaftskommunikation anpassen. Ein Modell des zukünftigen Publizierens ist das des so genannten Enhanced Publishing (vgl. dazu auch die Materialien des Fu-PusH-Projektes, u.a. dieses Dossier), bei dem ein zentrales Publikationsobjekt, im Normalfall ein Textnarrativ wie zum Beispiel ein wissenschaftlicher Aufsatz, mit weiteren Objekten, z.B. Forschungsdaten (vgl. dazu auch forschungsdaten.org) verknüpft und somit erweitert werden.
Eine Perspektive, die in diesen Zusammenhang gehört, zeichnet Timothy D. Clark in einem Beitrag für die aktuelle Ausgabe von Nature. Ausgangspunkt ist die Wahrnehmung einer doch größeren Zahl von Fällen, in denen wissenschaftliche Ergebnisse unsauber, teils auch per Manipulation von Forschungsdaten erzeugt werden. Aus Gründen der Qualitätskontrolle per Reproduzierbarkeit und zur Sicherung der Forschungstransparenz schlägt er nun eine Art GoPro-isierung der Wissenschaft wenigstens dort vor, wo es möglich ist, nämlich in Wildnis und Labor:
“If extreme athletes can use self-mounted cameras to record their wildest adventures during mountaintop blizzards, scientists have little excuse not to record what goes on in lab and field studies. “
Die entstehenden Videodaten können wie auch andere Supplemente (weiteres dazu u.a. in diesem Blogbeitrag bei eDissPlus) (Medien)Repositorien abgelegt werden. Das bietet sich auf der einen Seite deshalb an, weil Journals für Supplemente häufig eine Maximalgröße vorgeben. Der Autor berichtet von 10-150 MB, was für viele Datenformate ausreicht, für Videodaten aber z.B. dann durchaus knapp bemessen ist, wenn noch weitere Supplemente publiziert werden sollen. Auf der anderen Seite, nämlich aus der Perspektive des Enhanced Publishing, ist die Publikation auf einem Repositorium auch deshalb vorzuziehen, weil die dort abgelegten Objekte zugleich von mehreren Publikationen referenziert werden können. Auch Folgepublikationen können ohne Probleme auf diese Daten verweisen. Schließlich bieten sich Repositorien auch aus der Perspektive offener Forschungsdaten als Publikationsplattformen an. Als Teil einer Zeitschrift und damit oft einer Verlagspublikation sind sie als Supplemente möglicherweise besonders geschützt und können beispielsweise nicht für eine Nachnutzung lizenziert werden. Das vierte Argument für die Wahl eines Repositoriums über die Wahl der Publikation direkt zum Artikel ist das der Auffindbarkeit. Videomaterialien oder auch Forschungsdaten können erfahrungsgemäß bei einer Ablage in einem öffentlichen Repositorium detaillierter erschlossen und damit besser gefunden werden. Wenn es sich um ein Datenrepositorium handelt, unterstützt der Kontext sicher auch die Findability durch entsprechend interessierte Zielgruppen.
Wie bei Forschungsdatenpublikation stellt sich auch für dokumentierende Forschungsvideos die Herausforderung bei der Motivation. Das Anfertigen, technische Aufbereiten und Publizieren derartiger Materialien ist fraglos ein erheblicher Zusatzaufwand, den WissenschaftlerInnen vermutlich dann scheuen, wenn er weder gesondert anerkannt wird noch verpflichtend ist. Das weiß auch Timothy D. Clark, der deshalb für Mandate eintritt und also betont:
The best way to implement these changes is for academic journals to start mandating visual (and audio) evidence to support a submitted paper. As far as I am aware, no journals routinely do this. Journals must also ensure that their stated requirements are adhered to.
(Ben Kaden / Berlin, 09.02.2017)
#wissenschaftliches Publizieren#Qualititätssicherung#enhanced publishing#Nature#Timothy D. Clark#Forschungsdaten#Video#2017#Wissenschaftskommunikation#Repositories#Forschungsdatenpublikation
0 notes
Text
Forschungsdaten, die als Supplemente zu Zeitschriftenaufsätzen publiziert werden, sind für eine Nachnutzung meist nicht vorbereitet.
Im befreundeten eDissPlus-Projekt an der Humboldt-Universität zu Berlin dreht sich alles um Forschungsdaten, zumeist im Zusammenhang mit elektronischen Dissertationen. Der dazugehörige Blog versteht sich allerdings durchaus als Medium, dass den Rahmen der Promotionszusammenhänge hin und wieder verlässt und das Thema Forschungsdaten und ihre Publikation allgemeiner betrachtet.
In einer aktuellen Lektüre, die nicht zufällig den hier unter dem Tag #dailylis versammelten Zusammenfassungen zu aktuellen Studien und Publikationen (der Anspruch der Täglichkeit wurde ganz offensichtlich in der Tumblr-Praxis verfehlt) ähnelt, setzt man sich dort beispielsweise mit den so genannten Online Journal Supplements auseinander. Und weil es inhaltlich prima passt - es geht am Ende auch um Data Librarians und Dateninfrastrukturen - und weil es sonst im LIBREAS-Tumblr derzeit leider still ist, soll dieses Posting an dieser Stelle mit freundlicher Genehmigung gespiegelt werden.
----------------
zu:
Jeremy Kenyon, Nancy Sprague, Edward Flathers: The Journal Article as a Means to Share Data: a Content Analysis of Supplementary Materials from Two Disciplines. In: Journal of Librarianship and Scholarly Communication. 4, p.eP2112. DOI: http://doi.org/10.7710/2162-3309.2112
[...] Die Autor*innen untersuchten, wie Fachzeitschriften mit solchen so genannten Online Journal Supplements umgehen. Hierbei schließt sich nebenbei der Kreis zu den im Fu-Push-Projekt an der Universitätsbibliothek untersuchten, so genannten Enhanced Publications bzw. Erweiterten Publikationen, allerdings nicht vollständig, ging es in in diesem doch um das geisteswissenschaftliche Publizieren. Der vorliegende Artikel analysiert dagen Zeitschriften aus den Bereichen der Geowissenschaften und der Botanik (Plant Sciences). Insgesamt wurden 15 Titel untersucht.
Interessant ist zunächst die Motivationslage bei der begleitenden Publikation von Daten und ergänzenden Materialien. Weniger als ein durchaus denkbarer intrinsischer Anreiz - beispielsweise aufgrund einer breiteren Überzeugung hinsichtlich der Open Science in Kombination mit passenden Publikationsangeboten durch die Verlage - verweisen Kenyon et al. hauptsächlich auf wissenschaftspolitische Ursachen. Forschungsförderungsinstitutionen legen nicht nur Wert auf Datenmanagementpläne sondern fordern - analog zu Open-Access-Policies - einen öffentlichen Zugang zu Forschungsdaten aus öffentlich geförderten Projekten. Dem begegnen einerseits Zeitschriften - ob proaktiv oder reaktiv erläutert der Text nicht - dadurch, dass sie ebenfalls Supplemente zu den Aufsätzen einfordern und andererseits Institutionen mit der Einrichtung von Datenrepositorien.
Entsprechend aufschlussreich ist der Blick auf den Umgang mit solchen Supplementary Materials bei ausgewählten Zeitschriften aus den genannten Fachbereichen.
Es lassen sich überblickshalber folgene Erkenntnisse festhalten:
Zahl der Supplemente pro Artikel: Die Mehrzahl der Artikel mit Supplementen hat ein bis drei Ergänzungsdateien, wobei einzelne Dateien auch mehrere Inhaltsobjekte bündeln können.
Code bzw. Scripte werden nur in geringem Umfang geteilt und ließen sich für die Botanik gar nicht nachweisen.
Sehr häufig wurden für die Publikation als Supplement aufbereitete Tabellen geteilt.
Erschließung: Die Supplemente enthalten insgesamt viel Zusatzmaterial, das jedoch schwer zu finden und in der vorliegenden Form kaum nachnutzbar ist. (So ist die Publikation in PDFs durchaus üblich - vgl. auch Womack, Ryan P. (2015): Research Data in Core Journals in Biology, Chemistry, Mathematics, and Physics. In: PloS one 10 (12), p. e0143460. DOI: http://doi.org/10.1371/journal.pone.0143460.)
Datenmengen: Keine der beiden Disziplinen scheint außergewöhnlich große und damit nach aktuellen Bedingungen problematische Datenmengen als Supplemente zu teilen. Im Durchschnitt hatten die Dateien eine Größe von 1,4 MB.
Nutzung von Repositorium: Zwei der größten Datensätze wurde auf einem separaten Repositorium abgelegt. Dies ist allerdings ein Sonderfall. Die meisten Materialien werden direkt über die Webseiten der jeweiligen Zeitschriften vermittelt. Kenyon et al. leiten daraus ab, dass Datenrepositorien vor allem als Ergänzung eine Rolle spielen können: „[The] differentiation between the treatment of large and small files may suggest that institutional or disciplinary data repositories could provide a niche service that would complement data sharing through journal supplementary material.“
Datenformate: Bei den Formaten wirken weniger fachwissenschaftliche Besonderheiten und mehr die Gepflogenheiten des wissenschaftlichen Schreibens und Publizierens, also mit Textverarbeitungssoftware und Büroanwendungen erstellte Dateien. Dominant sind bei den Supplementen die gängigen Microsoft-Anwendungen (Excel, Powerpoint). Daten, die mit anderen Anwendungen erzeugt werden, werden in einer überwiegenden Zahl der Fälle in diesen Standard-Formaten weiter verarbeitet, also entsprechend für die Publikation als Supplement aufbereitet. Der Vorteil ist die direkte Lesbarkeit durch den Menschen. Als nachteilig erweist sich, dass diese Formate für automatisierte Auswertungen und Indexierungen sowie eine Nachnutzung wenig zu gebrauchen sind.
Maschinenlesbarkeit 1: Daten werden also nur selten in maschinenlesbarer Form geteilt.
Maschinenlesbarkeit 2: Die Geowissenschaften scheinen der Publikation maschinenlesbarer Formate eher zugeneigt. (Beispiel: GIS-Dateien).
Darauf aufbauend formulieren Kenyon et al. einige Einsichten für Infrastrukturen (Verlage und Herausgeber, Data Manager und Bibliothekar*innen, die sich mit solchen Supplementen befassen):
Verlage dürften hinsichtlich der Stabilität ihrer Infrastrukturen keine größeren Probleme haben, da die Supplemente sowohl in Formaten wie auch Größe den Aufsatzpublikationen ähneln. Auch die direkte Einsehbarkeit der Dateien dürfte für die meisten Leser*innen gegeben sein. Disziplinäre Unterschiede spielen keine Rolle.
Auch für Bibliotheken und Rechenzentren ist die reine Archivierung und Verfügbarhaltung der Materialien bei den bisherigen Verfahren so keine erhebliche Herausforderung, insbesondere, wenn bereits Hosting-Dienste für Dateien bestehen. Die Herausforderung liegt vielmehr im Bereich der Discoverability der Materialien. Gepackte Inhalte lassen keine Rückschlüsse über die Inhalte zu. Auch die fehlenden Maschinenlesbarkeit wirkt an dieser Stelle als Hürde.
Sind also eine gezielte Auffindbarkeit und Nachnutzung das Ziel, müssen weitere bzw. andere Aufbereitungsschritte für die Daten erfolgen. Die Publikationsinfrastrukturen können an dieser Stelle aktiv werden, wenn sie möglichst standardisierte Bedingungen für nachnutzungsfreundliche Formate, Dokumentationen und Datenstrukturen vermitteln. Diese sollten fachgebietsübergreifend gelten.
----------------
(bk / 28.07.2016)
#daily lis#Forschungsdaten#eDissPlus#Crosspost#Online Journal Supplements#Wissenschaftskommunikation#2016#Forschungsdateninfrastrukturen#Forschungsdatenpublikation#Enhanced Publishing
0 notes