Forschungsdaten FAIR gestalten

Die im Jahr 2016 veröffentlichten FAIR Prinzipien zielen darauf ─ im Rahmen des rechtlich und technisch Möglichen ─, Forschungsdaten für Menschen und Maschinen optimal aufzubereiten und zugänglich zu machen.

Dabei steht das Akronym FAIR für Findable (Auffindbar), Accessible (Zugänglich), Interoperable (Interoperabel) und Reusable (Wiederverwendbar).

Durch die Erfüllung verschiedener Bedingungen, die mit Hilfe des Akronyms beschrieben werden, soll die Wiederverwendbarkeit von Datenbeständen verbessert werden. Zu erfüllende Bedingungen bei der Veröffentlichung von Forschungsdaten sind dabei beispielsweise die Zuweisung eines global eindeutigen und persistenten Identifiers (z.B. DOI) zu den Forschungsdaten, die ausführliche und standardisierte Beschreibung der Daten mit Hilfe von maschinenlesbaren Metadaten, die Nutzung offener Dateiformate für die Datensätze sowie die Angabe einer eindeutigen Nutzungslizenz.

Wenn Forschende Ihre Forschungsdaten FAIR gestalten führt dies idealerweise dazu, dass Forschungsprozesse effizienter, Forschungsergebnisse nachvollziehbarer, neue Forschungsfragen motiviert und Kollaborationen erleichtert werden.

Die FAIR Prinzipien wurden in der letzten Veranstaltung der Coffee-Lecture-Reihe im Sommersemester 2021 bereits genauer vorgestellt, wenn Sie aber noch mehr darüber erfahren wollen, wie Forschungsdaten FAIR gestaltet werden können, wenden Sie sich gern an die Servicestelle für Forschungsdatenmanagement oder lesen Sie hier nach.

 

Quellen:

https://www.forschungsdaten.info/themen/veroeffentlichen-und-archivieren/faire-daten/

https://www.go-fair.org/fair-principles/

https://blogs.tib.eu/wp/tib/2017/09/12/die-fair-data-prinzipien-fuer-forschungsdaten/

Wilkinson, M., Dumontier, M., Aalbersberg, I. et al. The FAIR Guiding Principles for scientific data management and stewardship. Sci Data 3, 160018 (2016). https://doi.org/10.1038/sdata.2016.18

 

Bild-Quellen:

Vorschaubild: Sungya Pundir, Wikimedia Commons, CC By-SA 4.0

Beitragsbild: The Turing Way Community, & Scriberia. (2020, March 3). Illustrations from the Turing Way book dashes. Zenodo. http://doi.org/10.5281/zenodo.3695300; CC By 4.0

Thüringer Forschungsdatenmanagement-Tage 2021

Das Thüringer Kompetenznetzwerk Forschungsdatenmanagement veranstaltet von heute an bis zum 25. Juni zum dritten Mal die Thüringer FDM-Tage 2021. Unter dem Motto “Datendokumentation: A love note to the future!” werden an den vier Thüringer Universitätsstandorten Online-Workshops veranstaltet.

Die Veranstaltungsreihe startet mit einer AuftaktveranstaltungInfrastruktur schafft Datenstruktur“ an der Universität Erfurt heute um 14 Uhr.

Programm am 21. Juni 2021, ab 14 Uhr:

  • Grußwort vom Vizepräsident für Forschung Prof. Dr. Kranemann
  • Verleihung des diesjährigen FAIRest Dataset Awards
  • Vorträge:
    • Och nee, nich noch ‘ne ID! (Paul Vierkant, ORCID DE)
    • Generische Forschungsprozesse in den Verhaltenswissenschaften (Dr. Thomas Lauer, ErfurtLAB)

Die Veranstaltung findet online statt. Nach der Anmeldung erhalten Sie den Link zum Veranstaltungsraum per E-Mail.

Forschungsdaten finden – Strategien zur Suche

Es gibt viele Gründe, die Literatursuche am Anfang von Projekten um eine gezielte Datensuche zu ergänzen:

  • Faktencheck
  • Einen Überblick über die vorhandene Datenbasis neuer Ergebnisse bekommen, und so einen Eindruck von eventuellen Forschungslücken gewinnen
  • Eigene Hypothesen anhand von Fremddaten auf ihre grundsätzliche Plausibilität prüfen
  • Die eigene Methodik ausprobieren, indem sie auf bekannte Daten angewendet wird

Für all diese Dinge ist es grundsätzlich von Vorteil, einen Überblick über die verschiedenen Möglichkeiten der Datenrecherche zu haben.

Ein erster Anlaufpunkt ist dabei die bisher für das Projekt herangezogene Forschungsliteratur, in der gezielt auf Verweise auf den Zugang zu den zu Grunde liegenden Forschungsdaten geachtet werden sollte. Häufig ist bei neueren Artikeln die DOI (Digital Object Identifier) des Datensatzes angegeben. Sollte das nicht der Fall sein, bietet sich der direkte Kontakt mit dem Autor des Artikels an, um Zugang zu den Daten zu erhalten.

Eine andere Möglichkeit ist die Recherche fachspezifischer Datenzeitschriften (eine kuratierte Liste entsprechender Zeitschriften findet sich bei forschungsdaten.org) oder die Suche in fachspezifischen Repositorien, die über den Dienst Re3data (Registry of Research Data Repositories) gefunden werden können.
Die Browse-Funktion ermöglicht dabei eine sukzessive Eingrenzung der Disziplin, so dass ein guter Überblick sowohl über die Gesamtheit der zur Verfügung stehenden Repositorien in einem Bereich also auch über die jeweilige Ausdifferenzierung gegeben wird. In einem zweiten Schritt ist allerdings die direkte Suche in einem Repositorium unerlässlich.

Die Suche über mehrere Repositorien hinweg ermöglichen Datenportale wie beispielsweise DataCite und B2FIND (eine ausführliche Liste finden Sie unter forschungsdaten.info).

Viel Spass beim Stöbern!

 

Heute ist Handtuchtag!

Buch mit Hand und HandtuchAm 25. Mai ist Towel Day – und das Thüringer Kompetenznetzwerk Forschungsdatenmanagement ruft die Towel Day 2020 Pre-Registration Challenge aus!

Machen Sie mit und posten Sie ein Foto mit Handtuch und einer kurzen Begründung, warum Sie Präregistrierung gut finden mit den Hashtags #PreRegistration und #TowelDayChallenge auf Twitter und teilen Sie die Aktion über ihre eigenen Kanäle.

 

Der Towel Day wird jedes Jahr am 25. Mai zu Ehren des Autors Douglas Adams begangen und bezieht sich auf sein bekanntes Buch “Per Anhalter durch die Galaxis”, in welchem ein Handtuch als wichtigstes Utensil gilt. Doch was hat das mit Forschungsdatenmanagement zu tun?

 

In “Per Anhalter durch die Galaxis” ist die Erde in Wahrheit ein Supercomputer. Ihr einziger Zweck besteht darin, Daten zu sammeln um die Frage nach dem Sinn des Lebens, dem Universum und dem ganzen Rest zu finden. Die Antwort auf die Frage ist bereits bekannt und lautet “42”. Blöderweise wird die Erde direkt am Anfang des Romans, und sehr kurz vor der Beendung des Programms zur Errechnung der ultimativen Frage, komplett zerstört. Der ultimative Datenmanagement-GAU, denn nun weiß keiner mehr was die eigentliche Frage war.

 

Eine Möglichkeit solche Probleme zu vermeiden, ist die Prä-Registrierung (engl. Pre-Registration) von Forschungsvorhaben. Dabei werden Hypothese und Durchführung sowie die Art und der Umfang der zu erhebenden Daten und Auswertungsmethoden eines Forschungsprojektes dokumentiert und schon vor Beginn der eigentlichen Datenerhebung in nicht editierbarer Form einer öffentlichen Datenbank hinterlegt. Dadurch wird nicht nur die Sichtbarkeit von Studien verbessert, sondern auch die Unterscheidung von Studien zum Testen einer Hypothese und explorativen Studien ermöglicht. Beide Studienarten sind wichtig, können aber nicht auf Grundlage derselben Daten erfolgen, was unabsichtlich geschehen kann und die Glaubwürdigkeit der Ergebnisse reduzieren. Präregistrierung trägt somit dazu bei, dass am Ende einer Studie noch klar ist, was die ursprüngliche Frage eigentlich war und macht Forschung so transparenter.

 

Mehr Informationen finden Sie in diesem Video. Oder probieren Sie es doch einfach selbst aus und registrieren Sie ein Forschungsvorhaben zum Beispiel beim Center for Open Science (COS).

 

Don’t Panic – Pre-Register!

 

 

Poster_Towel_Day_2020

Reihe “Digitale Werkzeuge”: Tropy Fotomanagement

In dieser Reihe stellen wir digitale Hilfsmittel vor, die für die Arbeit an der Universität Erfurt nützlich sein können – für die Forschung, kollaboratives Arbeiten oder die (Selbst)Organisation. Bei Fragen rund um diese Themen steht Ihnen die Koordinatorin für Digital Humanities der Universität Erfurt zur Verfügung, deren Büro in der Universitätsbibliothek angesiedelt ist (https://www.uni-erfurt.de/bibliothek/forschungsunterstuetzende-dienste/digital-humanities/).

Tropy – reasearch photo management

Tropy ist eine kostenlose Open-Source-Software, die es ermöglicht, fotografisches Forschungsmaterial zu organisieren und zu beschreiben. Nachdem man seine Fotos in Tropy importiert hat, kann man sie zu Objekten kombinieren (z.B. Fotos der drei Seiten eines Briefes zu einem einzigen Objekt) und in Listen gruppieren. Man kann den Inhalt eines Fotos beschreiben, indem man eine oder mehrere Notizen hinzufügt; eine Notiz könnte zum Beispiel die Transkription eines Dokuments sein. Mit Tropy kann man Fotos auch mit Tags versehen. Tropy verwendet anpassbare Metadatenvorlagen mit mehreren Feldern für verschiedene Eigenschaften des Inhalts des Fotos, z.B. Titel, Datum, Autor, Box, Ordner, Sammlung, Archiv. Mit einer Suchfunktion kann man Informationen in seinen Fotos anhand von Metadaten, Tags und Notizen finden.

Tropy ist keine Fotobearbeitungssoftware (wie z.B. Photoshop). Es bietet nur grundlegende Bearbeitungsfunktionen (Drehen, Beschneiden, Zoomen und einige andere), die ausreichen, um den Inhalt eines Fotos lesbar zu machen.

Tropy ist kein Zitatmanager (wie z.B. Zotero). Es erfasst keine Metadaten aus Online-Katalogen oder Suchhilfen. Es erzeugt keine Zitate zur Verwendung in Textverarbeitungssoftware.

Tropy ist keine Plattform für die Texterstellung (wie z.B. DEVONthink). Man kann zwar an Fotos angehängte Notizen zu machen, aber man kann es nicht zur Erstellung anderer Arten von Dokumenten verwenden.

Tropy ist keine Plattform, um Forschung online zu präsentieren (wie z.B. Omeka). Es läuft auf dem persönlichen Computer, nicht auf einem Server.

Tropy arbeitet derzeit mit den Dateiformaten PG/JPEG, PNG, SVG, TIFF, GIF, PDF und JP2000.

Download unter https://tropy.org (für Linux 64-bit, Windows 64-bit und macOS unter Creative Commons Attribution 4.0 International License)

Screenshot aus Tropy

Reihe “Digitale Werkzeuge”: OpenRefine

In dieser Reihe stellen wir digitale Hilfsmittel vor, die für die Arbeit an der Universität Erfurt nützlich sein können – für die Forschung, kollaboratives Arbeiten oder die (Selbst)Organisation. Bei Fragen rund um diese Themen steht Ihnen die Koordinatorin für Digital Humanities der Universität Erfurt zur Verfügung, deren Büro in der Universitätsbibliothek angesiedelt ist (https://www.uni-erfurt.de/bibliothek/forschungsunterstuetzende-dienste/digital-humanities/).

Heute geht es um

OpenRefine

– ein interaktives Tool zur Bereinigung und Aufbereitung größerer Mengen von Daten. Die Open-Source-Software bietet zahlreiche Möglichkeiten, die größtenteils ohne weitere Programmierkenntnisse in einer tabellenartigen Benutzeroberfläche ausgeführt werden können. Diese hat mit Zeilen und Spalten große Ähnlichkeiten mit Excel-Tabellen (ein „OpenRefine-Projekt“ = eine Tabelle) und stellt verschiedene Arten von Filtern und Facetten zur Verfügung. Das Tool läuft im Browser (auch ohne Internetverbindung) lokal auf dem Rechner.

In OpenRefine können u.a. die Datenformate TSV, CSV, Excel, JSON, XML und RDF verarbeitet werden, außerdem können SQL-Exporte erstellt werden, um die Daten in einer Datenbank weiterzubearbeiten bzw. auszuwerten. Darüber hinaus bietet das Tool die Möglichkeit, die eigenen Daten mit anderen Datenquellen abzugleichen, anzureichern und zu verlinken, z.B. mit Wikidata oder mit der Gemeinsamen Normdatei (GND).

Durch die Arbeit mit OpenRefine bekommt man ein neues Gespür für seine Daten („Exploration“), kann mit ihnen spielen, Inkonsistenzen oder Fehler entdecken.

Hier ein Beispiel für eine Anwendung: Aus einem großen Datenset

  • werden alle leeren Suchanfragen gelöscht
  • werden Leerzeichen am Anfang und Ende der Sucheingabe gelöscht
  • wird der gesamte Text in Kleinbuchstaben umgewandelt.

Alle Operationen geschehen in der Regel nur mit den selektierten Daten. Veränderungen basieren auf einer Kopie des Datensets, so dass sie leicht rückgängig gemacht werden können, Operationsabfolgen können gespeichert und auf andere Datensätze angewendet werden.

OpenRefine ist ein Tool, das bei der Konsolidierung und Transformation von Daten Arbeitsschritte vereinfacht oder bei größeren Datenmengen überhaupt erst ermöglicht.

http://openrefine.org/

https://librarycarpentry.org/lc-open-refine/

https://histhub.ch/histhub-lab-tutorials-zu-openrefine/

Screenshot aus der bisher unpublizierten Abschlussarbeit von Dr. Verena Feistauer im Rahmen der Laufbahnprüfung für Bibliotheksreferendarinnen und Bibliotheksreferendare am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin: „Wie suchen Nutzer*innen wirklich? Eine Analyse der Suchanfragen im Verbund der Öffentlichen Bibliotheken Berlins (VÖBB)“, S. 10, Abb. 1.