Heute ist Handtuchtag!

Buch mit Hand und HandtuchAm 25. Mai ist Towel Day – und das Thüringer Kompetenznetzwerk Forschungsdatenmanagement ruft die Towel Day 2020 Pre-Registration Challenge aus!

Machen Sie mit und posten Sie ein Foto mit Handtuch und einer kurzen Begründung, warum Sie Präregistrierung gut finden mit den Hashtags #PreRegistration und #TowelDayChallenge auf Twitter und teilen Sie die Aktion über ihre eigenen Kanäle.

 

Der Towel Day wird jedes Jahr am 25. Mai zu Ehren des Autors Douglas Adams begangen und bezieht sich auf sein bekanntes Buch “Per Anhalter durch die Galaxis”, in welchem ein Handtuch als wichtigstes Utensil gilt. Doch was hat das mit Forschungsdatenmanagement zu tun?

 

In “Per Anhalter durch die Galaxis” ist die Erde in Wahrheit ein Supercomputer. Ihr einziger Zweck besteht darin, Daten zu sammeln um die Frage nach dem Sinn des Lebens, dem Universum und dem ganzen Rest zu finden. Die Antwort auf die Frage ist bereits bekannt und lautet “42”. Blöderweise wird die Erde direkt am Anfang des Romans, und sehr kurz vor der Beendung des Programms zur Errechnung der ultimativen Frage, komplett zerstört. Der ultimative Datenmanagement-GAU, denn nun weiß keiner mehr was die eigentliche Frage war.

 

Eine Möglichkeit solche Probleme zu vermeiden, ist die Prä-Registrierung (engl. Pre-Registration) von Forschungsvorhaben. Dabei werden Hypothese und Durchführung sowie die Art und der Umfang der zu erhebenden Daten und Auswertungsmethoden eines Forschungsprojektes dokumentiert und schon vor Beginn der eigentlichen Datenerhebung in nicht editierbarer Form einer öffentlichen Datenbank hinterlegt. Dadurch wird nicht nur die Sichtbarkeit von Studien verbessert, sondern auch die Unterscheidung von Studien zum Testen einer Hypothese und explorativen Studien ermöglicht. Beide Studienarten sind wichtig, können aber nicht auf Grundlage derselben Daten erfolgen, was unabsichtlich geschehen kann und die Glaubwürdigkeit der Ergebnisse reduzieren. Präregistrierung trägt somit dazu bei, dass am Ende einer Studie noch klar ist, was die ursprüngliche Frage eigentlich war und macht Forschung so transparenter.

 

Mehr Informationen finden Sie in diesem Video. Oder probieren Sie es doch einfach selbst aus und registrieren Sie ein Forschungsvorhaben zum Beispiel beim Center for Open Science (COS).

 

Don’t Panic – Pre-Register!

 

 

Poster_Towel_Day_2020

Reihe “Digitale Werkzeuge”: Tropy Fotomanagement

In dieser Reihe stellen wir digitale Hilfsmittel vor, die für die Arbeit an der Universität Erfurt nützlich sein können – für die Forschung, kollaboratives Arbeiten oder die (Selbst)Organisation. Bei Fragen rund um diese Themen steht Ihnen die Koordinatorin für Digital Humanities der Universität Erfurt zur Verfügung, deren Büro in der Universitätsbibliothek angesiedelt ist (https://www.uni-erfurt.de/bibliothek/forschungsunterstuetzende-dienste/digital-humanities/).

Tropy – reasearch photo management

Tropy ist eine kostenlose Open-Source-Software, die es ermöglicht, fotografisches Forschungsmaterial zu organisieren und zu beschreiben. Nachdem man seine Fotos in Tropy importiert hat, kann man sie zu Objekten kombinieren (z.B. Fotos der drei Seiten eines Briefes zu einem einzigen Objekt) und in Listen gruppieren. Man kann den Inhalt eines Fotos beschreiben, indem man eine oder mehrere Notizen hinzufügt; eine Notiz könnte zum Beispiel die Transkription eines Dokuments sein. Mit Tropy kann man Fotos auch mit Tags versehen. Tropy verwendet anpassbare Metadatenvorlagen mit mehreren Feldern für verschiedene Eigenschaften des Inhalts des Fotos, z.B. Titel, Datum, Autor, Box, Ordner, Sammlung, Archiv. Mit einer Suchfunktion kann man Informationen in seinen Fotos anhand von Metadaten, Tags und Notizen finden.

Tropy ist keine Fotobearbeitungssoftware (wie z.B. Photoshop). Es bietet nur grundlegende Bearbeitungsfunktionen (Drehen, Beschneiden, Zoomen und einige andere), die ausreichen, um den Inhalt eines Fotos lesbar zu machen.

Tropy ist kein Zitatmanager (wie z.B. Zotero). Es erfasst keine Metadaten aus Online-Katalogen oder Suchhilfen. Es erzeugt keine Zitate zur Verwendung in Textverarbeitungssoftware.

Tropy ist keine Plattform für die Texterstellung (wie z.B. DEVONthink). Man kann zwar an Fotos angehängte Notizen zu machen, aber man kann es nicht zur Erstellung anderer Arten von Dokumenten verwenden.

Tropy ist keine Plattform, um Forschung online zu präsentieren (wie z.B. Omeka). Es läuft auf dem persönlichen Computer, nicht auf einem Server.

Tropy arbeitet derzeit mit den Dateiformaten PG/JPEG, PNG, SVG, TIFF, GIF, PDF und JP2000.

Download unter https://tropy.org (für Linux 64-bit, Windows 64-bit und macOS unter Creative Commons Attribution 4.0 International License)

Screenshot aus Tropy

Reihe “Digitale Werkzeuge”: OpenRefine

In dieser Reihe stellen wir digitale Hilfsmittel vor, die für die Arbeit an der Universität Erfurt nützlich sein können – für die Forschung, kollaboratives Arbeiten oder die (Selbst)Organisation. Bei Fragen rund um diese Themen steht Ihnen die Koordinatorin für Digital Humanities der Universität Erfurt zur Verfügung, deren Büro in der Universitätsbibliothek angesiedelt ist (https://www.uni-erfurt.de/bibliothek/forschungsunterstuetzende-dienste/digital-humanities/).

Heute geht es um

OpenRefine

– ein interaktives Tool zur Bereinigung und Aufbereitung größerer Mengen von Daten. Die Open-Source-Software bietet zahlreiche Möglichkeiten, die größtenteils ohne weitere Programmierkenntnisse in einer tabellenartigen Benutzeroberfläche ausgeführt werden können. Diese hat mit Zeilen und Spalten große Ähnlichkeiten mit Excel-Tabellen (ein „OpenRefine-Projekt“ = eine Tabelle) und stellt verschiedene Arten von Filtern und Facetten zur Verfügung. Das Tool läuft im Browser (auch ohne Internetverbindung) lokal auf dem Rechner.

In OpenRefine können u.a. die Datenformate TSV, CSV, Excel, JSON, XML und RDF verarbeitet werden, außerdem können SQL-Exporte erstellt werden, um die Daten in einer Datenbank weiterzubearbeiten bzw. auszuwerten. Darüber hinaus bietet das Tool die Möglichkeit, die eigenen Daten mit anderen Datenquellen abzugleichen, anzureichern und zu verlinken, z.B. mit Wikidata oder mit der Gemeinsamen Normdatei (GND).

Durch die Arbeit mit OpenRefine bekommt man ein neues Gespür für seine Daten („Exploration“), kann mit ihnen spielen, Inkonsistenzen oder Fehler entdecken.

Hier ein Beispiel für eine Anwendung: Aus einem großen Datenset

  • werden alle leeren Suchanfragen gelöscht
  • werden Leerzeichen am Anfang und Ende der Sucheingabe gelöscht
  • wird der gesamte Text in Kleinbuchstaben umgewandelt.

Alle Operationen geschehen in der Regel nur mit den selektierten Daten. Veränderungen basieren auf einer Kopie des Datensets, so dass sie leicht rückgängig gemacht werden können, Operationsabfolgen können gespeichert und auf andere Datensätze angewendet werden.

OpenRefine ist ein Tool, das bei der Konsolidierung und Transformation von Daten Arbeitsschritte vereinfacht oder bei größeren Datenmengen überhaupt erst ermöglicht.

http://openrefine.org/

https://librarycarpentry.org/lc-open-refine/

https://histhub.ch/histhub-lab-tutorials-zu-openrefine/

Screenshot aus der bisher unpublizierten Abschlussarbeit von Dr. Verena Feistauer im Rahmen der Laufbahnprüfung für Bibliotheksreferendarinnen und Bibliotheksreferendare am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin: „Wie suchen Nutzer*innen wirklich? Eine Analyse der Suchanfragen im Verbund der Öffentlichen Bibliotheken Berlins (VÖBB)“, S. 10, Abb. 1.

 

 

Nachlese zu den ersten Thüringer FDM-Tagen

Forschungsdatenmanagement – eine Kernkompetenz der Geisteswissenschaften?!

Konzentrierte Workshop-Atmosphäre bei den ersten Thüringer FDM-Tagen

Diese Frage wurde am 20. Juni im Rahmen der ersten Thüringer FDM-Tage in Erfurt angeregt diskutiert. Dabei traf die Position, dass das Managen von Daten in die Hände entsprechender Fachleute gehöre und Wissenschaftler Daten lediglich zur Verfügung stellen auf das Argument, dass wissenschaftliche Fragestellungen und die Methodenkompetenz ein Verständnis von Datenstrukturen einschließen. Konsens bestand darüber, dass es individuelle und universitätsweite Verbesserungspotentiale im Umgang mit Daten gibt. Dieses Problem wird u.a. durch die Schaffung der Servicestelle Forschungsdatenmanagement an der Universität und ihre Einbindung in das Thüringer Kompetenznetzwerk Forschungsdatenmanagement angegangen. Eine Initiative des Landes und der Hochschulen, die allgemein begrüßt wurde.

Für Wissenschaftlerinnen und Wissenschaftler hat die Beschäftigung mit Forschungsdatenmanagement in Zusammenarbeit mit dedizierten Fachleuten eine Reihe von Vorteilen. In Projekten schärft die frühzeitige Berücksichtigung der Perspektive der Datenstruktur, wie sie beispielsweise über die Nutzung von Forschungsumgebungen wie FuD geradezu erzwungen wird, Forschungsfragen und Herangehensweisen. Die durch ein intensives Datenmanagement entstehenden Kosten wurden in der Diskussion keinesfalls verniedlicht.  Es wurde auch betont: bei rechtzeitiger Berücksichtigung der entstehenden Kosten in Förderanträgen bei DFG und anderen Fördereinrichtungen sind diese (teil)finanzierbar. Eine detaillierte Planung in diesem Bereich schützt vor bösen Überraschungen, und kann durch Nachnutzung bestehender Daten oder Strukturen die Kosten von Projekten sogar senken.

Unter https://forschungsdaten-thueringen.de/material-veranstaltungen.html sind auch die Präsentationen aller Veranstaltungen der Reihe Thüringer FDM-Tage abrufbar.

Reihe “Digitale Werkzeuge”: FDM mit Segrada

In einer neuen Reihe stellen wir an dieser Stelle digitale Hilfsmittel vor, die für die Arbeit an der Universität Erfurt nützlich sein können – für die Forschung, kollaboratives Arbeiten oder die (Selbst)Organisation.
Anregungen für neue Beiträge nimmt gerne entgegen: Dr. Katrin Ott

Nach dem DARIAH-DE Geo-Browser geht es heute weiter mit

Segrada

Die semantische Graphdatenbank Segrada ermöglicht es, Daten und Informationen aller Art aufzunehmen, in sehr flexibler Weise zu verknüpfen und schließlich in eine graphische Darstellung zu überführen. Mit Tags, Farben und Piktogrammen kann der Nutzer/die Nutzerin selbst einzelne Knoten und Kanten hervorheben und beschriften. Auch ist es möglich, die Daten zur weiteren Verarbeitung oder Visualisierung in andere Programme (z.B. gephi) zu exportieren. Für das wissenschaftliche Arbeiten ist die mögliche Verknüpfung von Akteuren, Zeitpunkten und Orten mit den entsprechenden Quellen von besonderer Bedeutung. Das Tool zeichnet sich gegenüber anderen Datenbank-Programmen durch einfache Handhabung und – mit der im Hintergrund arbeitenden Graphdatenbank OrientDB – durch eine flexible Verknüpfbarkeit der Daten aus. Die Struktur der gespeicherten Daten wird über Verknüpfungen und Tagging durch den Nutzer/die Nutzerin selbst festgelegt. Sie wächst damit während der Datensammlung und muss nicht am Anfang eines Projekts – wie bei relationalen Datenbanken – bereits endgültig festgelegt werden. Segrada ist ausschließlich in Java programmiert, muss daher nicht installiert werden, sondern läuft plattformunabhängig (also sowohl unter dem Betriebssystem Windows als auch unter Linux oder MacOS) als Browser-Anwendung.

Am 20. und 21. Juni 2019 finden an der Universität Erfurt zwei Hands-on-Workshops statt, in denen die Tools Segrada und Nodegoat vorgestellt werden:
https://www.uni-erfurt.de/geschichte/mittelalterliche-geschichte/aktuelles/

In einer Veranstaltung im Rahmen der „Thüringer Forschungsdatentage“ wird zudem FuD vorgestellt, eine virtuelle Forschungsumgebung, die das Forschungsdatenmanagement in den Geistes- und Sozialwissenschaften unterstützt.
Der Besuch der Veranstaltung, zu der die Servicestelle Forschungsdatenmanagement und die Koordinierungsstelle Digital Humanities der Universität Erfurt einladen, ist auch unabhängig von der Teilnahme an den Workshops möglich:
https://www.uni-erfurt.de/fileadmin/public-docs/Bibliothek/OpenScience/Plakat_FDM-Tage_Erfurt.pdf

Die Servicestelle Forschungsdatenmanagement der Universität Erfurt ist in das Thüringer Kompetenznetzwerk Forschungsdatenmanagement eingebunden:
https://forschungsdaten-thueringen.de/home.html

Und zum Abschluss noch ein Screenshot aus der Arbeit mit Segrada, der einen kleinen Einblick in die übersichtliche Oberfläche gewährt: