Kategorien
Allgemein Digital History Universität Bielefeld

Neue Data Story von Studierenden: Ein Erfahrungsbericht

von Jonas Penningroth

Im Rahmen des Grundseminars Methodik „Geschichte mit Daten“ an der Universität Bielefeld hatten einige Kommilitonen und ich unter Anleitung durch Silke Schwandt mit Unterstützung durch ihr Digital History-Team die Möglichkeit, das datengestützte digitale Arbeiten in der Geschichtswissenschaft kennenzulernen. Als Ergebnis können wir jetzt eine Data Story zu Johann Friedrich Blumenbachs Schädelsammlung präsentieren.

Zu Anfang des Seminars ging es erst einmal darum, allgemein über Daten, ihren Lebenszyklus in der Forschung und besonders ihre Verwendung in der Geschichtswissenschaft nachzudenken. Damit erhielten wir eine ganz neue Perspektive auf geschichtswissenschaftliche Informationen jenseits der üblichen lesenden und schreibenden Beschäftigung mit Quellen und Literatur. Den thematischen Input zu dem Anatom Blumenbach und seiner Sammlung lieferte Malin Wilckens , die das Seminar zusammen mit Silke Schwandt betreute. Durch die Arbeit des Projekts „Johann Friedrich Blumenbach – Online “ stand für das Thema bereits eine breite digitale Quellenbasis zur Verfügung.

Inspiriert durch ein paar Beispiele haben wir für unsere eigene Data-Story entschieden, die Herkunft der Sammlungsobjekte und ihren Weg zu Blumenbach mit Hilfe von Karten darzustellen. In einer gemeinschaftlichen Diskussion haben wir dann die thematischen Schwerpunkte unserer Story und die passenden Visualisierungen gegliedert.

Nach diesen konzeptionellen Überlegungen ging es in den praktischen Arbeitsprozess. Die erste Auseinandersetzung mit dem Quellenmaterial waren wir als Geschichtsstudenten gewohnt. Neuland betraten wir mit unseren Überlegungen, wie wir unsere Quellenbeobachtungen in Datenform überführen und sie für unsere Kartendarstellungen nutzbar machen konnten. Verschiedene digitale Karten-Tools wie ArcGIS  und uMap kennenzulernen und zu entscheiden welche wir geeignet fanden, war für uns ebenfalls ungewohnt.

In einem arbeitsteiligen Prozess haben wir dann unsere Daten aus den Quellen herausgearbeitet, die Begleittexte geschrieben und unser Kartenmaterial gestaltet. Um unsere Geo-Daten für das genutzte Karten-Tool lesbar zu machen, hatte ich auch die Gelegenheit, das Programmieren mit Python kennenzulernen. Die Ergebnisse unserer Arbeitsphase haben wir abschließend gemeinsam überarbeitet und zusammengefügt.

Unsere fertige Data-Story findet sich hier.


Kategorien
Allgemein Digital History

Summerschool: „Digital History – Neue Werkzeuge für Quellenerschließung und Textanalyse“

Das Team @BieDigital engagiert sich bei der Summerschool: „Digital History – Neue Werkzeuge für Quellenerschließung und Textanalyse“, die vom 23. bis 27.08.2021 von der Forschungsstelle für die Geschichte der Hanse und des Ostseeraums (FGHO) in Kooperation mit dem Historischen Seminar der CAU Kiel ausgerichtet wird.

Im Rahmen der Sommerschule sollen die wichtigsten Techniken und Tools der Digital History vorgestellt und eingeübt werden: Von der Quellenaufbereitung über automatisierte Transkription bis zur digitalen Textanalyse. Die Lehreinheiten richten sich an Interessierte aller Qualifikationsstufen in Studium, Promotion und Habilitationsphase. Bei erfolgreicher Teilnahme wird der Transkribus und Textanalyse-Führerschein ausgestellt.

Die Teilnehmer*innen erwartet unter anderem eine umfassende Einführung in die Arbeit mit der Plattform nopaque von Silke Schwandt und ein Beitrag von Laura Niewöhner zum Thema „Text Mining Tools in der Digital History“.

Weitere Informationen sind auf der Seite der Summerschool verfügbar.

Kategorien
Allgemein

„What’s in a project?“ – Beitrag auf der DHSI 2021

Das Digital Humanities Summer Institute (DHSI) ist eine seit 20 Jahren regelmäßig stattfindende Sommerschule, die zum Diskutieren und Lernen neuer Technologien anregt und Fragen aufwirft, wie das „Digitale“ Lehre, Forschung und Wissensproduktion in verschiedenen Disziplinen beeinflusst. 2021 war die zweite Online Edition der Sommerschule, die fast 2.000 Teilnehmende aus der ganzen Welt zählte. Teil des Programms war neben Institute Lectures und Workshops auch ein täglich wechselndes Konferenzprogramm, welches dieses Jahr aus pre-recorded Lightning Talks bestand, die dann live in einer Session von den Vortragenden diskutiert wurden.

Mein Beitrag mit dem Titel „What’s in a project? – Disciplinary differences in addressing temporality“ war Teil der Konferenz „Project Management in the Humanities“. Die über 20 Lightning Talks dieser Konferenz präsentierten eine breite Palette aus Erfahrungsberichten, historischen, soziologischen und psychologischen Überlegungen sowie Fallbeispielen aus dem Feld des Projekt Managements in den (digitalen) Geisteswissenschaften. Während viel über die Herausforderungen des Managements zu Zeiten einer Pandemie diskutiert wurde, war eins der immer wieder kehrenden Motive und Mantras: „Know your people!“ Die Erkenntnis war also, dass die Einschätzung und das Wissen über die Kenntnisse und Fähigkeiten der Mitarbeitenden für das Management von Projekten unabdingbar ist. Mein Lightning Talk bot hierfür eine theoretische Annäherung: meine Hypothese ist nämlich, dass das Verständnis und der Einsatz von „Zeit“ in verschiedenen (Fach-)Kulturen anders erfolgt und deswegen für das Zeitmanagement innerhalb von Projekten sehr wichtig sein kann:

Geplant ist eine Publikation im Rahmen dieser Konferenz, die an meine Ideen zur Überwindung disziplinäre Grenzen durch Projekt Management  anknüpft.[1]vgl. Neubert, Anna Maria. 2020. „Navigating Disciplinary Differences in (Digital) Research Projects Through Project Management“. In Digital Methods in the Humanities, herausgegeben von Silke … Continue reading

Referenzen

Referenzen
1 vgl. Neubert, Anna Maria. 2020. „Navigating Disciplinary Differences in (Digital) Research Projects Through Project Management“. In Digital Methods in the Humanities, herausgegeben von Silke Schwandt, 59–86. https://doi.org/10.14361/9783839454190-003.
Kategorien
Digital Academy Digital History

Digital Academy 2021 – Call for Participation jetzt online

Die Digital Academy geht in die nächste Runde – dieses Jahr mit dem Thema „Data Stories. Wie Datafication neue Erzählformate herausfordert und Wissenschaftskommunikation befördert.“ Das Team @BieDigital freut sich auf anregende Projekte von Forschenden (M.A., PhD, Post Doc), die sich gezielt austauschen möchten und ein eigenes Forschungsthema mitbringen, das sie in Form einer Data Story umsetzen möchten.

Der ganze Call for Participation und die Details zur Einsendung der Projektskizzen finden sich auf der Seite der Digital Academy.

Kategorien
Allgemein

Neue Rubrik „Talks and Seminars“

Bei der Digital History in Bielefeld ist trotz Lockdown viel los – dieser Tatsache tragen wir ab jetzt mit einer neuen Kategorie auf der Webseite Rechnung.

Unter „Talks and Seminars“ finden sich vergangene und noch bevorstehende Vorträge des Teams @BieDigital wie zum Beispiel der Vortrag von Ingo Pätzold zu „Körper- und Geschlechterdiskurse in der Berliner Klinischen Wochenschrift (1864 – 1921)“ im Rahmen der Online-Konferenz „Digital Humanities and Gender History“ der Universität Jena am 26.02.21 um 17.00 Uhr.
Außerdem sind dort erstmals die Seminare der Digital History an der Universität Bielefeld vollumfänglich gelistet. Von dort erhaltet ihr auch Zugang zu den zahlreichen, digitalen Projekten der Seminare wie zum Beispiel zur Online-Experience „Attack on Time – The Museum Files“ und bald auch zur Data Story über den Schädelsammler Johann Friedrich Blumenbach. In der Kategorie „Seminars“ hat außerdem die Digital Academy ihr neues Zuhause gefunden.

Wir wünschen viel Spaß beim Stöbern!

Kategorien
Allgemein

Vorträge im Februar

Das Team @BieDigital ist im Februar auf verschiedenen Veranstaltungen mit Vorträgen unterwegs.

Am 17.02. um 18.15 Uhr spricht Silke Schwandt im Rahmen des Interdisziplinären Forums digitaler Textwissenschaften an der Universität Heidelberg über „Datenvisualisierungen in der Geschichtswissenschaft – Von Worthäufigkeiten zu VR-Umgebungen“. Der Vortrag findet virtuell über heiCONF statt.
Mehr Informationen finden sich hier.

Beim vierten „forTEXT expert workshop“ unter dem Titel „Development and Application of Category Systems for Text Research“ ist am 18.02. um 11 Uhr ein Vortrag von Silke Schwandt und Juliane Schiel (Universität Wien) zum Thema “Slavery, Coercion and Work” – How to overcome a Eurocentric language in Labour History? Gemeinsames Annotieren zur Entwicklung einer gemeinsamen Sprache im Projekt „Worlds of Related Coercions in Work (Cost Action 18205)“ zu hören.
Hier gibt es weitere Infos zum Workshop und den Beiträgen.

Den Vortrags-Februar beschließen wir schließlich am 26.02. um 17.00 Uhr mit einem Beitrag von Ingo Pätzold auf der Online-Konferenz „Digital Humanities and Gender History“ der Universität Jena zum Thema „Körper- und Geschlechterdiskurse in der Berliner Klinischen Wochenschrift (1864 – 1921)“.
Hier gehts zum Tagungsprogramm.

Wir freuen uns auf die Vorträge, neue Eindrücke und den Dialog mit anderen Forscher*innen.

Kategorien
Allgemein

Armin Nassehi im Interview


Multinational aufgewachsen, Schalke-Fan, Buchautor, Gesellschaftstheoretiker und Professor für Soziologie – Armin Nassehi ist im Interview ein humorvoller, vor allem aber denkscharfer Gesprächspartner.
Im Rahmen der interdisziplinären Ringvorlesung zur Data Literacy Education an der Universität Bielefeld haben Silke Schwandt (Geschichtswissenschaft) und Oliver Böhm-Kasper (Erziehungswissenschaft) Armin Nassehi für ein gemeinsames Interview gewonnen, in dem es um Daten, Big Data, Digitalisierung und die notwendigen Kompetenzen in einer digitalen Gesellschaft geht.

Hier gehts zum Video: https://youtu.be/kcs7L6T8PUQ

Weiterlesen

Armin Nassehi ist Professor für Soziologie an der Ludwig-Maximilians-Universität München und weist ein breites Forschungsspektrum auf, in dem er immer wieder gegenwartsbezogene Fragestellungen aufgreift und reichhaltige soziologisch-systemtheoretische Erklärungsangebote bietet. 2019 veröffentlichte Nassehi das Buch Muster – Theorie einer digitalen Gesellschaft, das in namenhaften Rezensionen als „Augenöffner“, „helles Licht der Aufklärung“, als „anregende Diagnose der Gegenwart“ „frei von Alarmismus und Allgemeinplätzen“ hoch gelobt wird. Sein kommunikatives Geschick und der Gegenwartsbezug seiner Auseinandersetzungen machen ihn darüber hinaus zum beliebten Gast in Talkshows und Radiosendungen.

Was sind Daten?

Im Verlauf des Interviews beschreibt Nassehi Daten, völlig unabhängig von einem primär informatischen Verständnis, als das, was durch Etwas oder Jemanden gegeben ist. Daten existieren eben nicht einfach – sie müssen gegeben werden und können epistemologisch als „Spuren der Welt“ umrissen werden. Diese Spuren können verschiedenförmig auftreten. Ihnen gemeinsam ist jedoch, dass sie geordnete Signale sind, „deren Ordnung selbst die Bedeutung ausmacht und die auf etwas verweisen, das sie nicht selbst sind“. Dabei sind Daten nie die Wirklichkeit, um die es geht, sondern dasjenige, womit man sich die Wirklichkeit erschließt. Nassehi plädiert somit für einen sehr umfassenden und anschlussfähigen Datenbegriff, der beispielsweise auch geschichtswissenschaftliche Quellen als Daten versteht. Im Umgang mit Daten sucht der Mensch Ordnung und Zusammenhänge. Daten, so erklärt Nassehi, sind eigentlich nichts Anderes, als „die Form, wie wir uns die Welt überhaupt erschließen“, und die uns den Anlass geben, wiederum neue Daten zu erzeugen, indem wir beispielsweise Texte schreiben oder Ergebnisse formulieren.

Was ist im Unterschied zu Daten – eigentlich „Big Data“?

Nassehi hebt zunächst hervor, dass der Big-Data-Begriff kein systematischer Begriff ist und dass es dabei nicht nur darum geht, dass es Datensätze gibt, die „big“ sind. Vielmehr ist dem Begriff eigen, dass erhobene Daten für mehr genutzt werden, als das, wofür sie eigentlich erhoben worden sind. Datensätze, die eigentlich nichts miteinander zu tun haben, werden also miteinander in Relation gesetzt. Big Data ist in unserer westlichen Kultur mittlerweile in unsere Alltagspraktiken integriert und dadurch omnipräsent. Auf diese Weise gehen aus unserer Gesellschaft mehr Daten hervor, als gebraucht werden, mehr als wir merken und mehr als man für die Praktiken, um die es eigentlich gerade geht, eigentlich braucht.

„Der Big Data Begriff verweist eigentlich nur darauf, dass sie die Welt sind, mit der wir umgehen. Daten sind Spuren der Welt und die Welt ist ohnehin immer nur in den Spuren unserer Verarbeitungsprozesse – ob nun bewusste oder soziale, kulturelle, symbolische – zugänglich. Inzwischen sind Daten also die Dinge, mit denen man am meisten machen kann – ob vom Wahlkampf bis zur Steuerung von Gärprozessen bei der Herstellung von Käse.“

Was verstehen wir eigentlich unter dem Phänomen der Digitalisierung?

Für die Antwort auf diese Frage holt Nassehi weit aus und zieht im Gesprächsverlauf Register der Techniksoziologie, in der das Verhältnis von Gesellschaft und Medien untersucht wird. Auf diese Weise wird deutlich, dass wir uns in einer Medienumbruchsphase befinden, die massiven Einfluss auf unser Gesellschaftssystem ausübt. Dabei spielen Medienwechsel eine wichtige Rolle, in deren Kontext Nassehi sich mit der Frage danach auseinandersetzt, welche Probleme bestimmte Leittechnologien für ihre jeweilige Gesellschaft lösen. In Bezug auf die Digitalisierung behauptet Nassehi, dass „die Denkungsart der Digitalisierung eigentlich schon im 19. Jahrhundert beginnt“. Neckisch behauptet er, dass dies wohl für jedes Argument zutrifft, das es historisch zu belegen gilt. Die Erklärung für seine These bleibt aber nicht aus, denn im späten 18. und frühen 19. Jahrhundert beginne in unseren Breitengraden eine neue Denkungsart: Daten werden erfasst, verarbeitet und optimiert. Beispiele hierfür sind die Sozialplanung, die Entstehung des Betriebskapitalismus, das Militärwesen, die Verwaltung, Bildungsplanung, Wissenschaft und Medizin. 1918 wurde das statistische Reichsamt in Deutschland gegründet. Die dort erhobenen Daten führten zu einem politischen, ökonomischen und planerischen Mehrwert und wurden schnell zum Staatsgeheimnis erklärt. Erst im 20. Jahrhundert kamen dann Rechenmöglichkeiten hinzu, die dieses Vorgehen dann radikal optimiert haben.

„Im Grunde genommen fiel die Digitaltechnik jedoch in eine Welt hinein, in der die Tätigkeiten, die die Techniken, welche die Digitaltechnik stark gemacht hatte, bereits kannte.“

Armin Nassehi behauptet, dass sich das institutionelle Arrangement der Gesellschaft nach dem Wiener Kongress nicht wirklich verändert habe und diese Institutionen in ihrer Funktionsweise nicht anders als über den Weg der Datenverarbeitung operieren können. Ein weiteres Argument für seine These bildet die Tatsache, dass im selben Zeitraum, in der die Denkungsart zur Datenverarbeitung beginnt, auch die Hermeneutik entsteht, auf die sich viele Wissenschaften noch heute beziehen.

Welche Kompetenzen braucht man in der Digitalen Gesellschaft besonders?

Zunächst betont Nassehi, dass wir noch ganz am Anfang stehen, die Digitalwelt überhaupt zu verstehen. Zur Literalität gehört vor allen Dingen, darüber nachzudenken, worin uns das Digitale überhaupt beeinflusst. „Was bedeutet es, beispielsweise beim Fitnesstracking, mit solch einer Form der Selbst- und Weltbeobachtung zu leben? Wie verhalten sich Daten dazu, was wirklich der Fall ist? Was ist die DSGVO?“ Bildungsprozesse müssen das Bewusstsein dafür schaffen, dass unsere Gesellschaft sich in einem Transformationsprozess befindet. Als Teil einer Gesellschaft, in der Technik für uns Entscheidungen zu treffen vermag, müssen sie dementsprechend Zurechnungsfragen – neben rechtlichen vor allem ethische – stellen. In dem Zusammenhang bezieht sich Nassehi beispielhaft auf die Technologie selbstfahrender Autos, die ihre Umgebung scannen und selbstständig Entscheidungen über die Fahrweise des Automobils treffen. Selbstfahrende Autos agieren allerdings nicht auf Grundlage eines vorgefertigten Datensatzes, sondern müssen diesen selbst erzeugen und sind dadurch fehleranfällig. Wem rechnet man einen Unfall mit diesem Auto zu?

Man müsse Vertrauensstrukturen gegenüber den von uns genutzten Programmen kritisch reflektieren können. Diese Kompetenz gilt es in allen Bildungsinstitutionen zu fordern und zu fördern – insbesondere aber in Schulen. Hier müssen Lernformen und Fächerkanons überdacht werden.

Auch in den Wissenschaften braucht es einen kritischen Umgang; vor allem aber eine verstärkte epistemologische Selbstkritik der Fächer, die zur jeweiligen Gegenstandskonstituierung leitet.

Kategorien
Allgemein

Videos der Digital Academy online

Ab sofort gibt es mehrere neue Videos auf unserem Youtube-Kanal zum Anschauen! Wir stellen vier Videos aus unserem Open Space der ersten Digital Academy zur Verfügung und ihr könnt sehen (und hören), wie die Expert*innen-Interviews mit Noah Bubenhofer, Katharina Zweig und Andreas Ficker sowie die Theoriediskussion mit Diskutierenden aus der AG Theorie der DHd abliefen und welche Themen besprochen wurden. Wir freuen uns sehr, dass wir diese anregenden Gespräche dadurch nachnutzbar machen können und hoffen, dass sie für viele weitere Diskussionen anregen.

Die Youtube-Playlist findet sich hier.

Kategorien
Allgemein

nopaque: From text to data to analysis

In unserer neu veröffentlichten Webanwendung nopaque bündeln wir aufeinander abgestimmte Werkzeuge wie Optical Character Recognition (OCR), Natrual Language Processing (NLP) sowie eine mächtige Keyword In Context-Suche (KWIC) mit der CQP Abfragesprache.

nopaque bietet die Möglichkeit, alle Werkzeuge einzeln oder als Workflow zu nutzen. Alle Arbeitsschritte sind so aufeinander abgestimmt, dass einzelne Services aufeinander aufbauend verwendet werden können. Die Plattform unterstützt Forschende dabei, ihre Dateien in weiterverarbeitbare Formate zu überführen, sie automatisch mit Informationen anzureichern und anschließend zu analysieren, so dass nopaque einen Großteil der geisteswissenschaftlichen Forschungsprozesse abbildet. Mit dieser Toolbox richten wir uns an geisteswissenschaftliche Forschende aller Disziplinen und Kenntnisstände. Die während der Prozesse erzeugten Daten können nach jedem Schritt heruntergeladen werden, um sie bspw. mit anderen (externen) Tools auszuwerten oder weiterzuverarbeiten.

Corpus analysis Service: Eine Suche nach allen Sätzen, die mit einem Adjektiv beginnen und als nächstes eine beliebige Person nennen.

nopaque wird von einem kleinen, interdisziplinären Team entwickelt und auf Servern der Universität Bielefeld betrieben. Zur Umsetzung der Services greifen wir auf etablierte Open Source Software zurück, die wir zu einem ineinander greifenden Workflow integriert haben. So verwenden wir z.B. Tesseract OCR und das NLP Toolkit spaCy.

Da die Webplattform sich noch in der Entwicklungsphase befindet, freuen wir uns über jedes Feedback zur Verbesserung unserer Plattform.

Kategorien
Allgemein

Wir sind live!

Unsere Toolbox für den Workflow „from text to data“ ist jetzt online und erreichbar unter nopaque.sfb1288.uni-bielefeld.de!

Stay tuned for more news!