Public Humanities Tools: Der Bedarf an niederschwelligen Services

Hermes, Jürgen; Klinke, Harald; Demmer, Dennis
https://zenodo.org/records/4621842
Zum TEI/XML Dokument

Spätestens mit der Herausbildung des Social Web (auch Web 2.0) seit knapp 15 Jahren, das nicht nur für die Verteilung von Information, sondern tatsächlich auch zur Mitgestaltung von Inhalten genutzt werden kann, hat das Internet die gesellschaftliche Kommunikationskultur (jedenfalls die derjenigen, die über verlässlichen Zugang verfügen und diesen nutzen) entscheidend gewandelt. Mit ResearchGate, Academia.edu, Mendeley und als neue, explizit nicht-kommerzielle Variante HCommons entstanden eine Reihe sozialer Medien spezifisch für den wissenschaftlichen Bereich, über die Forschungsergebnisse ausgetauscht und bewertet werden können und mit denen v.a. der Kontakt zu Kolleg|inn|en aufgenommen werden kann (Sugimoto et al. 2016). Jenseits dieser spezialisierten sozialen Medien nutzen Wissenschaftler|innen auch die allgemeinen Plattformen wie Facebook und Twitter, letzteres vor allem, um wissenschaftlichen Diskussionen zu folgen, Forschung zu kommentieren und auf eigene Veröffentlichungen - von Ergebnissen, jedoch auch von Daten und Software - aufmerksam zu machen (vgl. van Noorden 2014). Über die allgemein gebräuchlichen sozialen Medien ist es möglich, auch Laien zu erreichen, sei es, um die eigene Reichweite zu erhöhen oder um neue Nutzerkreise zu gewinnen, die mitunter sogar am Forschungsprozess partizipieren können. Entsprechende Programme wie public engagement oder Citizen bzw. Crowd Science sind institutionell erwünscht (vgl. Deutsche Akademie der Technikwissenschaften et al. 2014) und innerhalb der Wissenschaften durchaus verbreitet (vgl. Franzoni & Sauermann 2014).

Die öffentliche Publikation von Forschungsdaten

Forschung – nicht zuletzt die in den Geisteswissenschaften – generiert große Mengen an Daten, Information und Wissen, die für (Teil)Öffentlichkeiten interessant und relevant sein können. Nun ist die Publikation von Forschungsdaten – zusätzlich zu den bisher gebräuchlichen Publikationsmedien – zwar weithin erwünscht (siehe RFII 2016), zur Zeit allerdings alles andere als weitreichend umgesetzt. Dafür können sehr viele unterschiedliche Ursachen ausgemacht werden (vgl. Kaden 2018). Auf der anderen Seite bieten soziale Medien, hier vor allem Twitter, die Möglichkeit, granulare Informationshäppchen fein dosiert in den Timelines von Nutzer|inne|n erscheinen zu lassen und über diesen Weg deren Aufmerksamkeit zu gewinnen. Die Nutzung von privatwirtschaftlichen Plattformen, die vorwiegend monetäre Interessen verfolgen, für die Wissenschaftskommunikation ist nicht unproblematisch. Momentan existieren allerdings schlicht keine nicht-kommerziellen Alternativen Plattformen, über die man auf relativ simple Weise ein ähnlich großes Publikum erreichen könnte.

Ein Twitterprojekt, das weitreichende Beachtung fand bis hin zu einem Artikel in der New York Times , war das Projekt @9nov38 - heute vor 75 Jahren, in dem fünf Historiker|innen die zeitliche Dimension in die Erzählung von Ereignissen der Reichspogromnacht über Twitter mit einbezogen. Nun ist die manuelle Erstellung einzelner Tweets sehr aufwendig und für größere Datensätze eigentlich nicht ohne weiteres zu leisten. Doch im Grunde liegen die Daten, die für derartige Projekte gesammelt wurden, im Normalfall bereits in einem strukturierten Format vor, etwa in einer Datenbank oder als Spreadsheet. Auf dieser Grundlage wurde nach einem Austausch mit den am @9Nov38-Projekt beteiligten Historiker|innen auf dem Histocamp 2015 der Webservice autoChirp entwickelt, zunächst im Rahmen eines Projektseminars, seither weiter betreut durch das Institut für Digital Humanities (IDH) in Köln (Hermes et al. 2017). autoChirp ist ein Webservice, der nicht auf eine spezifische Anwendung hin entwickelt wurde, sondern eine Plattform bietet, um diversen, u.a. historischen Projekten einen niedrigschwelligen Zugang zu für sie hilfreicher Technologie zu ermöglichen. In dem bewusst einfach gehaltenen Webinterface können strukturierte Daten hochgeladen werden, um sie automatisiert auf spezifizierte Zeitpunkte zu schedulen und zu veröffentlichen. Das erste Projekt, das autoChirp nutzte, war @NRWHistory, bei dem in einem Projektseminar von Düsseldorfer Historiker|innen die Entstehung des Landes NRW um 70 Jahre zeitversetzt nacherzählt wurde (siehe ). Kurz darauf wurde über autoChirp mit @TiwoliChirp ein weiterer Veröffentlichungskanal für bereits über eine Smartphone-App veröffentlichten Forschungsergebnisse der Literaturwissenschaft eingesetzt.

Inzwischen greifen eine ganze Reihe von Projekten, die regelmäßige Tweets publizieren, auf autoChirp zurück. Das mit mehr als 4000 Followern mit Abstand reichweitenstärkste davon ist @Die_Reklame, mit dem Akteure aus dem Projekt @9Nov38 bemerkenswerte historische Werbeanzeigen twittern. Von Interesse sind diese, weil gerade Werbung extrem gegenwartsbezogen ist, was einen Einblick in die entsprechende Zeit der ursprünglichen Publikation gibt (vgl. Hoffmann 2018). Ein weiteres Projekt mit historischem Bezug ist Verbrannte Orte (@pictureXnet), das die Orte von Bücherverbrennungen im Dritten Reich auf einer Karte sammelt (siehe ) und diese an den entsprechenden Jahrestagen der Verbrennungen vertwittert. Die Twitter-Plattform hilft hier dabei, Aufmerksamkeit zu generieren und auch Daten zu den Ereignissen zu sammeln. Einen sehr ähnlichen Ansatz verfolgt das Projekt @gedenkplaetze.

2019 jährte sich zum 250. Mal des Geburtstag von Alexander von Humboldt. In diesem Jahr von besonderem Interesse war daher seine Chronik (siehe ), die von der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) herausgegeben wird und inzwischen auch über autoChirp an Twitter angebunden wurde (Hermes 2017). Bemerkenswert hier ist, dass die Chronik unter den Twitter-Account @AvHChrono jahrestagsaktuell verfolgt werden kann, was von knapp 200 Leser|innen in Anspruch genommen wird. Diese tagesaktuelle Konsultation der Daten hat auch schon zur Feststellung von Fehlern geführt, die an die BBAW rückgemeldet und anschließend korrigiert wurden. Auch dieses Beispiel zeigt, dass Social Media keine Kommunikation auf der Einbahnstraße sein muss.

Die Perspektive der Kunstgeschichte

Zwei der neuesten autoChirp-nutzenden Projekte kommen aus dem Bereich der Kunstgeschichte, einer bildbasierten Wissenschaft, deren Grundlage historische visuelle Objekte sind. Daher bedeutet die Einführung digitaler Methoden in das Fach vor allem die Entwicklung von Analyseprozessen, die sich auf Bild- und Metadaten beziehen (Klinke 2018). Diese werden nicht nur in der Forschung erzeugt, sondern kommen bisher vor allem aus den Sammlungsinstitutionen (GLAM).

Placeholder
Abbildung 1: Ein Tweet aus dem Fundus des ClevelandFunFacts-Twitterbots

Museen sind einer umfangreichen Transformation unterworfen, in der sie ihre Aufgaben unter dem Vorzeichen der Digitalisierung, Social Media und Virtual Reality neu definieren müssen (Kohle 2019). So eröffnet die Publikation der Sammlungsdaten als Open Data neue Möglichkeiten, die kulturellen Artefakte in neue, zeitgenössische Zusammenhänge zu bringen, in denen sie neue Bedeutungszuschreibungen erhalten können. Durch die Verwendung von autoChirp können offene Sammlungsdaten und globale Öffentlichkeit durch das visuelle Medium Twitter zusammengebracht werden. Auch hier erlaubt Twitter nicht nur die Kommunikation in eine Richtung, sondern auch die Partizipation des Publikums durch Kommentare, Retweets und das Einbinden in neue Kontexte.

Zwei Beispiele aus dem Jahr 2019 machen dies deutlich: Der Tweetbot @cart_fun_facts baut auf der Open Data-Strategie des Cleveland Museum of Art auf. Das 1916 gegründete Museum ist eines der umfassendsten Kunstmuseen der Welt, das am 23. Januar 2019 bekannt gegeben hat, dass es sich ab sofort als eine Open-Access-Institution betrachtet, die die Bezeichnung Creative Commons Zero (CC0) für hochauflösende Bilder und Daten im Zusammenhang mit ihrer Sammlung verwendet (siehe ). Die Öffentlichkeit hat damit jetzt die Möglichkeit, Bilder von mehr als 30.000 gemeinfreien Kunstwerken zu kommerziellen und nichtkommerziellen Zwecke zu teilen, neu zu mischen und wiederzuverwenden. Der von Harald Klinke (LMU München) entwickelte Tweetbot verwendet die in der Datenbank befindlichen “Fun Facts”, die täglich auf Flashcards zusammen mit den Abbildungen der Kunstwerke im Format eines visuellen Memes über den autoChirp-Service getwittert werden (siehe Abbildung 1).

Ein weiteres Beispiel ist der auf der Digital Art History Summer School 2019 in Malaga (DAHSS) durch Studierende entwickelte Tweetbot @thyssenmlgbot. Dieser twittert die Werke des dortigen Museum Carmen Thyssen unter Zuhilfenahme von NLP-Techniken und autoChirp, wodurch die Beschreibungstexte auf relevante Topics untersucht und diese in Hashtags umgewandelt werden. Dieses Projekt hat einerseits gezeigt, wie Studierende mithilfe von digitalen Kompetenzen einer GLAM-Institution helfen können, ihre Werke einer breiteren Öffentlichkeit zu vermitteln. Andererseits, wie diese Vermittlung einen Rückkanal erhalten kann, der es dem Publikum erlaubt, auf die Werke zu reagieren (beispielsweise durch in die Tweets integrierte Frage nach der vermuteten Entstehungszeit des Werks). Auf diese Weise können auch Werke, die üblicherweise nicht in der Ausstellung gezeigt werden, sondern im Depot verbleiben, sichtbar gemacht werden. Ein Online-Tool wie autoChirp ist dafür ein Hilfsmittel, das einen niederschwelligen Zugang zu neuen Formen der digitalen Museumskommunikation ermöglicht und deshalb gerade auch in der Lehre eingesetzt werden kann.

autoChirp und autoPost

Das IDH betreibt inzwischen neben autoChirp zur automatisierten Veröffentlichung auf Twitter auch autoPost für analoge Aufträge für Facebook-Seiten. Beide Services basieren auf Spring, einem quelloffenen Java-Framework für Web-Anwendungen. Der Quellcode ist unter Open Source-Lizenz (Eclipse Public Licence) auf GitHub beziehbar (siehe und ), so dass eigene Services betrieben werden können. Das IDH stellt aber auch beide Services für alle Interessierten zur Verfügung (siehe https://autochirp.spinfo.uni-koeln.de und ). Bei der Implementation wurde vor allem auf Modularität und Erweiterbarkeit geachtet, um das Programm ohne größeren Aufwand auf weitere Social Media Plattformen, wie z.B. Instagram portieren zu können, sofern diese eine entsprechende API (Application-Programming-Interface) anbieten.

Placeholder
Abbildung 2: Screenshot des autoPost-Services, mit dem große Mengen von geplanten Facebook-Posts realisiert werden können (hier zum Tiwoli-Projekt).

Bei der Datenpersistenz wurde bei autoPost auf eine schwergewichtigere, aber performantere Datenbank gesetzt, da die Erfahrung mit autoChirp gezeigt hat, dass ein freier Scheduling-Service sehr gut angenommen wird und die Zahl der Datenbankeinträge dementsprechend groß werden kann. Um Nutzer|inne|n von autoChirp die Möglichkeit zu bieten, ihre Inhalte, die in autoChirp schon geplant sind, auch auf Facebook zu veröffentlichen, wurde für autoChirp eine Export-Funktion angelegt. Tweets können gruppenweise als TSV-Datei heruntergeladen und in autoPost als Facebook Posts importiert werden.

Zwischenfazit zum Nutzerzuspruch

Während autoChirp schon seit 2016 läuft und für knapp 150 Nutzer|innen-Accounts bereits über 17.500 Tweets veröffentlicht hat (weitere 10.000 Tweets sind terminiert, aktuelle Zahlen erhält man über die Statistik-Seitedes Services), startete autoPost erst im Herbst 2019. Mit Syrian Modern History und Public History Weekly konnten aber bereits zwei wissenschaftlich betreute Accounts mit kombiniert über 36.000 Facebook-Abonnent|inn|en gewonnen werden, die autoPost täglich zur Bewerbung von Archiv-Artikeln nutzen.

Die Services autoChirp und autoPost sind Beispiele, an denen sich eine der wichtigen Aufgaben für die Digital Humanities spezifizieren lässt: Die Entwicklung erfolgte, weil Wissenschaftler|innen (nicht nur) aus den Geisteswissenschaften einen Bedarf hatten, ihre Daten auf Social Media Plattformen zu teilen. Dafür benötigten sie Tools, die eine niedrige Einstiegsschwelle haben und ihnen dabei Arbeit abnehmen können, wenn sie Aspekte ihrer Forschung öffentlich sichtbar machen und Studierende sowie die interessierte Öffentlichkeit in den Forschungsprozess (hier zuvorderst: In die Datensammlung) einbinden wollen. Insofern verstehen wir die Entwicklung von autoChirp und autoPost als Hilfsmittel zur Etablierung einer offenen, transparenten und partizipativen Wissenschaft (Open Science). Die Erfahrungen mit den hier vorgestellten Tools zeigt, dass die Methoden sowohl von den Wissenschaftler|inne|n, als auch vom Publikum angenommen werden und mithin das Potenzial haben, den Geisteswissenschaften eine größere Präsenz in der Öffentlichkeit zu ermöglichen und damit eine höhere Relevanz in der Gesellschaft zu erzielen.


Bibliographie

  • Deutsche Akademie der Technikwissenschaften / Union der Deutschen Akademien der Wissenschaften / Deutsche Akademie der Naturforscher Leopoldina (2014): “Zur Gestaltung der Kommunikation zwischen Wissenschaft, Öffentlichkeit und den Medien. Empfehlungen vor dem Hintergrund aktueller Entwicklungen.” München: acatech – Deutsche Akademie der Technikwissenschaften e.V. / Mainz: Union der Deutschen Akademien der Wissenschaften e.V. / Halle (Saale): Deutsche Akademie der Naturforscher Leopoldina e.V. – Nationale Akademie der Wissenschaften.
  • Fischer, Frank / Strötgen, Jannik (2015): „When Does German Literature Take Place? – On the Analysis of Temporal Expressions in Large Corpora”, in: Proceedings of DH2015, Sydney: Alliance of Digital Humanities Organisations.
  • Franzoni, Chiara / Sauermann, Henry (2014): “Crowd science: The organization of scientific research in open collaborative projects”, in: Research Policy, Amsterdam: Elsevier Volume 43/1, 1-20.
  • Hermes, Jürgen (2017): „Neu: Alex von Humboldt auf Twitter!", in TEXperimenTales, 17/08/2017, . [letzter Zugriff 18.12.2019]
  • Hermes, Jürgen / Hoffmann, Moritz / Eide, Øyvind / Geduldig, Alena / Schildkamp, Philip (2017): „Twhistory with autoChirp" in: DHd 2017 Bern – Digitale Nachhaltigkeit. Abstractband. Bern: DHd, 277ff.
  • Hoffmann, Moritz (2018): „Von Funden und Schwellen: Die Reklame“, [letzter Zugriff 18.12.2019]
  • Kaden, Ben (2018): „Warum Forschungsdaten nicht publiziert werden“, in: LIBREAS, Library Ideas 33.
  • Klinke, Harald (2018): „Daten­analyse in der Digitalen Kunstgeschichte. Neue Methoden in Forschung und Lehre und der Einsatz des DHVLab in der Lehre”, in: Harald Klinke (Hg.): #DigiCampus. Digitale Forschung und Lehre in den Geisteswissenschaften, München, 2018, S. 19-34.
  • Kohle, Hubertus (2019): Museen digital. Eine Gedächtnisinstitution sucht den Anschluss an die Zukunft. Heidelberg: Heidelberg University Publishing.
  • RfII – Rat für Informationsinfrastrukturen (2016): Leistung aus Vielfalt. Empfehlungen zu Strukturen, Prozessen und Finanzierung des Forschungsdatenmanagements in Deutschland, Göttingen. URL: [letzter Zugriff 18.12.2019]
  • Schwarz, Ingo (2019): „Zur Alexander von Humboldt-Chronologie”, in Ottmar Ette (Hg): edition humboldt digital, hg. v. Berlin-Brandenburgische Akademie der Wissenschaften, Berlin. Version 5 vom 11.09.2019. URL: [letzter Zugriff 18.12.2019]