Maschinelles Lernen in den Geisteswissenschaften. Systemische und epistemologische Konsequenzen einer neuen Technologie
Seit einigen Jahren machen maschinelles Lernen und Überlegungen zu den Konsequenzen der dadurch entstehenden Artificial Intelligence Schlagzeilen. Von Spracherkennung über selbstfahrende Autos bis hin zu komplexen Spielen, maschinelles Lernen macht Computer in einzelnen Handlungsfeldern leistungsfähiger als Menschen.
In der Theorie werden drei Formen (supervised, unsupervised und reinforcing) des maschinellen Lernens unterschieden. Während die erste Form (supervised) auf Training basiert, also dem Versuch vorgegebene Resultate zu imitieren, ist das Ziel des zweiten (unsupervised) in einer Gesamtmasse Muster zu erkennen und zu clustern. Die dritte Form schliesslich (reinforcing) ist eine Mischung der beiden ersten Ansätze, der Lösungswege aufgrund von positiven oder negativen Rückmeldungen in eine gewünschte Richtung lenkt. Unabhängig von der Form des maschinellen Lernens stellen die Algorithmen im Handumdrehen komplexe Programme in den Schatten, die Spezialisten über Jahrzehnte hinweg entwickelt haben.
Ein Ansatz, das sogenannte deep learning basiert auf neuronalen Netzen, die dem menschlichen Gehirn nachempfunden sind. Sogenannte Neuronen (eigentlich Speicherbereiche) werden über mehrere Schichten vernetzt, mit Eingangs- sowie den gewünschten Ausgangsdaten konfrontiert und auf dieser Grundlage trainiert. Der Algorithmus „lernt“ oder „imitiert“ erwartetes Verhalten (Leifert et al., 2016).
Ebenso werden andere unüberwachte und überwachte Verfahren des maschinellen Lernens eingesetzt, um Strukturen in großen Datenmengen zu finden und die Zusammenhänge zwischen den Daten und ihnen zugeordneten Kategorien zu erkennen (z.B. Verfahren zur Dimensionalitätsreduktion, Clustering, Klassifikation, siehe einführend Alpaydin, 2014).
Die Technologien, die auf die 1980er Jahre zurückgehen, wurden lange nur testweise eingesetzt, weil die Leistungsfähigkeit der Computersysteme nicht ausreichend war (Fausett, 1993). Inzwischen lernen Maschinen mit den Methoden erfolgreich auf Gebieten, die schwer formalisierbar sind. Kommerzielle Anbieter wie Google, Amazon, Apple und Facebook implementieren machine learning heute schon in fast all ihren Produkten. Mit jeder Suchanfrage bei Google nutzen Menschen diese Technologie, ohne sich dessen bewusst zu sein, mit teils problematischen Folgen (Noble, 2018).
Unterschiedliche Perspektiven auf maschinelles Lernen
Das Panel hat zum Ziel, die Entwicklung und Anwendung des maschinellen Lernens mit einer Reflexion zu verbinden, die die Konsequenzen des Einsatzes aufzeigt. Dabei soll weder der häufig mit euphorischen Erwartungen verbundene Nutzen, noch unberechtigte Fundamentalabwehr befeuert werden. Vielmehr ist die differenzierte Beurteilung aus unterschiedlichen Blickwinkeln das Ziel.
Im Panel zentral gesetzt werden epistemologische Fragen, die gerade aufgrund der imitierenden Natur des maschinellen Lernens entscheidend sind für die Aufbereitung von Trainingsmaterial oder die Implementierung in Entscheidungsprozesse. Gleichzeitig ähneln die Prozesse, die die Algorithmen übernehmen Vorgehensweisen geisteswissenschaftlicher Verstehensprozesse, die unter dem Begriff der „Hermeneutik“ versammelt werden. Maschinelles Lernen hat entsprechend das Potential, als Methode unsere Zugänge und den Blick auf unser Material fundamental zu erweitern.
Im Rahmen des Panels werden vier Protagonist*innen ihre Perspektive auf die Konsequenzen der Nutzung des maschinellen Lernens werfen:
DH Segment: Generischer Ansatz für historische Dokumente
Sofia Ares Oliveira (Lausanne)
Der Einsatz des maschinellen Lernens erfordert insbesondere bei der Erstellung neuer Algorithmen Fertigkeiten aus den Computerwissenschaften. Genau dieser Aufgabe stellt sich Sofia Ares Oliveira täglich, wenn sie als Ingenieurin selbständig neuronale Netze für dhlab der Eidgenössisch Technischen Hochschule in Lausanne (EPFL) erstellt. Im Rahmen des Panels wird sie verantwortlich sein für eine kurze Einführung in maschinelles Lernen.
Aufgrund jahrelanger Beschäftigung mit der visuellen Analyse digitalisierter Dokumente, ist Ares Oliveira Spezialistin für den Aufbau und die Umsetzung neuronaler Netze zur semantischen Aufbereitung von Dokumenten (Segmentierung und Annotation). „DH segment“ (Ares Oliveira et al., 2018) eine Applikation, die für die Analyse und Identifikation von Dokumententeilen genutzt werden kann, beruht auf einem eigens erstellten, trainierbaren neuronalen Netz und dient als Ausgangspunkt zu Überlegungen zum Aufbau von machine learning Algorithmen.
Die zwei Teilbeiträge von Sofia Ares Oliveira werden auf Englisch vorgetragen.
Machine Learning-Algorithmen für die Digitalen Literaturwissenschaften
Christof Schöch (Trier)
Anhand von Beispielen aus der jüngeren Forschung in den Computational Literary Studies (u.a. Underwood 2019 und So 2019) möchte der Beitrag aufzeigen, dass Verfahren des überwachten machine learning auch gewinnbringend für Fragestellungen aus den Geisteswissenschaften eingesetzt werden können, die sich nicht auf die eindeutige Zuordnung von Items zu Klassen reduzieren lassen. Als hierfür nützlich erweisen sich Zugänge zu den beim machine learning entstehenden Daten, die es beispielsweise erlauben, Grade der Unsicherheit zu modellieren, die Interpretierbarkeit von Algorithmen zu erhöhen oder statt der Kategorisierung das Verständnis des untersuchten Gegenstandsbereichs in den Vordergrund zu rücken. Das impliziert, dass nicht die Fragestellungen an die vorhandenen Verfahren des Machine Learning angepasst werden müssen, sondern umgekehrt, die Verfahren so eingesetzt oder modifiziert werden können, dass sie sich bestmöglich für den Erkenntnisgewinn in den Geisteswissenschaften eignen.
Gattungsstilistik und maschinelles Lernen
Ulrike Henny-Krahmer (Würzburg)
In dem Beitrag werden verschiedene Möglichkeiten vorgestellt, maschinelle Lernverfahren für die Erforschung historischer Gattungen anhand des Textstils einzusetzen, insbesondere Clustering, Klassifikation und Topic Modeling (Henny-Krahmer, 2018; Schöch et al., 2016). Dabei wird diskutiert, welche neuen Möglichkeiten sich durch die Verfahren für die Gattungsforschung ergeben (u.a. automatische Gattungsbestimmung, Untersuchung umfangreicher Textkorpora, umfassende und systematische Untersuchung von Textmerkmalen), aber auch, welche Konzepte von Gattung und Textstil durch maschinelle Lernverfahren in den Vordergrund rücken, wodurch der Anschluss an neuere gattungstheoretische Diskussionen (z.B. Gattungen als literarisch-soziale Institutionen, Familienähnlichkeitsbeziehungen in Gattungen, siehe dazu Hempfer, 2010; Voßkamp, 1977) nicht immer gegeben ist. Am Beispiel der Gattungsstilistik soll so aufgezeigt werden, wie maschinelles Lernen die Möglichkeiten empirischer Untersuchungen in den Geisteswissenschaften erweitern kann, aber auch wie sich der Erkenntnisgewinn auf bestimmte sprachlich-formale textuelle Aspekte konzentriert.
Ground-Truth und Fragen der geisteswissenschaftlichen Datenaufbereitung
Tobias Hodel (Bern)
Im Rahmen von Projekt READ wurde mit der Einführung von maschinellen Lernverfahren die Erkennung von Handschriften und alten Drucken markant verbessert. Da die neuronalen Netze auf Trainingsmaterial basieren (also supervised sind), müssen Fragen nach der Aufbereitung gestellt und eine Verständigung epistemologischer Grundannahmen, insbesondere nach dem Konzept der „Ground-Truth“ untersucht werden. Solche Diskussionen bilden einerseits eine Aussensicht auf die verwendeten Algorithmen, andererseits lassen sich Vorstellungen aus den Disziplinen (Germanistik, Geschichte, Editionswissenschaften) kritisch in den Blick nehmen.
Die Panelisten werden kurz und thesenhaft ihre Perspektive auf die Technologie darlegen, dabei sollen sie u.a. zu drei Komplexen Stellung nehmen:
Chancen und Grenzen der Technologie
Wo wird der Einsatz der Technologie in den Geisteswissenschaften neue Erkenntnisse bringen, welche Dokumente/Materialien/Daten eignen sich nicht für die Behandlung mit machine learning Algorithmen? Inwiefern ähnelt oder unterscheidet sich der Einsatz der Technologie von hermeneutischen Prozessen?
Epistemologische Konsequenzen (für die DH/geisteswissenschaftliche Disziplinen)
Fragen nach Erkenntnismöglichkeiten werden in diversen geisteswissenschaftlichen Disziplinen seit Jahrzehnten diskutiert. Die Nutzung von Algorithmen des maschinellen Lernens erfordern jedoch klare Aussagen zur untersuchten Materie, unabhängig davon, ob es sich um supervised oder unsupervised Zugäng handelt (was ist Text, was soll identifiziert werden, welche Einheiten sind sinntragend etc.). Der Einsatz des maschinellen Lernens zwingt entsprechend zur Offenlegung von Konzepten und Vorstellungen.
Regeln zur Nutzung von machine learning Algorithmen
Neben der Angst vor dem Kontrollverlust und etwaigem Rückgang von Arbeitsplätzen oder der Überwachung von Menschenmassen, sind es nicht zuletzt Skandale zur Verletzung der Privatsphäre, die in den vergangenen Monaten zum Ruf nach der Regelung des Einsatzes der Technologie führten (Lobo, 2019). Neuste Forschungen zeigen, dass die Vorstellungen einer ethischen AI stark divergieren (Jobin et al., 2019). Ethische Regelungen sind in den Geisteswissenschaften unüblich, gerade deshalb sind die Diskussionen im Umfeld der Technologie fruchtbar. Inwiefern besteht ein Zusammenhang zwischen geforderter Diversifizierung der DH mit der Anwendung der Technologie?
Maschinelles Lernen in den Digital Humanities
Im wissenschaftlichen Bereich sind es zurzeit vor allem die angewandte Informatik und Mathematik sowie die Computerlinguistik, die maschinelles Lernen in ihre Forschungen integrieren. In den Digital Humanities spielt die Technologie bislang von wenigen Zentren abgesehen eine untergeordnete Rolle. In absehbarer Zeit dürfte sie ein wichtiger Teil der Disziplin werden – nicht nur im Recherche –, sondern auch im Auswertungs- und Schreibprozess. Insbesondere im Umgang mit digitalisierten Dokumenten, großen Datenmengen und Bildquellen können neuronale Netze ein wichtiges Mittel sein, um Daten zu finden, zu sortieren und auszuwerten.
Die digitalen Geisteswissenschaften umfassen mit ihrem Methodenapparat sowohl komplexe Softwareentwicklung, als auch die Anwendung statistischer Modelle und das Erklären mit hermeneutischen Verfahren. Daher ist die Disziplin prädestiniert in den Diskussionen dieser gesellschaftsverändernden Technologie eine Vorreiterrolle einzunehmen.