KI und Musik in der Lehre - Ein musikwissenschaftliches Projekt der Universität des Saarlandes (UdS)
https://zenodo.org/records/10698410
Einleitung
Mit der Veröffentlichung von ChatGPT1 durch das US-amerikanische Unternehmen OpenAi im vergangenen Jahr erhielt der durch die Coronakrise ausgelöste Digitalisierungsschub in der Hochschullehre einen neuen Impuls. Als Reaktion darauf wurde an der Universität des Saarlandes die Initiative „KI in der Lehre“ ins Leben gerufen, die Teil des seit 2021 von der Stiftung Innovation in der Hochschullehre geförderten Projekts Digital Teaching Plug-in (DaTa-Pin) bildet. Herausforderungen und Möglichkeiten der Nutzung von KI sollen in innovativen Lehr- und Lernangeboten erprobt und ausgelotet, im Idealfall in Best-Practice-Ansätze überführt werden.
Die Besonderheit des von der Fachrichtung Musikwissenschaft betreuten Teilprojekts „KI und Musik“ bildet sein multimodaler Ansatz. Im Gegensatz zu vielen anderen geisteswissenschaftlichen Fächern sind dort KI-Anwendungen nicht auf Schrift oder Texte beschränkt, sondern beziehen Ton und Musik mit ein. In diesem Beitrag werden das auf zwei Semester angelegte Teilprojekt und erste Ergebnisse vorgestellt.
Projektvorstellung
Die Umsetzung des Teilprojekts „KI und Musik“ im Lehrangebot der Studiengänge Musikwissenschaft und Musikmanagement der UdS bezieht sich auf die Komponenten Textproduktion und Musikproduktion. Beide subsumieren jeweils spezifische Anwendungsszenarien und digitale Werkzeuge. Für den Bereich Textproduktion spielt die Verwendung des Sprachmodells ChatGPT, das Studierende unter Einhaltung verbindlicher Regeln einsetzen sollen (Spannagel, 2023), eine wesentliche Rolle. In unterschiedlichen Lehrveranstaltungen, in denen die Generierung verschiedener Textarten im Mittelpunkt steht ‒ wissenschaftliche Hausarbeiten in Seminaren zur Musikgeschichte, Rezensionen und Musikkritiken in Übungen zum musikjournalistischen Schreiben sowie Liedtexte in Praxisveranstaltungen wie Songwriting ‒, sollen dafür How-to-Konzepte entwickelt werden, die teilweise auch auf die Lehre anderer geisteswissenschaftlicher Fächer übertragbar sind.
Im fachspezifischen Anwendungsbereich werden computergestützte Verfahren und KI-Tools seit Jahrzehnten zur Komposition, Produktion, Aufführung und Analyse von Musik genutzt und in Forschungsprojekten stetig weiterentwickelt. Ein systematischer Einsatz solcher generativen Modelle auf Basis symbolischer Daten oder Audiodaten in der musikwissenschaftlichen Hochschullehre lässt sich allerdings nicht beobachten (vgl. zur Verwendung im Instrumentalspiel Yu et al. 2023). Hier setzt das Projekt mit der Einbindung musikbezogener KI-Werkzeuge in Lehrveranstaltungen zur Analyse und Komposition (EarMaster) und Bearbeitung von Musik (Timbre Transfer; vgl. Gabrielli et al. 2018) an.
Erste Projektphase: Sommersemester 2023
Aus dem Bereich Musikproduktion wurde zunächst die KI-basierte App EarMaster in die musiktheoretische Übung Gehörbildung implementiert. Das Trainingsprogramm zum Üben und Erkennen von Intervallen und Akkorden wird individuell auf die Fähigkeiten und Defizite der Lernenden angepasst und erlaubt gleichzeitig eine stetige Dokumentation des Lernfortschritts (Martínez Villar, 2015). Die Präsenzveranstaltung wurde damit um eine asynchrone Selbstlernphase (Flipped-Classroom, vgl. Bergmann et al. 2012) erweitert, die deutlich stärker genutzt wurde als zusätzliche synchrone Lernangebote wie Tutorien. Eine Lernoptimierung durch die App lässt sich an den Prüfungsergebnissen des Sommersemesters ablesen, die im Vergleich zu Zwischenprüfungen noch ohne die digitale Übemöglichkeit signifikant besser ausgefallen sind.
Für die ersten Schritte im Bereich Textproduktion wurde eine musikjournalistische Übung ausgewählt, in der eine Filmmusik-Rezension verfasst werden sollte. Die Verwendung von ChatGPT hat gezeigt, wie wichtig ein qualifizierter Umgang damit ist, für den für die zweite Projektphase erste How-to-Konzepte erarbeitet wurden. Hierzu zählt das Formulieren effektiver Anfragen (vgl. Gimpel et al. 2023), die kritische Beschäftigung mit den Ergebnissen der KI sowie die Kenntnis ihrer Funktionsweise. Außerdem wurden mögliche Grenzen der Automatisierung geistiger Arbeit aufgezeigt, da das kreative Schreiben über das kreative Medium Musik offenbar besondere Herausforderungen für das KI-Tool darstellt.
Zweite Projektphase: Wintersemester 2023/24
In der Kernphase des Projekts werden belastbare Evaluationen durchgeführt und die Erfahrungen aus der ersten Projektphase konzeptionell eingebracht.
Neben flankierenden Kursen wie „Songwriting“ und „Methoden der Analyse“ werden im Seminar „Komponieren im digitalen Zeitalter: AI und Human-Computer Co-Creativity“ KI-basierte Text- und Musikproduktion zusammengeführt. In dem als Flipped-Classroom ausgerichteten Seminar sollen die Studierenden eine wissenschaftliche Hausarbeit zum Thema Musikproduktion mithilfe von ChatGPT und verschiedenen Recherche-Tools (Connected Papers2 , Elicit3 , Perplexity4 u. a.) prozessbegleitend schreiben. Nach der Themenvergabe zu Beginn des Semesters kommen erarbeitete How-to-Konzepte und Prompting-Strategien zur Anwendung. Die inhaltliche Ausrichtung auf KI-gestützte Kompositionen schließt insbesondere auch die Möglichkeit zu eigenen Komposititionsprojekten der Studierenden ein. Dabei kommen Tools wie z. B. Wekinator5 , Jukebox6 oder ChatGPT zur Generierung von MIDI-Daten zum Einsatz.
Asynchrone Lernphasen werden genutzt, um Texte zu wissenschaftlichen Fragestellungen zu generieren. In synchronen Classroom-Phasen dienen die generierten Texte als Ausgangspunkt einer vorwiegend methodischen Diskussion zwischen Studierenden und Dozierenden (vgl. Weinmann-Sandig, 2023), bei denen ein transparenter Umgang mit Ergebnissen und „Prompts“ gepflegt wird. Die Dokumentation und Evaluation der zweiten Projektphase soll im Poster präsentiert werden.
Fußnoten
Bibliographie
- Bergmann, Jonathan und Aaron Sams. 2012. Flip your classroom. Reach every student in every class every day. Eugene, OR: International Society for Technology in Education.
- Gabrielli, Leonardo, Carmine-Emanuele Cella, Fabio Vesperini, Diego Droghini, Emanuele Principi und Stefano Squartini. 2018. “Deep Learning for Timbre Modification and Transfer: an Evaluation Study.” In Proceeding of the 144th Audio Engineering Society Convention. https://www.researchgate.net/publication/330842404_Deep_Learning_for_Timbre_Modification _and_Transfer_an_Evaluation_Study (zugegriffen: 19. Juli 2023).
- Gimpel, Henner, Kristina Hall, Stefan Decker, Torsten Eymann, Luis Lämmermann, Alexander Mädche, Maximilian Röglinger, et al. 2023. Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT for Higher Education. https://digital.uni-hohenheim.de/fileadmin/einrichtungen/digital/Generative_AI_and_ChatGPT_in_Higher_Education.pdf (zugegriffen: 17. Juli 2023).
- Martínez Villar, Sofía. 2015. “Online Ear Training Programmes and Systems: Advantages and Disadvantages.” In 3. CEIMUS Congress. https://sonograma.org/2015/06/ear-training-programmes-systems/ (zugegriffen 19. Juli 2023).
- Spannagel, Christian. 2023. Rules for Tools. https://csp.uber.space/phhd/rulesfortools.pdf (zugegriffen: 17. Juli 2023).
- Weinmann-Sandig, Nina. 2023. ChatGPT – Eine Chance zur Wiederbelebung des kritischen Denkens in der Hochschullehre. https: //hochschulforumdigitalisierung.de/de/blog/praxistest-chatgpt-weimann-sandig (zugegriffen: 17. Juli 2023).
- Yu, Xiaofei, Ning Ma, Lei Zheng, Licheng Wang und Kai Wang. 2023. “Developments and Applications of Artificial Intelligence in Music Education.” In Technologies 11. https://www.mdpi.com/2227-7080/11/2/42 (zugegriffen: 18. Juli 2023).