The Mu­sic En­co­ding Con­fe­rence 2013

Mainz, 22.-24.05.2013

Von Christin Heitmann, Berlin – 15.12.2013 | „Music encoding“ meint die Software-unabhängige Codierung von musikalischen und musikbezogenen Daten mit Hilfe eines XML-basierten Datenformats. Neben Humdrum und MusicXML, bekannt durch die Export-Funktion in gängiger Notensatz-Software, hat sich MEI (Music Encoding Initiative, http://music-encoding.org) während des letzten Jahrzehnts zu einer der wichtigsten musik-bezogenen XML-basierten Datenformate entwickelt. Die Ähnlichkeit mit der Bezeichnung TEI (Text Encoding Initiative, http://www.tei-c.org) ist keineswegs zufällig, lehnt sich der Aufbau von MEI doch stark an die Strukturen von TEI – eines allgemein etablierten Standards für die wissenschaftliche / editorische Auszeichnung von Texten aller Art – an und setzt auf Kompatibilität und Kombinierbarkeit beider Formate. Vor allem die Ausrichtung auf die Erfordernisse wissenschaftlicher Editionen ist diesen beiden Formaten gemeinsam.

MEI steht außerdem für die Community, die aufbauend auf die Arbeit Perry Rolands (University of Virginia) das Format als open source weiter entwickelt. Die Mainzer Tagung wurde veranstaltet von der und für die MEI-Community, namentlich von Mitarbeiterinnen und Mitarbeitern, die an einschlägigen, am Musikwissenschaftlichen Seminar Detmold / Paderborn angesiedelten Forschungsprojekten mitarbeiten (namentlich Edirom, www.edirom.de, DARIAH, www.dariah.eu, Carl Maria von Weber-Gesamtausgabe www.weber-gesamtausgabe.de). Der äußere Rahmen, insbesondere die Räumlichkeiten, wurde durch die Akademie der Wissenschaften und der Literatur in Mainz bereitgestellt, die seit 2009 selbst aktiv die Entwicklung von MEI unterstützt.

Das Tagungsprogramm vermittelte einen beeindruckenden Überblick über die große Bandbreite der Anwendungsmöglichkeiten von XML-basierten Datenformaten im Allgemeinen und von MEI im Besonderen – es umfasste 17 Referate und sieben Poster-Präsentationen, in denen die verschiedensten Projekte aus ihrer täglichen Arbeit berichteten, spezielle Probleme und Fragestellungen erläuterten und zur Diskussion stellten sowie – je nach Stand der Arbeiten – ihre Ergebnisse präsentierten. Parallel fanden informelle Sitzungen verschiedener Special Interest Groups (SIG) statt, die sich z. B. mit der Darstellung von Neumen-Notationen oder mit der Entwicklung von spezieller Layout-Software wie etwa Vexflow befassten.

Eine ganz konkrete Vorstellung von den vielseitigen Möglichkeiten der Datenerfassung und Datendarstellung mit MEI bietet die MEI Beispiel-Sammlung, die von Maja Hartwig und Kristina Richts (Detmold/Paderborn) erarbeitet und in Mainz vorgestellt wurde. Sie ist unter http://music-encoding.org/documentation/samples im Internet frei nutzbar mit dem Ziel, MEI zu demonstrieren, zu testen und möglichst viele NutzerInnen in den Austausch über und die Weiterentwicklung von MEI einzubeziehen. Die Weiterentwicklung von MEI ist in der Beispielsammlung zum Teil nachvollziehbar, gibt es doch Beispiele sowohl in der Version 2012 als auch in der Version 2013 (die erst während der Mainzer Tagung online gestellt wurde). Es zeigt sich der große Vorteil von MEI z. B. gegenüber MusicXML, dass der im Dateiformat vorgesehene „Header“ vielfältige Möglichkeiten bietet, auch zugehörige Metadaten in derselben Datei zu speichern. Interessant ist zudem der Vergleich zwischen automatisch konvertierten und manuell codierten MEI-Dateien, wobei sich letztere durch höhere Dichte und Konsistenz auszeichnen.

Einen wesentlichen Anteil an den Vorträgen hatten Forschungsprojekte, die derzeit mit MEI oder anderen XML-Formaten arbeiten: Besonderen Nutzen von der Flexibilität von MEI haben wissenschaftliche Noten-Editionen, z. B. bei der Darstellung von Varianten. Dies zeigte etwa der Vortrag von Raffaele Viglianti und Benjamin Bohl über die digitale Edition von Webers Freischütz, „Freischütz digital“ (www.freischuetz-digital.de). In dem komplexen Editionskonzept werden für die getrennt codierten Editionen von Partitur und Libretto inklusive ihrer Varianten MEI und TEI verzahnt. Zentraler Gedanke dieses Konzepts ist in beiden Teil-Editionen die Unterscheidung zwischen dem „Core“, einem Meta-Text, in dem auch die Varianten verzeichnet werden, und den händisch codierten Quellen-Editionen.

Das im März 2013 an der UdK Berlin gestartete Projekt über den italienischen Opernkomponisten und Haydn-Zeitgenossen Giuseppe Sarti wurde vorgestellt von Kristin Herold und Christine Siegert (www.udk-berlin.de/musikwissenschaft/sarti). Ziel ist es, MEI-basierte digitale Editionen zweier Sarti-Opern zu erarbeiten, der opera seria Giulio Sabino (1781) und der opera buffa Fra i due litiganti il terzo gode (1782). Die Editionen zielen nicht auf einen „authentischen Text“ ab, sondern – unter Berücksichtigung der Breite der zeitgenössischen Überlieferung – auf die Darstellung verschiedener Fassungen der Opern, wie sie typischerweise im Rahmen der zeitgenössischen Aufführungspraxis italienischer Opern an diversen Orten erstellt wurden, so z. B. von Joseph Haydn für Eszterháza, oder von Antonio Salieri für das Kärntnertortheater in Wien. Der Fokus der Sarti-Editionen richtet sich darauf, bei der Codierung verschiedener Fassungen der Opern sowohl die „Makrostrukturen“ (Abfolge der Nummern, Streichungen, Einlagearien, aber auch Stimmlage der Rollen oder Sprache der Libretti) als auch die „Mikrostrukturen“ (Abfolge von Takten und Noten innerhalb einer Nummer, also kompositorische Varianten einer Nummer wie etwa Kürzungen, Veränderungen von Koloraturen, andere Besetzungen u. ä.) zu berücksichtigen.

Craig Stuart Sapp vom „Josquin Research Project“ an der Stanford University erläuterte zunächst die umfangreiche Website des Projekts, die ihren NutzerInnen digitale Werkzeuge zur Erschließung und Analyse für Musik der frühen Renaissance (1420–1520) zur Verfügung stellt. Kern der Website ist eine stetig wachsende Datenbank, die sowohl Werkverzeichnisse als auch Werkeditionen Josquin des Prezʼ und etlicher Zeitgenossen enthält (siehe http://jrp.ccarh.org). Ein großes Problem der Forschungsarbeiten besteht in der oftmals unsicheren Authentizität der Werke Josquins, da die Quellenlage etliche Fehlzuschreibungen bietet. Das Projekt begegnet dem mit umfangreichen, computergestützten Stil-Analysen, und die Datenbank ermöglicht es daher, Musik nach unterschiedlichen Features – neben Tonfolgen, Intervallfolgen und rhythmischen Folgen auch analytische Aspekte wie Tonumfänge, Oktav- und Quintparallelen, Dissonanzen u. ä. – zu suchen. Die Ergebnisse können in graphischer Notation dargestellt werden. Die hinterlegten Daten stehen für den Offline-Gebrauch als Downloads zur Verfügung, Partituren sind im ursprünglichen Humdrum-Format ebenso verfügbar wie als Exporte nach PDF, MIDI, MEI, MusicXML, MuseData, und matlab. Bislang basieren allerdings die Daten auf nur einer Quelle je Werk, so dass Werkfassungen und -varianten nicht berücksichtigt werden können. Dies widerspricht nicht nur der Quellenlage, sondern auch dem Werkbegriff der Josquin-Zeit.

Tore Simonsen, Oslo Norges Musikkhøgskole, steht mit seinem Projekt „Norwegian Music Heritage“ noch ganz am Anfang. Ziel ist es, in Kooperation mit diversen Institutionen wie z. B. des norwegischen Musikarchivs, die Werke norwegischer KomponistInnen vom Ende des 19. bis Anfang des 21. Jahrhunderts zu sichern und zu erforschen, wobei die Dokumentation sowohl Digitalisierung der Quellen als auch Werkeditionen beinhalten soll. Dabei sehen sich die geplanten Einzelprojekte, die sich jeweils mit einem/r Komponisten/in befassen sollen, vor ganz unterschiedliche Probleme gestellt; so sind etwa im Falle Fartein Valen (1887–1952) die existierenden Editionen sehr fehlerhaft, und der Nachlass von Geirr Tveitt (1908–1981) wurde durch einen Brand stark beschädigt, so dass einige Werke gar nicht mehr vollständig erhalten sind. Ausführlicher wurde das Werk von Arne Nordheim (1931–2010) vorgestellt, das von zahlreichen, in diversen Werken wiederkehrenden Elementen und Motiven geprägt ist, die es jeweils zu identifizieren und zu erschließen gilt. Simonsens Hauptinteresse lag darin, Kontakt zur MEI-Community herzustellen und herauszufinden, ob und in welcher Weise MEI für seine verschiedenen Vorhaben von Nutzen sein könnte. Damit nutzte er eine der besonderen Qualitäten der Community, nämlich offen zu sein für neue Problemstellungen und die Kooperation mit Projekten verschiedenster Art.

Elaine Hild und Thomas Weber berichteten von ihrer Arbeit für Corpus monodicum, ein Forschungsprojekt am Institut für Musikforschung der Universität Würzburg, das sich seit 2011 der wissenschaftlichen Edition einstimmiger Vokalmusik des lateinischen Mittelalters widmet (www.musikwissenschaft.uni-wuerzburg.de/forschung/corpus_monodicum). Das Editionsvorhaben umfasst sowohl gedruckte Bände als auch digitale Editionen. Für deren Realisierung kooperiert das Projekt mit der Firma notengrafik berlin (www.notengrafik.com), die die Aufgabe übernommen hat, die MEI-basierte Notationssoftware mono:di zu entwickeln, die speziell für die Notation nicht-mensuraler Musik geeignet ist. Zugleich können mit Hilfe des Programms Anmerkungen zur originalen Neumennotation aufgenommen und in die Edition eingebunden werden – Aufgaben, die mit den gängigen kommerziellen Notensatzprogrammen nicht zu lösen sind. Leider wird im Rahmen der Entwicklung von mono:di MEI selbst für die Neumen-Notation nicht weiter entwickelt anhand des Bedarfs, der im Projekt entsteht. Das ist bedauerlich, zeigen sich doch in der Anwendung erst der eigentliche Entwicklungsbedarf und meist auch die besten Lösungen.

MEI strebt für die Erfassung von Metadaten eine größtmögliche Kompatibilität mit Bibliotheken-Standards an. Axel Teich Geertinger (Kopenhagen) und Kristina Richts (Detmold/Paderborn) berichteten über die erfolgreiche Implementierung des sogenannten FRBR model in das XML-Schema von MEI, die in der Version MEI 2013 bereits realisiert ist. FRBR (Functional Requirements for Bibliographic Records) bezeichnet ein bibliothekswissenschaftliches Datenmodell für bibliographische Metadaten, das in Zukunft der Bibliotheks-Standard für die Katalogisierung sein soll. FRBR ist weniger ein bibliographisches Regelwerk, als vielmehr ein Modell, das verschiedene Konzepte wie „Werk“, „Ausgabe“ und „Exemplar“ für die Katalogisierung definiert und in Beziehung setzt. In der Gegenüberstellung FRBR und MEI wurden der Aufbau der beiden Auszeichnungssysteme ebenso wie der Nutzen einer Kombination gut nachvollziehbar.

Ein Anliegen der Tagung war es auch, andere Datenformate vorzustellen, die jeweils andere spezifische Eigenschaften haben und deren Entwicklung zum Teil wesentlich weiter zurückreicht als die von MEI. David Rizo (Universidad de Alicante, Spanien) erfüllte diesen Anspruch mit seinem Vortrag unter dem Titel „A grammar of Plaine & Easy Code“. „Plaine & Easy Code“ ist ein Exchange-Format für Bibliotheken und wurde im Rahmen eines Projekts der International Association of Music Libraries, Archives and Documentation Centres speziell für die Erfassung von musikalischen Daten in RISM entwickelt, wo es seit 1964 für die Codierung von Incipits verwendet wird (siehe website http://www.iaml.info/activities/projects/plain_and_easy_code).Musikalische Inhalte werden nach einem definierten System mit Hilfe von Buchstaben, Ziffern, Satzzeichen und weiteren möglichst intuitiv gewählten Symbolen codiert. Die Grammatik des Plaine & Easy Code bildet das Regelwerk dazu, das hilfreich ist, um formale Codierungsfehler zu vermeiden. Angestrebt sind weiterhin Tools für die Konversion von/nach MusicXML und MEI.

Der Nutzen solcher Codierungen liegt in der Standardisierung und Kompatibilität jedweder Daten, und dies wird im Hinblick auf die Suche als zentralen Aspekt bei der Nutzung digitaler Technik besonders gut nachvollziehbar: Der Vorzug jeder digitalen Publikationsform, seien es Datenbanken oder Editionen, ist ihre Durchsuchbarkeit. Doch sollen die Suchmöglichkeiten sinnvoll, effektiv und einfach sein, sowohl den Daten entsprechen als auch offen sein für die Fragestellungen der Nutzerinnen und Nutzer, und auch hier hilft die Codierung mit Datenformaten weiter.

Beispielhaft wurde dies deutlich in zwei Vorträgen: „Encoding, Searching and Displaying Music Incipit in the RISM-OPAC“ von Jürgen Diet und Magda Gerritsen und „Encoding Symbolic Music to facilitate Search and Analysis in Large Collections“ von Ian Knopke und Frauke Jürgensen von der BBC (Future Media and Technology) / University of Aberdeen. RISM-Opac ist seit 2008 mit der Serie A/II als Online-Datenbank im Internet frei verfügbar, im Jahr 2013 enthält die zugrundeliegende Datenbank 840.000 Datensätze. Seit 2011 wurden die Suchmöglichkeiten um die Suche nach musikalischen Incipits erweitert, die von Beginn an den Datensätzen zu den jeweiligen Quellen beigefügt wurden. Die Incipits werden komplett in grafischer Notation dargestellt, also inklusive Schlüssel, Taktart, Tonart, Diastematik, Rhythmik, aber dahinter liegt die Codierung mit „Plaine & Easy Code“, die die Suche nach Tonfolgen durch Eingabe einfacher Buchstaben erlaubt. Die Erweiterte Suche in RISM bietet zwei Suchmöglichkeiten nach Incipits, zum Einen nach Notenanfängen mit bestimmten Tonhöhen, zum Anderen nach Notenanfängen mit Transposition, d. h. dieselbe Intervallfolge wird auch in anderen Tonarten gefunden. Für die Suche muss in beiden Fällen nur die Tonfolge eingegeben werden. Die Option, Tonfolge und Rhythmus kombiniert zu suchen, um die Menge der Ergebnisse einzugrenzen, wie früher selbstverständlich, wird allerdings nicht mehr angeboten, und eine Wiedereinführung ist offenbar auch nicht geplant.

Eher in den Bereich der Visionen als der bereits realisierten Anwendung gehörte das Referat von Benjamin Bohl, Detmold/Paderborn, mit dem Titel „Fingerprinting the Rule: Towards Interconnecting Music Treatises by Means of an Encoding Scheme for Compositional Rules“. Bohls Idee ist die Entwicklung eines Schemas für die TEI-basierte Codierung von Kompositionsregeln, wie sie in den zahllosen Kompositionslehren und Musiktheorien seit der klassischen Antike formuliert wurden. Dabei wurden häufig Regeln aus früheren Schriften übernommen, sei es identisch oder modifiziert. Dabei kann ein und dieselbe Regel, etwa das Verbot von Quint- und Oktavparallelen, sehr unterschiedlich formuliert sein. Im Rahmen von digitalen Editionen von Kompositionslehren könnten einzelne Regeln jeweils nach einem bestimmten Standard ausgezeichnet werden, so dass Regeln identifizierbar und in ihrer substantiellen Aussage vergleichbar werden. Dies würde auch den Überblick über das in unzähligen Kompositionslehren tradierte Regelwerk erleichtern und möglicherweise zu ganz neuen Fragestellungen führen.

Zwei Vorträge widmeten sich last but not least der Frage nach möglichen Standards für die Darstellung musikalischer Symbole. Peter Stadler (Detmold/Paderborn) stellte zunächst – ausgehend von der editorischen Arbeit der Weber-Briefausgabe – eindrücklich den Bedarf für einen wissenschaftlichen Standard dar, der die Darstellung der enormen Vielfalt musikalischer Symbole innerhalb von Worttexten mit digitalen Mitteln enorm erleichtern würde. Daniel Spreadbury, Mitarbeiter der Steinberg Media Technologies GmbH in Hamburg berichtete direkt anschließend von seiner Arbeit an einer Lösung für dieses Problem, die erst seit kurzem entwickelt wird und den amüsanten Namen SMuFL trägt – Kürzel für Standard Music Font Layout (www.smufl.org).

Obwohl es bereits verschiedene Zeichenvorräte gibt – kurz vorgestellt wurden Sonate (Adobe), Petrucci und Opus –, von denen keiner verzichtbar ist, bieten die bisherigen Ergebnisse keine befriedigende Lösung, da kein Font wirklich vollständig und mit den anderen jeweils kompatibel ist. Ziel von SMuFL ist es daher, eine Basis zu schaffen für einen möglichst umfassenden, allgemein nutzbaren Zeichenfont in einheitlichem Layout. Die frei nutzbaren Downloads der jeweils aktuellen Version nebst allen wichtigen Informationen für AnwenderInnen sowie ein Diskussionsforum finden sich auf der oben genannten Website.

Zwei umrahmende Grundsatzreferate, „Interactive Musicology“ von Frans Wiering (Department of Information and Computing Sciences, Universiteit Utrecht) und „Humanities without borders“ von Daniel Pitti (Institute for Advanced Technology in the Humanities, University of Virginia), stellten – falls dies noch nötig war – endgültig unter Beweis, dass die Musikwissenschaft nicht nur in den Digital Humanities angekommen ist und ihren Platz gefunden hat, sondern auch auf vielfältige Weise von diesen profitiert.