Am 30.-31. August 2022 versammelte ein Expertenworkshop rund 30 Historikerinnen und Archivare im Landesarchiv Nordrhein-Westfalen in Duisburg, um gemeinsam Fragen der Übernahme genuin elektronischer Unterlagen und deren Nutzung zu diskutieren.1 Bereits jetzt übernehmen Archive Daten aus elektronischen Systemen und treffen zahlreiche nicht reversible Entscheidungen, wobei die Quellen weitaus stärker geformt werden als dies die entsprechenden Arbeitsschritte im analogen Bereich erfordern. Gleichzeitig werden elektronische Daten – auch in großer Menge – von Zeithistorikerinnen und -historikern bereits genutzt und ausgewertet. Im Zuge dieser digitalen Transformation ist die Zusammenarbeit und der Austausch beider Disziplinen unerlässlich, da die Überlieferung stetig anwächst und zukünftig erweiterte Kompetenzen der Quellenkritik notwendig werden.
Um den Austausch zwischen Archiv- und Geschichtswissenschaft zu fördern, wurden die Vorträge aus beiden Disziplinen als Tandem organisiert. Nach der Begrüßung durch den Präsidenten des Landesarchivs NRW, FRANK M. BISCHOFF (Duisburg), und ANDREAS FICKERS (Luxemburg), eröffnete BETTINA JOERGENS (Duisburg) die erste Sektion mit einem Einstieg in die zentralen Fragestellungen des Workshops. In ihrem Impulsvortrag stellte sie vier Bausteine für eine toolbox zur kritischen und methodengeleiteten Auswertung von genuin elektronischem Archivgut vor. Vorausgesetzt würden dabei Kenntnisse über solche Quellen bzw. Archivalientypen. Für die Einordnung dieser Archivalien sei das Verständnis von der digitalen Beschaffenheit notwendig, was die Datenintegrität, die Daten- und Metadatenstruktur sowie den Status der Repräsentationen einschließe. Weiter müsse die «Echtheit der Quelle» bzw. ihre Authentizität geprüft werden, was Kenntnisse über den Kontext, die Überlieferungsgenese und den Archivierungsprozess bedinge. Schließlich befähige dieses Verständnis der Entstehungszusammenhänge, das Archivgut mithilfe von Kontext- und Metadaten einzuordnen. Dass alle Historikerinnen und Historiker mit dem Thema in Berührung kommen und sich zu digitalen Geschichtsforschenden entwickeln werden, prognostizierte Andreas Fickers, der das Thema der Veranstaltung aus Sicht der Geschichtswissenschaft reflektierte. Allerdings seien Universitäten konservative Einrichtungen, sodass der Gap zwischen den vorhandenen Quellen und deren Aneignung größer werde. Auch wenn die Grundfragen fortbestünden, sei eine digitale Datenkritik und somit ein «Update der klassischen Hermeneutik» erforderlich. Mannigfaltige methodologische Herausforderungen würden zu bewältigen sein, etwa Fragen zum Umgang mit Massendaten, gesetzlichen Einschränkungen oder der Nachhaltigkeit von Daten. Dies erfordere neue Methoden wie z.B. Analysen von Algorithmen oder neuen Formen des Lesens. Zudem sei eine veränderte politische Ökonomie zu konstatieren, bei der es eine Macht- und Kompetenzverlagerung von der Institution zu den Nutzenden gebe, da diese auf ihren Laptops eigene Archive unterhielten.
Die bekannte Welt der Papierakte, die die Überlieferungssituation im Zeitraum von ca. 1500 bis 2000 prägte, wird durch die Überlieferung digitaler Informationsobjekte aus zahlreichen komplexen IT-Systemen abgelöst. Digitale Informationen liegen nicht mehr aktenmäßig, sondern nur noch als Einzelinformationen in verschiedenen IT-Systemen verteilt vor. Daher ist nach BASTIAN GILLNER (Duisburg) für die frühe digitale Überlieferungsschicht von einer «durchlöcherten» Quellenbasis auszugehen. Durch die Steuerung der digitalen Transformation durch das E-Government-Gesetz zeichneten sich jedoch auch positive Entwicklungen ab, in der die strukturierte Verwaltungsorganisation auch im digitalen Bereich ein Comeback erlebe, sodass zu hoffen sei, dass sich die digitalen dark ages vielleicht auf zwei bis drei Jahrzehnte begrenzen ließen. Nach MALTE THIEßEN (Münster) müssen die digitale Überlieferung von Verwaltungsquellen und die Verwaltungsgeschichte neu gedacht werden. Impulse zur Überlieferungsbildung sollten von allen Zeithistorikerinnen und -historikern ausgehen und zwischen Verwaltung, Archiv- und Geschichtswissenschaft müsse ein Trialog stattfinden. Als Probleme und Potentiale der Digitalität beschrieb er die digitale Unsichtbarkeit von Verwaltungshandeln durch das Überschreiben älterer Versionen. Webseiten und Social Media sollten als «Visitenkarten» der Verwaltung übernommen werden, weil sie deren Verdichtung, Vertiefung und den Wandel von Selbstbildern dokumentieren. Dabei sollten die Funktionalitäten der Webseiten ähnlich wie bei der Wayback Machine als ergiebige Quelle bewahrt bleiben. Wünschenswert sei es, E-Mails und Messenger-Dienste als Potentiale neuer Schriftlichkeit zu überliefern.
Zu den Spezifika elektronischer Unterlagen benannte CHRISTINE FRIEDERICH (Dresden) drei zentrale Aspekte aus dem Bereich der Überlieferungsbildung, die für Archive und die Geschichtswissenschaft von Bedeutung seien: erstens die Variabilität durch die Flüchtigkeit der technischen Entwicklung, bei der Archivare stärker in digitale Objekte eingreifen und Entscheidungen treffen müssen, obwohl zukünftige Entwicklungen unbekannt sind. Zweitens das verteilte Vorliegen der Daten, die das Provenienz- und Sprengelprinzip in Frage stellen, und drittens die Menge, bei der die Reduktion und die Schaffung eines Destillats für die Geschichtswissenschaft ein wichtiger Service der Archive darstellt. Dabei sei entscheidend zu wissen, was die Wissenschaft brauche.
MARTIN SCHMITT (Potsdam / Darmstadt) referierte über Softwarearchivierung und erläuterte den Erkenntnisgewinn, um Machtprozesse, Arbeitsweisen oder internationale Dimensionen zu dokumentieren. Vor diesem Hintergrund sei die Programmiersprache als transnationale Sprache zu verstehen, die einen wichtigen Beitrag zur Globalgeschichte der Wissensproduktion leiste. Emulationen berücksichtigen Archive aufgrund des Erhaltungsmanagements über Migrationen bislang jedoch weniger.
In der zweiten Sektion erfolgte eine Bestandsaufnahme des bereits aus den Verwaltungen übernommenen elektronischen Archivguts und es wurde nach Methoden der quellenkritischen Einordnung und Auswertung gefragt. Verschiedene Bereiche, die bei schwach strukturierten Daten in Form von Office-, Bild- und personenbezogenen Dateien mitgedacht werden müssen, fächerten KAI NAUMANN (Stuttgart) und KATRIN MOELLER (Halle) in ihrem gemeinsamen Vortrag auf. Bei diesem Phänomen der 2000er Jahre wird die Papier- durch die Festplattenablage ersetzt, deren Datenstrukturierung von schwach bis stringent reicht. Im Unterschied zu Papierfotos zeichnen sich Digitalfotos durch automatisch mitgeführte Metadaten aus, besitzen jedoch sonst geringe Authentizität. Eine Quellenkritik sei daher dringend erforderlich. Zukünftig werden Auswertungsumgebungen wie Entitäts-, Inhalts- und Kontexterkennung die Provenienzzuordnung und Quellenkritik vereinfachen und distant reading für Dateisammlungen und tendenziell größer werdende Bestelleinheiten immer wichtiger. Die Speicherform bestimmt die Möglichkeiten der Nachnutzung von Dateien, sodass wenn immer möglich maschinell auswertbare Daten übernommen werden sollten. Erstrebenswert sei, gemeinsame Identifikationskriterien und Prinzipien der Kategorienbildung in aggregierten Daten zu nutzen und zu entwickeln. Bei personenbezogenen Daten müssten rechtliche und ethische Aspekte berücksichtigt werden.
E-Mails als digitale Quellen, bei denen Amtliches und Privates verschwimmen, waren Thema des Vortrags von MARIA BENAUER (Wien) und ESTHER HOWELL (München). Einerseits handle es sich um Nachrichten, die eine funktionale Kontinuität in behördlichen Schreiben suggerieren, bei der die textuelle Information und der Geschäftsgang im Fokus stehen. Andererseits fungiere die E-Mail als Account, als persönliche Sammlung von Korrespondenzen, in der kontextuelle Informationen vorliegen. E-Mails können nach Benauer demnach gewissermaßen als «quellenkundliches Chamäleon» betrachtet werden. Eine digitale Quellenkunde würde sowohl einen Mehrwert für die archivische Bewertung als auch für deren Auswertung darstellen. Esther Howell konstatierte, dass aufgrund der Masse der E-Mails die Überlieferungsbildung erschwert und die Erschließung eher flach sei. Die Bereitstellung sei aufgrund der Datenschutzproblematik schwierig und Suchfunktionalitäten seien ungenügend, da bereits zu Beginn der Recherche klar definiert sein müsse, wonach gesucht werde. Sie stellte ePADD als Open-Source-Software für die Archivierung und Zugänglichmachung von E-Mails als historische Quellen vor, die 2010 durch die Universität Stanford u.a. als All-In-One-Lösung zur Übernahme, Bewertung, Erschließung und Zugänglichmachung von E-Mailsammlungen entwickelt wurde. Über ePADD könnten ganze Berufsleben und Netzwerke abgebildet werden. In Deutschland ist ein ähnliches Tool bislang nicht verfügbar, wobei Fragen der Langzeitsicherung einer solchen Softwarelösung geklärt werden müssten und gegebenenfalls europäische Kooperationen weiterführend sein könnten.
Für den Bereich digitale Medien, Webseiten und Social Media spielen nicht nur rechtliche Fragen, sondern auch archivische Anforderungen eine zentrale Rolle. Die Dynamik dieser Quellen verwandelt sich bei der Übernahme in etwas Statisches, auch wenn versucht wird, Funktionalitäten zu erhalten. PASCAL FÖHR (Solothurn) fragte, was überhaupt bei abhängigen Inhalten, dynamischen Darstellungen oder responsive design gesichert werden soll und was aus rechtlicher Perspektive übernommen werden darf. Archivarinnen und Archivare müssten Lösungen finden und dokumentieren, ob Metainformationen zur Erstellung oder Aktualisierung einer Webseite existieren, wie Verlinkungen anderer Zeitschichten aufzulösen oder die Reihenfolge eines Twitterfeeds festzulegen seien. Dabei könnten nur Zeitschnitte exemplarisch und ohne Links übernommen werden. Im Gegensatz zu den statischen Webseiten der 1990er Jahre handelt es sich heute um hoch komplexe dynamische Gebilde: Je vielschichtiger, desto komplizierter ihre Archivierung. Dabei gibt es nach MICHAEL JERUSALEM (Münster) keinen einheitlichen Lösungsweg, sondern nur Einzellösungen, da jede Webseite neu beurteilt werden müsse. Über die Festlegung signifikanter Eigenschaften könnten nur Surrogate überliefert werden, bei denen zu klären sei, wie diese einzuordnen sind.
Die dritte Sektion war als «Workshop im Workshop» ausgerichtet, in dem digitale Systeme als Basis für Archivgut und historische Quellen präsentiert wurden. SIGRID SCHIEBER (Wiesbaden) stellte die DOMEA-basierte E-Akte HeDok der hessischen Landesverwaltung vor und beleuchtete diese unter drei Aspekten: die E-Akte und ihre Metadaten im DMS, die E-Akte in ausgesonderter Form (Dokumentwandlung) und die Herausforderungen für die Quellenkunde, u.a. in Bezug auf DMS-Datenverluste. Schließlich bot der Vortrag von FRANZISKA KLEIN (Duisburg) praktische Einblicke in die Übernahme von Fachverfahrensdaten aus BASIS-Web (Verwaltung des Justizvollzugs; XML) und eKopa (Konjunkturpaket II; PDF und SIARD). Für die Daten und einzukalkulierende Informationsverluste sei eine umfassende Quellenkritik notwendig, da Archive definieren, was übernommen wird, nicht jedes Format erhalten werden könne und die von Archiven konstruierten Daten kaum noch einen Evidenzwert erkennen ließen.
Die Abschlussdiskussion verdeutlichte die Notwendigkeit einer engeren Zusammenarbeit zwischen Archiv- und Geschichtswissenschaft, um die Herausforderungen der digitalen Transformation als Chancen anzunehmen. Neben der dauerhaften Erhaltung elektronischer Unterlagen muss gewährleistet werden, dass diese Quellen zukünftig kompetent eingeordnet und ausgewertet werden können. Der fachliche Austausch soll im Rahmen des 27. Archivwissenschaftlichen Kolloquiums der Archivschule Marburg zum Rahmenthema «Archivists meet Historians – Transferring source criticism to the digital age» und des 54. Deutschen Historikertags in Leipzig zum Thema «Fragile Fakten» in der Sektion «Das Ende des Originals?» fortgesetzt und die Erarbeitung einer methodenbasierten «Quellenkunde für genuin elektronisches Archivgut» gefördert werden.
Tagungsprogramm
Frank M. Bischoff (Landesarchiv Nordrhein-Westfalen), Andreas Fickers (Universität Luxemburg): Begrüßung
Sektion I – Einführendes und Grundlegendes
Moderation: Christian Keitel (Landesarchiv Baden-Württemberg)
Bettina Joergens (Landesarchiv Nordrhein-Westfalen), Andreas Fickers (Universität Luxemburg): born digitals und die historische Wissenschaft – Annäherungen an eine Quellenkunde für genuin elektronisches Archivmaterial von zwei Seiten
Bastian Gillner (Landesarchiv Nordrhein-Westfalen), Malte Thießen (LWL-Institut für Regionalgeschichte): Digitalisierung der Verwaltung und Digitalisierung aller künftigen Quellen
Christine Friederich (Sächsisches Staatsarchiv), Martin Schmitt (Leibniz-Zentrum für Zeithistorische Forschung Potsdam und TU Darmstadt): Spezifika elektronischer Unterlagen
Sektion II – Datentypen und -formate als Archivgut und historische Quellen
Moderation: Martin Schlemmer (Landesarchiv Nordrhein-Westfalen)
Kai Naumann (Landesarchiv Baden-Württemberg), Katrin Moeller (Martin-Luther-Universität Halle-Wittenberg): Digitale Quellen: Officedateien, Bilddateien, Personenbezogene Dateien
Esther Howell (Institut für Zeitgeschichte München), Maria Benauer (Universität Wien): Digitale Quellen: Emails
Michael Jerusalem (Stadtarchiv Münster), Pascal Föhr (Staatsarchiv Solothurn): Digitale Quellen: Websites und Social Media
Sektion III – «Workshop im Workshop»: Digitale Systeme als Basis für Archivgut und historische Quellen
Moderation: Christian Keitel (Landesarchiv Baden-Württemberg)
Sigrid Schieber (Landesarchiv Hessen): Digitale Quellen: Elektronische Akten
Franziska Klein (Landesarchiv Nordrhein-Westfalen): Digitale Quellen: Fachverfahren
Abschlussdiskussion
Moderation: Frank M. Bischoff (Landesarchiv Nordrhein-Westfalen)
Kommentar: Tim Geiger (Institut für Zeitgeschichte Berlin)