in: Kunstchronik, 8/1996, S. 370-375

Vom Nutzen und Nachteil des Computers für die Kunstgeschichte

Kontinuität und Diskontinuität im Umgang mit neuen Medien

Das große Verdienst des Aufsatzes von ---Hubertus Kohle (Heft Februar ‘96) ist es, endlich einmal einen Überblick über das weite Feld elektronischer Datenverarbeitung im Bereich Kunstgeschichte gegeben zu haben. Während außerhalb des Faches überall von „neuen Medien" die Rede ist und sich eine vielerorts schon etablierte Medienwissenschaft anschickt, die (von ihr) für ausgereizt befundenen Disziplinen zu vereinnahmen, ist es dringend erforderlich, einmal auf die Investitionen der Kunstgeschichte in diesem Bereich hinzuweisen. Kohles fühlbar engagierte und bisweilen auch kritische Darstellung vermag allerdings nicht darüber hinwegzutäuschen, daß die Lage disparat ist. Während die Erfassung bibliographischer Daten (die unstrittigste und unspektakulärste aller Anwendungen) zügig und halbwegs einheitlich voranschreitet, sind die Bereiche Volltext- und Bilddatenbank hauptsächlich durch Einzelunternehmungen dominiert, an denen die deutschsprachige Kunstgeschichte nur mäßigen Anteil hat.

Was in Kohles Bericht leider fehlt, ist eine kurze, aber grundsätzliche Darlegung dessen, was die EDV in der Kunstgeschichte leisten kann und in Zukunft leisten sollte. Erst durch eine solche Perspektive der technischen Möglichkeiten und der mit ihnen verbundenen institutionellen Notwendigkeiten wird es dem Leser möglich, die aufgeführten Aktivitäten in vollem Umfang zu beurteilen und seine eigenen Interessen auf diesem Gebiet zu bestimmen. Die folgenden Ausführungen versuchen, solche Anhaltspunkte zu geben, indem sie bei zwei Ängsten ansetzen: dem Erschrecken vor der Radikalität der Brüche, die Medientheoretiker prophezeien und der Sorge um den Entzug des Forschungsgegenstandes, sei es durch Kommerzialisierung oder durch eine informatische Zweiklassengesellschaft. Der Text versteht sich unvorgreiflich und mag unvollständig sein. Seinen Zweck hat er jedoch schon erfüllt, wenn ein Ideenaustausch darüber zustande kommt, wie sich die spezifischen Anforderungen der Kunstgeschichte an heutige Informationstechnologien formulieren lassen.

Kohle verweist auf einen „epistemologischen Bruch" (S.56), den viele Beobachter durch EDV befürchten. In der Tat macht die Digitalisierung von Wissen dieses ortlos. Bild-liche und sprachliche Information werden von ihrer Materialität befreit und somit – zumindest virtuell – überall und jederzeit verfügbar. Theorien über die daraus resultierenden Veränderungen (die wohlgemerkt noch immer im klassischen Buch artikuliert werden), vernachlässigen in der Regel jedoch zwei Dinge: Die Institutionen, in denen Wissen kursiert oder bewahrt wird und die Beharrungskraft der Diskursregeln, nach denen in diesen Institutionen Wissen verarbeitet wird.

Anders als der vermutete epistemologische Bruch, der, angesichts des Umfang der Versuche digitaler Wissensverwaltung, bislang wohl nur auf dem Papier existiert, sind narratologische Veränderungen schon sehr deutlich zu beobachten. Mit dem Siegeszug des Computers als Schreibgerät hat sich eine akkumulierende Textproduktion etabliert: Zwang die Schreibmaschine aus gerätespezifischen Gründen noch zu intensiver gedanklicher Vorausschau dessen, was sich materiell niederschlagen sollte, hält der Computer nun den Text unendlich in der Schwebe, der dadurch immer weiter ergänzt, umgeschrieben und kommentiert werden kann -– womit auf technischer Ebene das markiert ist, was Kulturkritiker wie George Steiner als „Inflation in den Geisteswissenschaften" beschrieben haben („Von realer Gegenwart", München 1990, S. 68ff). Diese Entwicklung ist vor allem an dem explosionsartigen Anstieg immer umfangreicherer wissenschaftlicher Publikationen abzulesen. Dissertationen mit Anmerkungsteilen von 200-300 Seiten und Literaturverzeichnissen von mehr als 100 Seiten sind keine Seltenheit mehr, sondern längst schon Alltag. Diesem Aufquellen der Referenzen, das die lineare Stuktur eines gedruckten Textes zunehmend zersetzt, wollen die Panegyriker des Informationszeitalters durch eine nicht mehr am Buch orien-tierte Schreibweise aus Texten und Verknüpfungen (Hypertext) entgegentreten (z.B. Norbert Bolz: „Am Ende der Gutenberg-Galaxis", München 1993, S. 183-233).

Diesen Plänen einer völligen Neubestimmung stehen jedoch die bereits erwähnten Bezugsgrößen Institution und Diskursregel entgegen, auf die es Rücksicht zu nehmen gilt. Die Frage der Archivierung und Distribution von Wissen ist keineswegs so universalisierbar, wie es oft dargestellt wird. Der Fahrplan der Bundesbahn folgt auch dann noch anderen Regeln als eine wissenschaftliche Publikation, wenn beide in gleicher Form als Datensatz vorliegen und an beiden die gleichen Textoperationen durchgeführt werden können (suchen, drucken, kopieren etc.). Ebensowenig wird sich die Zukunft monomedial verhalten. Das Buch wird nicht nur neben dem Bildschirm bestehen bleiben, sondern die EDV muß – gerade jetzt zu Beginn ihrer geisteswissenschaft-lichen Karriere – darauf achten, zu den Regeln gedruckter Information in diesem Bereich kompatibel zu werden.

Zu den Hauptaufgaben dieser Kompatibilität zählt z.B. die tradierte Form des wissenschaftlichen Zitats. Die Wiederauffindbarkeit einer entlehnten Stelle, die die Aufrichtigkeit und Transparenz wissenschaftlicher Tätigkeit garantiert, ist, da man nach Seitenzahlen zitiert, aufs engste mit dem Medium des Buches verknüpft. Das von Kohle (S.56) vorgestellte „Gutenberg-Project" und diverse andere dieser Art erlauben keine solche Zitationsweise, da sie ausschließlich Fließtext bieten und meist nicht einmal die Aus-gaben nennen, denen ihre Texte folgen. Damit sind sie de facto wissenschaftlich unbrauchbar, es sei denn der Benutzer sucht die für ihn relevanten Textpassagen, bestellt danach das entsprechende Buch in der Bibliothek, sucht die Stelle erneut und zitiert dann die Buchausgabe. Diese mangelnde Kompatibilität hinsichtlich wissenschaft-licher Zitationsverfahren gilt für fast alle im Internet (sprich: World Wide Web) ange--botenen Texte.

Andere (hauptsächlich literaturwissenschaftliche) Projekte bieten partiell brauchbare, in größerem Maßstab jedoch ebensowenig praktikable Lösungen. Diverse Werk-ausgaben folgen z.B. dem Verfahren diplomatischer Textkritik: links eine Abbildung der originalen Manuskriptseite, rechts der kollationierte Text. Kaum eines der bekannten Projekte benutzt dabei jedoch auf dem Markt verfügbare standardapplikationen. Die Benutzer solcher Ausgaben auf CD-ROM kaufen also nie die puren Daten, sondern gleichzeitig immer auch eine spezielle Software, die diese (und nur diese) Daten erst benutzbar macht. Dies schlägt sich in den meist drastischen Anschaffungskosten nieder, ganz abgesehen einmal von der Zukunftssicherheit solcher Individuallösungen, deren Fortbestehen und Weiterentwicklung nicht durch internationale Marktinteressen garantiert ist.

Eine dritte Variante stellt die vor einigen Monaten erschienene, preiswerte Reihe „Klassiker auf CD-ROM" des Reclam-Verlages vor. Zwar wird der Text löblicherweise in zitierfähiger Form für den Bildschirm aufbereitet, die Programmumgebung ist jedoch eine (von der Arbeitsgeschwindigkeit nur mäßig gelungene) Entwicklung speziell für diese Reihe und somit zu keinem standard kompatibel. Zudem ist auch der Reclam-Verlag, wie so viele andere, dem Schlagwort „Multimedia" aufgesessen: Der Benutzer kann sich das gesamte Buch vorlesen lassen. Eine von professionellen Lesern im geisteswissenschaftlichen Alltag wohl nur zu belächelnde Funktion, die z.B. bei Goethes „Werther" 327 Megabyte verschlingt, wo der zitierfähige Text schon mit einem tausendstel (!) der Datenmenge ausgekommen wäre.

Selbstverständlich (und glücklicherweise) ist die Weiterverwertung von Informationen nicht die einzige Art, ein Buch zu lesen. Es ist aber eine in der akademischen Praxis und bei bestimmten Werken übliche und inhaltlich berechtigte Praxis, und nur in Ihrem Bereich soll und kann ein Computer wesentliche Vereinfachungen bescheren.

Um kompatibel mit bestehenden wissenschaftlichen Ansprüchen und bisherigen Wissensspeichern (Bibliotheken) zu sein, muß eine Volltextdatenbank folglich nicht nur den bloßen Text enthalten, sondern das Abbild einer gedruckten Publikation sein: die gleiche typographische Gestaltung, den unveränderten Seitenumbruch und natürlich alle Abbildungen vorweisen. Ergänzend muß eine intelligente Volltextsuche (am besten auch indiziert und trunkiert) und ein konfigurierbarer Schutz der Daten möglich sein. Diese Daten selbst müssen in einem standardisierten Format (z.B. der lange etablierten Seitenbeschreibungssprache „Postscript") vorliegen, das auf allen gängigen Computersystemen lesbar und druckbar ist. Informationsdesigner mögen hier die Nase rümpfen, da somit anscheinend die Suche nach einer dem Medium originären und adäquaten Darstellungsform aufgegeben wird. Dies gilt jedoch nur für einen einzelnen Bereich der möglichen Anwendungen, nämlich die Geisteswissenschaften. Nur die oben genannte Form des „elektronischen Buches", das im neuen Medium etwas Bekanntes abbildet und somit die Regeln des institutionalisierten Diskurses befolgt, ist in diesem auch benutzbar, und nur als Ergänzung zum hergebrachten Buch wird es Erfolg haben können. Weder werden, um es mit Umberto Eco auszudrücken, die „Apokalyptiker" recht behalten, die den Untergang des Buches (und damit oft genug des Abendlandes) prophezeien, noch die „Integrierten", die das Zeitalter des weltweiten, papier-losen Informa--tions-flusses euphorisch zu empfangen sich anstellen.

Vielmehr gilt es, angesichts geschrumpfter öffentlicher Etats und Forschungsgelder, sich nach pragmatischen und finanziellen Gesichtspunkten jeweilig für ein Medium zu entscheiden. Wenn alle Neuerscheinungen zugleich in gedruckter und elektronischer Form erscheinen (was zwar technisch kein Problem ist, m.W. aber bislang nur ein einziger Verlag in Deutschland anbietet), ist diese Wahl möglich. Universitätsbibliotheken, deren Aufgabe die Archivierung und Pflege von Wissen ist, werden oft vielleicht das preiswertere, langlebigere, für mehrere Benutzer gleichzeitig verfügbare elektronische Buch vorziehen, das zudem noch über Netzwerke von anderen Orten aus einsehbar ist. Insbesondere Zeitschriften, Reihen, Dissertationen oder Pflichtexemplare sind in dieser Form ökonomischer zu verwalten. Institutsbibliotheken dagegen werden vielleicht, zumindest für ihre Forschungsschwerpunkte oder Sammlungsge-biete, gedruckte Versionen vorziehen. Studenten stehen Publikationen in elektronischer Form zur Verfügung, die in gedruckter Form für sie unerschwinglich wären.

Die sukzessive Erfassung vorhandene Bestände ist selbstverständlich ein vordringliches Desiderat, wobei (auch dies ist technisch kein Problem mehr) das Endprodukt mit der gleichen Software wie neuerscheinende elektronische Bücher zu verwalten sein sollte. Auch hier liegt im Ergebnis ein seitenidentisches Abbild des Originals vor, das gleichwohl Volltextsuche ermöglicht. Dabei wäre es – wie allgemein – dringend nötig, daß einzelne Institutionen koordiniert selbst handeln und nicht auf Imagekampagnen der Wirtschaft (sh. Digitalisierung der Luther-Bibliothek durch IBM) warten. Die Mittel, die erforderlich sind, einen Bestand erfassen zu lassen, dürften die, die zur Erhaltung desselben nötig sind, wohl kaum übersteigen.

Eine Schlüsselrolle bei der Etablierung neuer Medien dürfte, wie Kohle andeutet (S.57), den kaum mehr finanzierbaren Dissertationen zukommen. Nicht nur, daß Doktoranden oft mehrere zehntausend Mark aufwenden und z.T. Jahre auf die Publikation ihrer Forschungsergebnisse warten müssen, die doch für sie das Kapital beruflichen Fortschritts ist, auch der Disziplin selbst bleiben wichtige Informationen vorenthalten. Ein elektronisches Buch könnte hier nicht nur wesentlich schneller und preiswerter verfügbar sein, es wäre auch unbegrenzt reproduzierbar und nicht schon nach wenigen hundert Exemplaren vergriffen. Dazu müssen allerdings juristische und technische Bedingungen geschaffen werden, die bei der Anerkennung durch die Prüfungsämter beginnen und frühestens bei einem Instituts-Computer enden. Dieses Veränderungen beinhalten m.E. schon genügend utopisches Potential.

Die Frage nach Bilddatenbanken gestaltet sich wesentlich komplexer. Während bei Texten gerade die Übertragung tradierter Formen das neue Medium erst praxistauglich macht, ist es bei Bildern gerade diese Übertragung, die sich einer effizienten Nutzung bislang in den Weg stellt. Besondere Aufwerksamkeit muß dabei nicht nur wissenschaftlichen, sondern auch technischen, logistischen, juristischen und ökonomischen Problemen gewidmet werden, die so dicht miteinander verwoben sind, daß sie nicht getrennt voneinander verhandelt werden dürfen.

Das Zentrum des Dilemmas fast aller Bilddatenbanken liegt nicht, wie es aus Kohles Aufsatz (S.57f.) herausklingt, allein auf technischem Gebiet, sondern weitgehend auf konzeptionellem. Die Anlage der meisten Bilddatenbanken besteht aus einer auf den Bildschirm transportierten, illustrierten Ausgabe von „Iconclass". Es handelt sich im Grunde also nur um eine Art elektronisches Buch mit Hypertext, d.h. mit Verweisen, die durch Tastendruck aktiviert werden. (Daß bei ikonographischen Indizes nichts auffindbar ist, was nicht ein Betrachter zuvor in Worte faßte, daß der Benutzer durch eine methodische Brille blicken muß und daß bestimmte Gattungen privilegiert werden, ist ein grundsätzliches Problem, das einer gesonderten Behandlung wert wäre. Wie wären z.B. die Inhalte einer Bilddatenbank auf wahrnehmungspsychologischer Basis verknüpft?)

Einmal gefunden, kann man das Objekt anschließend auf dem Bildschirm betrachten. Möchte man es jedoch im Rahmen seiner eigenen Forschung publizieren, gerät man in die bekannte Schleife: Das Bild muß bei einer Institution bestellt werden, dort wird das Negativ herausgesucht und ein Abzug gemacht, der Abzug wird an den Kunden gesandt, dieser schickt ihn seinem Verlag, der Verlag digitalisiert ihn wieder, korrigiert auf dem Bildschirm Farbe, Helligkeit, Schärfe usw., aus diesen Daten wird ein Film belichtet, letztlich das Buch gedruckt und – die Daten werden wieder gelöscht. Jeder dieser Schritte findet bei jedem Bild statt und verschlingt dementsprechend Geld und Zeit.

Dieser Kritik müssen sich fast alle bisher vorhandenen kunsthistorischen Bilddatenbanken (ob auf CD-ROM oder online) unterziehen: Sie führen den Benutzer zwar schnell und komfortabel, aber letztendlich doch nur zum gleichen Punkt wie alle bisherigen Systeme. Zudem sind die meisten Unternehmungen dieser Art so ambitioniert bezüglich der Menge der zu erfassenden Daten, daß ein nur halbwegs brauchbares Bildarchiv in der Tat zum „Jahr-hundert-projekt" (Kohle, S.58) werden muß.

Die Nutzung zur Veröffentlichung im Rahmen der eigenen wissenschaftlichen Forschung sollte daher deutlich mehr in den Fokus des Interesses rücken. Die Bedeutung ikonographischer Erfassung soll dabei keineswegs geleugnet werden, aber ist es nicht vordringlicher, erst einmal dem Benutzer eine größtmögliche Menge an Material zugänglich zu machen? Und zugänglich machen bedeutet: in die Publikation der eigenen Forschungsergebnisse integrierbar machen. Jedes Objekt sollte daher – und dies ist im nichtkommerziellen Bereich bislang leider unüblich – in mindestens drei Bildqualitäten erfaßt werden und abrufbar sein. Erstens in einer niedrigen Auflösung, die durch ihre geringe Datenmenge dazu geeignet ist, über Netzwerke abgefragt zu werden.

Bilder dieser Qualität dienen nur dazu, auf dem Bildschirm betrachtet zu werden. Zweitens in einer mittleren Auflösung, die zur Detailbetrachtung und zum Abdruck in Dissertationen, elektronischen Büchern u.ä. geeignet ist. Diese Qualität sollte möglichst bei der entsprechenden Verwertungsgesellschaft (zumeist VG Bild-Kunst) unter das Zitationsrecht fallen und somit noch kostenfrei sein. Drittens in einer hohen, sorgfältig nachbearbeiteten Auflösung, die zum Abruck in hochwertigen Publikationen (Kataloge etc.) geeignet ist. Eventuell anfallende Zahlungen können bei der Übertragung der Bilddaten automatisch gebucht werden, Rechtsansprüche an bestimmten Werken könnten ein für allemal durch den Anbieter einer solchen Bilddatenbank vorab geklärt werden. Die Beschaffung einer Abbildung bestünde somit aus einem Schritt an den Computer und die anfallenden Kosten einer Publikation wären drastisch gesenkt.

Trotzdem hat keine dem Autor bekannte kunsthistorische Bilddatenbank Deutschlands diese Unterteilung bisher in Betracht gezogen; entweder ist die Auflösung so niedrig, daß sie nur für den Bildschirm geeignet ist und nicht gedruckt werden kann, oder sie ist so hoch, daß sie zwar gedruckt werden kann, aber wegen ihrer Datenmenge nicht mehr über ein Netzwerk zu betrachten ist. Kohles Zweifel hinsichtlich der Verwaltung der anfallenden Datenmengen bei hoher Auflösung und der Qualitätssicherung digitalisierter Bilder können dabei übrigens zerstreut werden: Die Statistik lehrt, daß sich im Rhythmus von zwei Jahren die Speicherkapazitäten verdoppeln und zugleich die Preise halbieren, was faktisch einer Leistungsvervierfachung entspricht. Und Erfahrungen (z.B. bei der Landesbildstelle Baden-Württemberg) haben gezeigt, daß sich die Bildqualität älterer Glasplatten bei der Digitalisierung erheblich verbessern läßt. Bei neueren Dias ist ohnehin zu bedenken, daß diese meist aus Büchern aufgenommen wurden, deren Abbildungen oft genug schon einmal (nämlich für den Druck) gescannt wurden.

Wie bei den elektronischen Büchern ist auch hier die Kompatibilität, die der Garant wissenschaftlichen Austauschs ist, die dringlichste Notwendigkeit. Um sie zu erreichen bedarf es allerdings des Gespräches. Kunsthistoriker, Informatiker und Urheberrechtsexperten müssen Ihre spezifischen Kompetenzen vereinen, statt sie in Einzelgängen zu erproben. Das Milliarden-Unternehmen Microsoft mit seinen umfassenden Bildrechten könnte sich sonst als größtes Gespenst behaupten – und zwar einfach dadurch, daß es alles richtig macht.