in: AKMB news, 4/1998, S. 3-7

Bilder - Bücher. Digitalisierte und digitale Kunstgeschichte

Einige Anmerkungen zu Jürgen Zimmer und Hubertus Kohle

Die Diskussion zwischen Jürgen Zimmer und Hubertus Kohle ist symptomatisch für die Situation der Kunstgeschichte als einer historisch großbürgerlichen und (in Zeiten knapper Kassen) kostspieligen akademischen Disziplin. Auf der einen Seite die "apokalyptische" Verfallstheorie, auf der anderen Seite die "integrierte" Verbesserungstheorie. Differenzierter als mit Umberto Eco könnte man es auch mit Karl Mannheim sagen: Die eine Position ist "seinskonguent" und "konservativ", sie sucht die zunehmende Ausdifferenzierung gegenwärtig vorrangiger institutioneller Strukturen als 'realistischerweise' bestmögliche Formation. Die andere Seite ist "seinstranszendent" und "liberal", sie glaubt zwar an eine bessere Zukunft, will aber keine vorschnellen, radikalen Realisierungsversuche ermutigen.1 Die "Radikalen" und "Anarchisten", so Mannheims weitere Möglichkeiten, scheinen sich momentan eher in den Medienwissenschaften zu versammeln.2

Da Friedrich Kittler zuletzt so schön gezeigt hat, wie die Universität - vom mittelalterlichen Skriptorium bis zum Computer - von ihrer Hardware abhängig ist,3 möchte ich mich auf einen Punkt beschränken, den Hubertus Kohle zu Beginn seines Textes erwähnt: "Die Angst des Praktikanten der neuen Medien vor dem Neuen des neuen Mediums [wird ausgemünzt ...] in 'unangemessenen' Anpassungen ans alte Medium"4. Von dieser Angst gegenüber dem Neuen scheint nämlich auch die liberale Postion geprägt. Sie fragt nicht danach, was aus Kunstgeschichte unter den Bedingungen des Computers wird, sondern danach, wie man Kunstgeschichte jetzt mit dem Computer erledigen kann. Es geht also nicht um digitale, sondern um digitalisierte Kunstgeschichte, und die Medialität der Disziplin ist - leider trotz Heinrich Dilly - nach wie vor ihr blinder Fleck.

Kunsthistoriker (und ich beschränke mich im folgenden auf den universitären Bereich) arbeiten mit Bildern und Texten. Das Bild ist dabei nicht mehr als ein Wissensobjekt, das von Redeüberinkünften als solches konstituiert wird, und der Verlauf der Kunstgeschichte ist bestimmt durch die Fragen, was jeweils Wissensobjekt ist, wer spricht, von welchem Ort aus usw. Das Bild ist also, so man es mit Foucault sagen will, vom Archiv bestimmt als dem "Gesetz dessen, was gesagt werden kann", dem "System, das das Erscheinen der Aussagen als einzelner Aussagen beherrscht".5 Materiell sind die Bilder der Kunstgeschichte fotografische, also technisch produzierte Bilder. Die Fotografie konnte deshalb zur materialen Basis der Kunstgeschichte werden, weil ihr Apparat wie ein Sinnesorgan abzüglich Sinn funktioniert und zugleich perfekter ist als das Auge. Bilder werden als unveränderliches Datenmaterial verfügbar, weil Fotografie nur Daten speichert nicht aber prozessieren kann. Kunstgeschichte funktioniert also auf einer Vertauschung, auf einem Archiv von Stellvertretern. Prinzipiell verwirklicht sie Oliver Wendell Holmes' Diktum, daß man die Dinge verbrennen könnte, nachdem man sie fotografiert hat.6

In einer Rückkopplungsschleife mit diesen Bildern organisiert sich die kunsthistorische Rede als Erzählung, wie Hayden White es eloquent für die Geschichtswissenschaft vorgeführt hat.7 Nach einem poetischer Akt der Vorstrukturierung des Feldes, das der Historiker bearbeiten will, erstellt er ein lexikalisches, grammatisches, syntaktisches und semantisches Protokoll, mit dem das Feld und seine Bestandteile in seiner eigenen Sprache (nicht der der Quellen oder Bilder) beschrieben werden können. Darstellung und Erklärung sind ein poetischer Akt, der den Untersuchungsgegenstand hervorgebracht und eine sprachliche Strategie festgelegt hat. Kunstgeschichte, so könnte man formulieren, ist "Textverarbeitung mit Bildanhang". Textverarbeitung mit Bildanhang bedeutet, daß die Materialisierungen des entlang von Bildern konzeptualisierten Wissens (und umgekehrt die Konzeptualisierung bestimmter Bilder als Wissensträger) Texte sind, für die Bilder als Rückversicherung gelten, als Referenz innerhalb eines Konzepts von Überprüfbarkeit via In-Augenschein-Nehmen.

Kommen wir unter dieser Prämisse noch einmal zum Archiv, das ein Speichermedium mit Adressenstruktur und formatierten Inhalten ist, und zum Computer, der (im Gegensatz zu den kunsthistorischen Leitmedien Foto und Buch) Bilder und Texte nicht nur speichern, sondern auch übertragen und prozessieren kann. Die Frage der "Unangemessenheit" müßte dahingehend gestellt werden, welche der bisherigen Redeweisen und Archivpraxen auf Computern nicht implementierbar (Zimmer), welche auf ihnen wiederholbar (Kohle) oder welche originär neuen auf ihnen möglich sind. Zur Disposition steht, was mit Bildern und Texten geschieht, wenn sie plötzlich Wissensobjekte von Scannern und Algorithmen und nicht mehr von Augen und Lesern sind, also quantisierbare Wahrheiten von Auflösung und Farbtiefe in Flächen oder alphanumerische Strings.

Wenn wir davon ausgehen, daß das Archiv definiert, was ein historisches Artefakt ist und was als zu archivierendes Wissen darüber gelten darf, wenn das Archiv also den archivierbaren Sinn festlegt, dann ist die Frage des Neuen und seiner Valorisierung auch eine Frage nach den Institutionen im weitesten Sinne, in denen sich kunsthistorische Rede abspielt, organisiert, verschaltet und was diese zulassen oder nicht. Damit meine ich z.B. die von Aby Warburg aufgeworfene Frage, ob ein Archiv Wissen von Bildern selbst im Bildformat speichern kann. Was entsteht eigentlich, wenn Bilder nicht mehr von Kunsthistorikern zum Zweck der Textverarbeitung prozessiert werden, sondern von militärischen Bildanalyseprogrammen oder von Algorithmen, die durch Satellitenaugen EG-Ackerflächen kontrollieren? Und daran scheinen mir auch die Alternativen zwischen Bildprozessierung im technischen Sinne (durch Computer) versus Bildprozessierung im hergebrachten Sinne (durch schreibende Kunsthistoriker) aber mit neuen technischen Mitteln zu hängen.

Im einen Fall dürfte die kunsthistorische Praxis sehr wohl beängstigt sein, weil die Ergebnisse nicht in ihren Konzeptualisierungen von Sinn unterzubringen sind (technologische Rede), im anderen Fall dagegen glücklich, weil die bisherige Praxis nicht in Frage gestellt ist, sondern nur schneller, höher, weiter und (entscheidenderweise) demnächst vielleicht billiger funktionieren könnte (historische Rede). Digitale Kunstgeschichte wäre also dadurch beschrieben, daß plötzlich durch Geräte ein Wissen von Bildern entsteht, zu dem die Kunstgeschichte keine Frage formulieren kann, auf die dieses Wissen eine Antwort wäre, ein Wissen, das einfach vom kunsthistorischen Diskurs nicht verarbeitbar ist. Das soll aber kein Grund sein, nicht über mögliche Vereinfachungen kunsthistorischer Praxis nachzudenken. Allerdings darf man sich dann auch nicht scheuen, technisch über die Formatierung und die Materialität kunsthistorischer Wissensproduktion zu sprechen.

Das historisch bevorzugte Darstellungsformat für kunsthistorischen Text ist das Buch und zwar einerseits in der mit ihm privilegierten Form der Erzählung und andererseits in seiner Materialität. Diese Materialität ist recht entscheidend für das, was als kunsthistorisches Wissen archiviert wird, indem nämlich durch Verlage, Druckkostenzuschüsse, Publikationspflichten, Prüfungsvorschriften, Copyrights, Aufbewahrungs- und Anschaffungspflichten organisiert wird, was gewußt werden wird und gefiltert wird, was vergessen sein wird. Und (mir zumindest) hat sich gezeigt, daß ein prächtiger Buchkörper und eine hohe Auflage in der Zunft immer noch als Garant für einen strategisch privilegierten Platz im Archiv gelten. Schon Riegls "Spätrömische Kunstindustrie" war derart prächtig ausgestattet, wie es ein Werk sein muß, das einen völlig minderreputierten Gegenstand ins Zentrum kunsthistorischer Aufmerksamkeit rücken will.8

Wissen braucht also Formatierung mit hohem Aufmerksamkeitswert in bestimmten Institutionen, und genau dies wird unter digitalen Bedingungen plötzlich auffällig. Abgesehen davon, daß selbst hochwertigste online-Publikationen wie "telepolis" immer noch minderreputiert und Verlustgeschäfte sind, hieße Aufmerksamkeitswert unter Computerbedingungen etwas ganz anderes. Hier gälte es beispielsweise, über möglichst lange Zeit in besonders vielen Suchmaschinen mit besonders vielen Treffern präsent zu sein, wofür erst noch Taktiken entwickelt werden müßten, denn die Algorithmen der großen Suchmaschinen sind nicht transparent wie Zitationsindices, sondern Firmengeheimnisse.

Die Ordnung des Archivs selbst verändert sich unter digitalen Bedingungen völlig, denn auf dieser Basis sind Text und Bild gleich. Eine Bilddatei kann man eben auch in einem Texteditor öffnen und eine Textdatei in einem Bildverarbeitungsprogramm und trotz der Unlesbarkeit für Betrachteraugen bleiben es die gleichen Daten und ein Computer kann die gleichen Operationen an ihnen vornehmen. Es gibt also verschiedene Darstellungsformate ein und derselben Daten, die mehr oder minder akzeptabel für Benutzer sind. So will es jedenfalls die einfache Theorie.

Auf Seiten der Software-Wirklichkeit blühen jedoch ungezählte Datenformate, und das, was für Benutzer gleich aussieht, muß auf Dateiebene längst nicht dasselbe sein. Ohne Anspruch, das Dickicht lüften zu wollen, geht es mir nur darum, zu zeigen, daß die von Geisteswissenschaftlern gemeinhin als belanglos und "bloß technisch" klassifizierte Entscheidung über Dateiformate9 erhebliche Auswirkungen auf das Archiv und damit die Bedingungen des Wissen selbst hat. Nicht zufällig bleiben Digitalisierungsprojekte inkompatibel, veraltern im Zeitraffer oder scheitern schon vor Beginn an den Streitigkeiten über Dateiformate. Jenseits dieser Details möchte ich drei grundlegende Typen und ihre Verarbeitung vorstellen, die in etwa den Mannheimschen Ideologietypen entsprechen: Bild (konservativ), SGML (radikal) und PDF (liberal).

1. Bild

Eine Digitalisierung im Bildformat findet derzeit in zahlreichen Projekten (Cornell University, University of Pennssylvania, Vatikanbibliothek, Wittenberg usw.) statt. Laienhaft gesagt schneidet man die Bücher auf, scannt sie Seite für Seite und speichert sie ab. Lesen heißt dann Bildbetrachtung: Der Text ist zum Bild geworden. Bildliche Ähnlichkeitsbeziehungen können natürlich berechnet werden, aber unter dem Gesichtspunkt eines Textretrievals via Computer und nicht via Durchblättern durch lesende Benutzer ist maximales Rauschen erreicht. Das Verfahren ist schnell und (bei Büchern, die nicht wertvoll sind) wenig kostenintensiv. Beharrt man auf dieser Strategie der Verräumlichung des Textes, so wird es in absehbarer Zeit eine Explosion von Bildern geben, die Texte zeigen, von Bilder-Büchern. Wenn die Cornell University auch nur 1000 Bücher gescannt hat (ein Sandkorn am Bücherstrand) und wenn jedes Buch durchschnittlich zweihundert Seiten hat, dann sind das eben 200.000 Bilder und übertrifft damit schon die meisten Bildarchive. Wenn inzwischen Graustufen-Scanner mit einer Geschwindigkeit von 20 und mehr Seiten pro Minute laufen, dann bedeutet das im besten und zugleich schlimmsten Fall 1200 neue Bilder pro Stunde und Scanner.

Viel bedeutsamer als die Datenmenge, die durch Speicherinflation sicherlich abzufangen sein würde, ist aber, daß die Bilder-Bücher verschlagwortet werden müssen wie alle Bücher bisher auch. Die Bibliothek wird zwar von ihrem materiellen Standort entkoppelt, ihre Operationen ändern sich jedoch nicht. D.h. weil der Diskurs seine Wissensverarbeitung nicht umstellt, entsteht auf Computer-Ebene ein Wissen in ikonischen Einheiten. Diese sind dann unter so klassischen Konzepten wie Autor und Werk und Schlagwortnormdatei zu adressieren. Daß also die Bilder-Bücher und damit das Rauschen boomen, ist für die gängige Textverarbeitung und ihre Fortführung via Computer, also die digitalisierte Kunstgeschichte, schon deshalb von Vorteil, weil die Auflösung der Adressierung gleich bleibt und weil die Kontingenzen hergebrachter Informationsbeschaffung erhalten bleiben. Wer keinen Autor weiß, wer nach dem falschen Schlagwort sucht, wer die Bibliotheksadresse nicht kennt oder sonstwie nicht hinkommt, wer selber liest, statt es den Computer tun zu lassen, der hat den Vorteil, meistens nur soviel Information zu haben, wie er hoffentlich noch verarbeiten kann und nur die Information, die nach etablierten Suchanfragen auch Sinn machen könnte oder macht. Eine beruhigende Perspektive also.

2. SGML

Die ISO-Definition 4.282 beschreibt ein SGML-Dokument wiefolgt: "A document that is represented as a sequence of characters, organized physically into an entity structure and logically into an element structure, essentially as described in this International standard. An SGML document consists of data characters, which represent its information content, and markup characters, which represent the structure of the data and other information useful for processing it. In particular, the markup describes at least one document type definition, and an instance of a structure conforming to the definition."

SGML, das seit 1969 unverwüstlich, weil hardware- und softwareunabhängig ist, trennt also Text, Aussagen über Text, Entitäten und Textsorten. Anders als WordProcessing wie Word, TextProcessing wie TeX oder Postscript, anders als DTP wie PagerMaker und anders als sein Derivat HTML ist SGML nicht prozedural, sondern deskriptiv angelegt. SGML definiert also nicht, was bei einem Textereignis passiert (z.B. Fettdruck o.ä.), sondern es definiert was ein Textereignis ist. Textereignisse können in beliebiger Anzahl definiert werden und werden in einer DTD gesammelt, die Dokumenttypen bestimmt, in denen bestimmte Ereignisse zulässig sind oder in deren Universum bestimmte Entitäten vorhanden sind. Wo alle anderen Programme die Druckerpresse nach Hause holen und den Schreibenden auf Formatierung von Text abstellen, trennt SGML zwischen Form und Struktur, zwischen Text-Typ (der Definition dessen, was in einem Text sagbar ist) und Text-Instanz, die durch den Text-Typ Sagbares sagt. Wenn ich Fußnoten nicht in der DTD als Diskurselement definiere, dann kann ich auch keine Texte mit Fußnoten schreiben. (Wobei eine Fußnote kein graphisches Ereignis ist, sondern ein strukturelles, nämlich ein an beliebiger Stelle verankerter String.)

Daher sind unterschiedliche Weiterverarbeitungen desselben Dokuments möglich, verschiedene Sichten auf ein und dasselbe Dokument, es sind unterschiedliche Verarbeitungsweisen für dieselben Dokumentteile möglich, algorithmisierte Auswertung von Texten, automatische Prüfung struktureller Integrität, Speicherung in Datenbankstrukturen usw. Im juristischen Diskurs und bei der Herstellung von Lexika beispielsweise ist SGML äußerst verbreitet, im geisteswissenschaftlichen Alltag dagegen kaum. Das liegt nicht nur daran, daß SGML seinen Benutzern Computerkenntnisse abverlangt und sich gegen jenen metaphorischen Illusionismus von Büros und Schreibmaschinen sträubt, der vielen Geisteswissenschaftlern erst die Legitimation gab, auf einem solchen Gerät zu schreiben, das zwar zu bedienen aber durch die hermetische Oberfläche hindurch (für "dümmste anzunehmende Benutzer", wie es bei Programmierern heißt) gar nicht mehr zu verstehen ist. (Daher sind auch - nebenbei bemerkt - die 'katholischen' Benutzeroberflächen "unheimlich", die 'protestantischen' Befehlszeilen hingegen waren nur unverständlich). Bedeutsam ist aber vielmehr, daß die Adressierung kunsthistorischer Texte sich nicht auf Elemente des Textes bezieht, sondern als willkürliches und nur von der Formatierung abhängiges Raster über eine ebenso willkürliche aber prestigeträchtige Formatierung legt. Jura (wie eins die Scholastik oder noch Wittgenstein) adressiert Sätze, die maximale Auflösung bei Kunstgeschichte ist dagegen die einzelne Seite.

SGML ist also reiner Text und hat im Gegensatz zum Bild eines Textes minimales Rauschen. Und es hat atemberaubende Möglichkeiten der algorithmisierten Verarbeitung, was zur Folge haben könnte, daß plötzlich (wie beim elektronischen Bildvergleich) durch Computer "unlesbares" Wissen entstehen würden, das in der Endlichkeit von Lese(Lebens-)Zeiten nicht hätte produziert werden können und das von der Kunstgeschichte erst einmal nicht sinnvoll verarbeitbar sein könnten. Leider produziert SGML auch jene Art von (vielbeschworenem Hyper-)Text, die nur auf Computerbasis implementierbar ist, nicht mehr aber auf Papier und nur unter wesentlichen Verlusten auf solches zurückführbar. Es ist diskontiniuierlich, trennt, definiert und bezeichnet Text-Elemente, die gerade der (kunst-)historische Diskurs zur Erzählung amalgamieren will. Ein SGML-Text wird umso besser, je strukturierter er ist, je differnzierter er seine Elemente selbst identifiziert und attributiert, eine kunsthistorische Erzählung wird hingegen als umso besser empfunden, je einleuchtender sie ihre Elemente zu einer Erzählung verschmilzt. Ein SGML-Text kann von mehreren Autoren laufend erweitert werden, wobei sein Informationsgehalt steigt und der Ur-Text zugleich bestehenbleibt, was sich Autoren kunsthistorischer Erzählungen verbieten würden. Bei SGML kann Wissen über den Text im Text selbst angelagert werden statt extern in anderen Texten (Karteikarten, Aufsätzen etc.) SGML ist also unbrauchbar für schöne Bücher, die in der institutionalisierten Gemeinde die (mehr oder minder einstimmig) als lesens- und archivierenswert präferierte Erscheinungsform von Text sind. Es ist radikal digital.

3. PDF

Bleibt zuletzt das erst wenige Jahre junge PDF (Portable Document Format), das als Fortführung der Seitenbeschreibungssprache Postscript konzipiert wurde, die seit der Entwicklung von Desktop-Publishing in den 80er Jahren mehr oder minder ausschließlich die Druckvorstufe standardisiert hat. PDF ist ein Container für Bild, Text, Ton, Film usw., dessen Ziel ein trompe l'oeil gedruckter Texte ist. PDF kann auf jedem Computersystem mit jedem Programm erzeugt werden und auf jedem Computer (mit Hilfe eines kostenlosen "Readers") betrachtet werden. Das Ergebnis ist ein Abbild des Textes, so wie er gedruckt aussieht; PDF läßt den Text als Bild erscheinen obwohl er kein Bild ist, sondern Text bleibt. Daher sind auch die üblichen Verfahren trunkierter und indizierter Suche vorhanden, aber keine strukturellen Definitionen von Textelementen. Der Text kann nichts über sich selbst sagen, ähnlich wie das Bild normalerweise nichts über sich sagt, sondern Gegenstand von kunsthistorischem Wahr-Sagen wird.

PDF ist also das Muster von Konzilianz an die Schreibinstitution, weil es seiten- und formatierungsidentische Ausgabemöglichkeiten für Druck, CD-ROM und online-Distribution von Dokumenten bereithält. Es wahrt den Autor, es wahrt die Unversehrtheit des Textes, das Aussehen des Textes, die Seitenzählung usw. Außerdem ist es ein ideales Werkzeug zur Retro-Erfassung, weil es mehrere Layer aus gescanntem Bild und (über OCR) daraus erkanntem Text verarbeiten kann. PDF illusioniert das Buch, so wie die Schreibtischoberfläche das aufgeräumte Büro und die Textverarbeitung die Schreibmaschine. Darunter verborgen sind Daten mit einigem Rauschanteil, deren Codierung und Prozessierung zwar nicht mehr transparent, dafür aber auch für dümmste Benuzer handhabbar ist. PDF ist ausgesprochen liberal.

*

Die ideologische Frage der Dateiformate ist aber gekoppelt an ihre institutionelle Kompatibilität.

Durch das Bildformat entsteht eben nicht nur Rauschen, sondern auch eine Endlosschleife. Daß man erst Bücher produziert, diese dann nach einigen Jahren digitalisiert um zuletzt die Daten wieder wie Bücher zu behandeln, erzeugt einen Arbeitsbeschaffungsmarkt unvorstellbaren Ausmaßes und das auf prinzipiell endlose Zeit. Weiter wie bisher und dabei Papier gegen Bildschirm zu vertauschen, heißt eine Ökonomie zu konservieren, die innerhalb kürzester Zeit zum Scheitern verurteilt sein wird. Daß ausgerechnet konservative Kritiker der Digitalisierung gerne ihre logistische Undurchführbarkeit vorrechnen, liegt daran, daß sie in konservativen Formatierungen denken.

SGML wird, wie alle avantgardistischen Umbruchsversuche, nur von einer kleinen informatischen Elite praktiziert werden können. So schön es in seiner Reinheit ist, so wenig wird es sich auf breiter Basis durchsetzen können. Ökonomisch ist es vor allem mit dem Verlagswesen inkompatibel, da es keine Formatierung, sondern eine Strukturierung und Interpretation von Text fordert, die keinesfalls von Layoutern geleistet werden kann, sondern allenfalls von Lektoren (und auch dies nur zu astronomischen Preisen). Außerdem entfalten sich die Qualitäten von SGML nur in Bildschirmmedien. Die Radikalen versuchen (bei aller Sympathie), die Logik und Beharrungskraft der Institutionen zu überspringen. SGML wäre allenfalls die Chance eines universitären Publikationswesen, das sich von den Verlagen und (gezwungenermaßen) auch von den hergebrachten Wissensspeichern abkoppelt.

PDF dagegen hat Chancen zum standard zu werden, denn es ist das einzige Format, mit dem eine digitalisierte Kunstgeschichte überhaupt ökonomisch möglich ist. Dies würde aber bedeuten, daß sich die Institutionen einigen müssen. Das fängt schon damit an, daß PDF als Nebenprodukt der Druckvorstufe hergestellt werden kann. Ohne Übertreibung könnte jede neuerscheinende Publikation sofort digital vorliegen, wenn sich die Deutsche Bibliothek für PDF entschließen würde und wenn die (von Druckkostenzuschüssen hochbezahlten) Verlage ihre ohnehin anfallenden Daten nicht wegwerfen, sondern konvertieren und dorthin schicken würden. Nichts davon ist bisher geschehen.10 Wenn man sich schon für die liberale Version entscheidet, dann kommt es nicht darauf an, ob einige Kunsthistoriker im Internet surfen oder ob man einige Bilder nun auch auf dem Bildschirm ansehen kann. Das Schreiben aus, für und in das Archiv selbst muß auf konziliante aber konsequente Weise auf umgestellt werden und dazu sind nicht nur aufgeklärte Privatpersonen, sondern vor allem kooperations- und entscheidungswillige Institutionen - Universitäten, Bibliotheken und vor allem Verlage - nötig.

 

1 Karl Mannheim: Ideologie und Utopie. Schriften zur Philosophie und Soziologie 3, Bonn 1929.

2 An dieser Stelle sei allen Teilnehmern des Arbeitskreises Bild/Archiv am Kulturwissenschaftlichen Seminar der Humboldt-Universität Berlin für unvergeßliche Diskussionen gedankt.

3 Friedrich Kittler: "Universitäten im Informationszeitalter", in: Medien - Welten Wirklichkeiten, hrsg. v. Gianni Vattimo und Wolfgang Welsch, München 1998, S. 139-145.

4 Hubertus Kohle: Chiliastische Visionen, in: AKMB-news 1 (1998), S. 30.

5 Michel Foucault: Archäologie des Wissens, Frankfurt a.M. 5. Aufl. 1992, S. 187.

6 Dazu Peter Geimer: Die photographische Entbergung des Grabtuchs von Turin (1898). Zur Interferenz technologischer und wissenschaftlicher Objekte (bislang unveröffentlicht).

7 Hayden White: Metahistory. Die historische Einbildungskraft im 19. Jahrhundert in Europa, Frankfurt a.M. 1991

8 Mein Dank an Achim Preiß für diesen Hinweis.

9 Ausführlicher in Claus Pias: "Die zwei Körper des Textes. Elektronisches Publizieren in den Wissenschaften", in: Universitas, 53. Jg., Nr. 619 (Januar 1998), S. 52-66.

10 Nur ein einziger Verlag in Deutschland bietet - und das schon seit einigen Jahren - alle Bücher auch im PDF-Format zu einem wesentlich günstigeren Preis an als gedruckt: http://www.buchhandel.de/vdg