in: Frankfurter Allgemeine Zeitung, 22.11.2000

Landschaften der Wahrscheinlichkeit

Nichts ist normal: Eine Tagung zur visuellen Herstellung von Selbstverständlichkeit

»Das Bekannte ist eben darum bekannt, weil es nicht erkannt ist«, konstatierte Hegel in der Einleitung seiner »Phänomenologie«. Damit das Naheliegende seiner Vertrautheit entkommt, muß es also fremd werden. Der ethnologische Blick auf die eigene Kultur, der das Exotische des Alltäglichen sichtet, hat sich schon seit längerer Zeit als eine solche Verfremdungstaktik bewährt. Die Tagung »Ganz normale Bilder«, von der ETH Zürich vorletzte Woche auf dem Monte Verità veranstaltet, hat es sich jedoch nicht so einfach gemacht. Der Alltäglichkeit der dort vorgeführten Bilder aus Ozeanographie und Mikroskopie, Ökologie und Arbeitswissenschaft, Tomographie und Geologie, Ökonomie und Elektrotechnik waren für disziplinäre Laien oft deutliche Grenzen gesetzt. Gerade dies half jedoch, jenes performative Paradox zu überwinden, daß man über das Selbstverständliche nicht reden kann und jede Rede nur bestätigt, daß etwas nicht selbstverständlich ist. Nicht um visuelle Selbstverständlichkeiten ging es also, sondern um die »visuelle Herstellung von Selbstverständlichkeiten« (David Gugerli, Zürich). Unter diesem weiten Begriff versammelten sich so verschiedene Dinge wie die Normalverteilungen der Statistik, die Begründung der Evidenz von Meßverfahren oder auch die Etablierung bestimmter bildgebender Verfahren zum Normalfall institutioneller Praxis. Dabei erwies sich historische Detailarbeit allemal als bestes Mittel, das Staunen zu lernen.

Die Wahrscheinlichkeit der Bilder

Jens Lachmund (Berlin) beispielsweise entführte in das semiakademische, naturkundliche Vereinswesen des 19. Jhdts. Dessen kollektive Sammel- und Beobachtungstätigkeit der Flora der Mark Brandenburg mündete in Archive, die nach botanischer Gepflogenheit systematisiert und damit für Laien- wie Politikeraugen unlesbar waren. Erst die Nachkriegszeit, die an diese Tradition anknüpfte (und sich teilungsbedingt auf Berlin beschränkte), brachte die einströmenden Beobachtungen in Kartenform. Aus den wortreichen Beschreibungen ortskundiger Amateure wurden so normalisierte Daten, und aus Listen wurden floristische Verbreitungskarten, die – gerade durch ihre graphische Form – auf die Erfassung selbst zurückwirkten. Im neuen Arrangement der Daten wurden nicht nur urbanophile und urbanophobe Pflanzen unterscheidbar, sondern auch spezifische Standortansprüche ablesbar. Erst die Karte als Datenformat ermöglichte auch die Kompatibilität mit Flächennutzungsplänen: Übereinandergelegt sollte sich darin als »natürlich« erweisen, was an einem bestimmten Ort menschlicher Tätigkeit im Zusammenwirken mit der Natur entsteht. Industrie- und Trümmerflächen erschienen nicht mehr als etwas, das einer (erneut unberührten) Natur Platz machen könnte, sondern im Gegenteil als Garant ausgewählter Pflanzen und Tiere.

Diese Herstellung von Evidenzen bedurfte jedoch zuvor der Löschung aller konkreten Ereignisse, um einen statistischen Raum zu erzeugen. Wo jedes Zusammentreffen von botanischem Laien und »klebrigem Gänsefuß« zuvor noch ein singuläres Ereignis in Raum und Zeit war, schuf die Verbreitungskarte homogene Räume der Wahrscheinlichkeit für mögliche Begegnungen mit Pflanzen ohne jedoch zu einer einzigen führen zu können. Die Karte zeigt das, wohin es keinen Weg mehr gibt. Und die Statistik erfindet eine paradoxe Form des Ereignisses, das als Wahrscheinlichkeit immer schon da ist, bevor etwas passiert. Ihre Techniken konstruieren ein virtuelles Objekt, das nirgendwo anzutreffen ist und aus der Löschung aller empirischen Objekte aufersteht. Deshalb liebt die Statistik große Datenmengen und bezieht ihre Gewißheiten aus der Masse.

Sabine Höhler (Berlin) zeigte in diesem Sinne an der Vermessung des Meeresbodens, daß sich Meßverfahren nicht unbedingt deshalb durchsetzen, weil sie nachweisbar genauer sind, sondern weil ihre schiere Datenmenge mit Wahrscheinlichkeiten rechnen läßt. Wo keine Anschauung an den Meeresboden hinabreicht, bleibt er eine mathematische Konstruktion, ein abstrakter Datenraum, dessen Bild seine Glaubwürdigkeit erst durch die Zahl der Daten gewinnt. Die langsame single-spot-Lotung des 19. Jhdts., die mit Bleigewichten und Klavierdrähten stundenlang ins Dunkle tastete, wich nach dem Ersten Weltkrieg einer akustischen Echolot-Vermessung, die tausende von Meßdaten in Sekunden lieferte. Diese »dichte Beschreibung« gewährleistete die Glaubwürdigkeit eines Bildes, in dem die Sichtbarkeit nicht mehr Instanz der Wahrheit ist. Vielmehr erzeugt die Interpolation der einzelnen Meßpunkte zu einer Höhenlinie (also eine Operation in der Darstellung selbst) zusätzliche, nie gemessene Punkte und Übergangswahrscheinlichkeiten. In der Tiefsee als Wahrscheinlichkeitslandschaft scheint die Summe aller Fehler zur Wahrheit zu werden.

Wie stark die bildlichen Operationen selbst erst Daten erzeugen und damit das erfinden, was sie nur wiederzugeben scheinen, zeigte Nick Hopwood (Cambridge) an Ernst Haeckels »Anthropogenie« von 1874. Haeckels Bildfolgen von Embryonen beendeten die Goethe’sche Morpholgie von wiedererkennbaren Erscheinungen und setzten ein Morphing an ihre Stelle, das den Betrachter zwang, in Übergangswahrscheinlichkeiten zu denken. Haeckels proto-filmische Serienbilder haben nichts mehr mit der Identifikation einer einfachen Repräsentation zu tun, sondern treiben sich als Spiel der Differenzen aus sich selbst voran. Erst dieses Gesetz der Serie als Medieneffekt ließ seine Entwicklungsgeschichte so evident und (trotz harscher Detailkritk) erfolgreich und populär werden.

Nicht der »Kurvenlandschaft« der Tiefsee, sondern der einer ebenso unsichtbaren »Gesellschaft« widmete sich Jürgen Link (Dortmund). Mit dem historischen Apriori des »Normalismus«, der regelmäßigen und flächendeckenden Verdatung seit dem 18. Jhd., entstand auch die Info-Grafik. Deren »physique sociale« ließ die Gauss’sche Normalverteilung zur »kosmischen Ordnung« aufsteigen, die »von den Griechen zur Gottheit erhoben worden wäre«(Francis Galton) und deren Macht mit der Anarchie erst wächst. Die Wahrscheinlichkeit, die die Kurvenlandschaft des normalistischen Subjekts erzeugt, besteht darin, daß die Zukunft »normal an die Gegenwart anschließt«. Die Entwicklung ihrer Linien ist jedoch eine rückgekoppelte: Sie beschreibt einen »Raum der Sorge«, in dem subnormale Risiken, supernormale Chancen und versichernde Normalität mit den Unternehmungen zur Selbstnormalisierung abgeglichen werden können. Das Bild dient gewissermaßen als Fliehkraftregler der Normalität, der mehr oder weniger Spiel besitzen kann.

Bilder der Steuerung

Das Bild als Steuerungtechnologie, das die Subjekte und ihre Wahrnehmung auf Normalität zurichtet, stand im Zentrum mehrerer Vorträge. Herbert Mehrtens (Braunschweig) zeigte am »scientific management« von Frederick Taylor und Frank Gilbreth, wie Zeit- und Bewegungsdaten von Arbeiterkörpern abgenommen wurden um dann von Arbeitswissenschaftlern optimiert zu werden. Die Zyklegaphie, deren Lichtbahn alle Bewegungen des Arbeiters fotografisch aufzeichnete, machte eine »unsichtbare Verschwendung« sichtbar, die nicht schon im Vorhinein in einer »Tiefe« wartete, sondern durch avancierte Medientechnik erst konstruiert wurde. In einer Art therapeutischem Diskurs mit dem Arbeitswissenschaftler sollte der Arbeiter anschließend lernen, seine eigenen Bewegungen so zu optimieren, daß sie dem energetischen Imperativ gehorchten. Der Körper mußte seine Mimikry an eine verbesserte Natur anhand einer optimierten Kurve leisten, die zugleich die »normale« sein sollte: optimal, weil auf ihrer Bahn möglichst wenig Energie verschwendet wird, normal weil sie die Belastung des Körpers unterhalb jener Schwelle hält, an der er Arbeitsschäden davontragen würde. Das »Evangelium der Effizienz« ist bildgesteuert und verheißt Normalität als »vernunftgemäß zu verlangende höchste Geschwindigkeit« (Taylor).

Wie Bilder in die »Betriebsorganisation« des Krankenhauses eingreifen und welche Rolle dabei die Karriere des Thermomenters im 19. Jhd. spielte, zeigte Volker Hess (Berlin). Obwohl das Thermometer schon im 18. Jhd. technisch ausgereift war, obwohl Meteorologie und Epidemiologie schon Kurvendarstellungen kannten, blieb die Temperatur nur eines unter vielen Zeichen der diagnostischen Semiose. Erst die doppelte Ankopplung der Fiebermessung an die Bewegungsschreiber der Kymographie einerseits und die hippokratische Kriesenlehre andererseits führte zum »naturhistorischen Vorgehen« der Fieberkurve. In ihrer Masse und zweidimensionalen Darstellung entfalteten die Daten ein graphisches Eigenleben, bildeten Cluster und ließen »Gestalten« hervorteten, die um 1860 das Gebiet der »Krankheitsnormen« erschlossen. Die Einführung normaler und anormaler Krankheitsverläufe organisierte zugleich aber die arbeitsteilige Normalität des Krankenhausalltags. Das Stecken und Ablesen von Thermometern nach standardisierten graphischen Erfassungsbögen triggerte die »Krankenwartung« und schaffte eine Registratur der Ereignisse, in die auch Puls, Ausscheidungen und Medikation eingetragen werden konnten.

Touristische Routen organisieren ebenso standardisierte Topographien von Bewegungen und Haltepunkten und stellen normalisierte Bilder bereit, die das Sehen formatieren. Daniel Speich (Zürich) rekonstruierte das touristische Zürich als Arbeitsraum der Wahrnehmung. Der Städtebau installiert nicht nur alle Arten von Dispositiven oder »Blickhilfen«, in denen Sehenswürdigkeiten erst als solche erscheinen können, in denen sie gerahmt, sequenzialisiert und verdichtet werden. Er stellt zugleich auch die Bewegung unter das Gesetz der Effizienz von kürzesten Wegen mit maximaler Sensationsdichte. Damit jedoch die An- und Ausblicke (wieder-) erkennbar sind, müssen sie zuvor standardisiert werden. Die gemeinsame Leistung professioneller Geologen und männlicher Alpenvereinsmitglieder des 19. Jhdts. bestand darin, die Berge zu individualiseren, Blickwinkel und Lichtführung zu standardisieren, markante Details zu kodifizieren und ein identifizierendes Sehen herzustellen. Wissenschaft und Tourismus erweisen sich als gleich abhängig von der Reproduzierbarkeit einer Sehsituation, die sie gemeinsam verfertigen.

Zwischen Natour und Latur

Die Produktivität des Themas erwies sich nicht nur an den glänzenden Fallstudien, sondern auch daran, wie eine Geschichte des technischen Bildes seit der Verschaltung von Beobachter, beobachtetem Instrument und beobachtetem Objekt zu einem »Experimentalsystem« überhaupt schreibbar ist. Jutta Schickore (Cambridge Mass.) las beispielsweise die Mikroskopiegeschichte des 19. Jhd. als Medienkonkurrenz von Präparation, Fotografie und Zeichnung, die mit unterschiedlichen Begründungen um jenen Vorsprung an Glaubwürdigkeit ringen, der ihre Institutionalisierung und damit Normalität im Wissenschaftsalltag sichert. Peter Geimer (Konstanz) ging von Bruno Latours »faitiches« aus Fakten (»faits«) und Fetischen (»fétiches«) aus, um den Status der Fotografie zwischen »Natour und Latur« zu bestimmen. Der Fotograf bei William Talbots »Mausefallen« oder Ernst Machs Geschoßaufnahmen versteht sich darauf, »die Dinge in Stellung zu bringen« und sich dann zurückzuziehen. Der verbleibende Verbund aus Licht und Optik, Raum und Zeit, Chemie und Schaltern bezeichnet ein sprachlich problematisches »Ereignen«, dessen Subjekt – wie einst Odysseus – »Niemand« ist. Cornelius Borck (Berlin) hingegen plädierte für eine »periphere Geschichte der Wissenschaft«, eine Geschichte der Nebenumstände und des öffentlichen Experimentierens mit Glaubwürdigkeit, die sich des Schemas von vorgängiger Forschung und nachträglicher Popularisierung entledigen soll. Barbara Orland (Zürich) zuletzt rekonstruierte an der Geschichte der Magnetresonanztomographie (MRT) das Medien-Werden eines Apparates. Was als seltsame Anordnung von umgewidmeter Technologie aus der chemischen Spektroskopie und Neugeborenen als größenkompatiblen Versuchsobjekten begann, bedurfte zweier Modifikationen, um alltäglich zu werden: Erstens mußten die Apparaturen vor Arzt und Patient verborgen werden, mußte »black-boxing« und vertrauenerweckendes Design die Computer und Magnete vor den bedienenden Ärzten und vor den Patienten verstecken. Zweitens mußte eine Umrechnung der Datenflut in die Ikonographie des Röntgenbildes den Anschluß and die Radiologie als Disziplin der »Sehkünstler« gewährleisten und standardsoftware die Abbildungsfunktion stabilisieren.

Offen blieb und bleibt jedoch die Frage des digitalen Bildes. Daten sind unsichtbar und bedürfen immer der Darstellung, weshalb sie keine unbekannten Bilder ergeben, sondern immer nur als Farce bekannter erscheinen. Eine Ikonographie des Computerbildes wird deshalb zum melancholischen Unternehmen, weil sie die algorithmischen standards der Bilderzeugung notwendig verfehlt. Umgekehrt scheitert die Quellenkritik der »Sourcecodes« an der Komplexität und Inkommensurabilität eines laufenden Programms und wird nie zur Erscheinung des Bildes gelangen. So erscheint am digitalen Bild alles oder nichts selbstverständlich.

Claus Pias