Friedrich Kittler

Computergraphik. Eine halbtechnische Einführung

(Vortrag gehalten in Basel, Juni 1998)

Meine Damen und Herren,
verzeihen Sie mir, für einmal mit Trivialitäten zu beginnen. Wann immer die Rede auf Bilder kommt, bleiben nur Dummheiten wie die folgenden.
Computerbilder sind der Output von Computergraphik. Computergraphiken sind Softwareprogramme, die, wenn sie auf einer geeigneten Hardware laufen, etwas zu sehen und nicht bloß etwas zu lesen geben. Auf den ersten Blick kennen wir das alle. Auf den ersten Blick bildet das, was Augen auf dem Bildschirm erblicken, eine optische Wahrnehmung wie jede andere auch. Und seitdem die Kunstwissenschaft jüngst die Frage "Was ist ein Bild?" gelernt hat, darf eine Anschlußfrage auf das Wassein von Computerbildern gehen. Bredekamps These, daß Museen und Wunderkammern, Künste und Techniken demselben Dispositiv aufruhen, hat solche Fragen möglich gemacht.

1


Meine halbtechnische Einführung in die Computergraphik allerdings wird nur eine halbe Antwort geben, die vor allem den notwendigen Vergleich zwischen Tafelbildern und Computerbildern, subtraktiven und additiven Farbgemischen unterläßt. Nach solcher Vereinfachung ist ein Computerbild ein zweidimensionale additive Mischung aus drei Grundfarben, die sich im Rahmen oder Parergon eines Monitorgehäuses zeigt. Manchmal, nämlich als graphische Oberfläche neumodischer Betriebssysteme, zeigt es sich minder, ein andermal, nämlich als Bild im emphatischen Wortsinn, etwas mehr. Aber wie auch immmer, die Generation von 1998 neigt vermutlich zum milliardenunterstützten Trugschluß, Computer und Computergraphik seien ein und dasselbe. Nur altgewordene Hacker bewahren noch als Gedächtnisspur, daß das nicht immer so war. Es gab Zeiten, als das Computerbild weiße Punkte auf einem amberfarbigen oder grünen Hintergrund zeigte, wie um daran zu erinnern, daß es technikgeschichtlich nicht etwa vom Fernsehen abstammt, sondern vom Kriegsmedium Radar.
Radarbildschirme aber müssen die Punkte, die auf ihnen als Indizien anfliegender Feindflugzeuge erscheinen, in jeder Dimension adressieren und per Mausklick abschießen können. Genau diese Adressierbarkeit hat das Computerbild, auch wenn es die Polarkoordinaten von Radarschirmen durch cartesische Koordinaten ersetzt hat, aus Frühwarnsystemen übernommen. Im Gegensatz zum halbanalogen Fernsehen sind daher nicht nur die Zeilen, sondern auch die Spalten eines Bildes in letzte Elemente aufgelöst. Die Menge dieser sogenannten Pixel bildet also eine zweidimensionale Matrix, die jedem einzelnen Bildpunkt eine numerisch bestimmte Mischung der drei Grundfarben Rot, Grün und Blau zuordnet.
Diese Diskretheit oder Digitalität erstens der geometrischen Örter und zweitens der chromatischen Werte macht all die Zauberkunststücke möglich, die die Computergraphik von Film und Fernsehen unterscheiden. Es ist zum erstenmal in der Geschichte optischer Medien möglich, das Pixel in der achthundertneunundvierzigsten Zeile und siebenhunderteinundzwanzigsten Spalte direkt zu adressieren, ohne seine Vorgänger und Nachfolger durchlaufen zu müssen. Computerbilder sind also in einem Maß, das die Fernsehmacher und Ethikjournalisten schon heute zittern macht, die Fälschbarkeit schlechthin. Sie täuschen das Auge, das einzelne Pixel ja nicht mehr voneinander unterscheiden soll können, mit dem Schein oder Bild eines Bildes, während die Pixelmenge aufgrund ihrer durchgängigen Adressierbarkeit in Wahrheit die Struktur eines Textes aus lauter Einzelbuchstaben aufweist. Deshalb und nur deshalb ist es kein Problem, Computermonitore vom Textmodus zum Graphikmodus oder umgekehrt umzuschalten.
Die zweifache Digitalität der Örter und Farbwerte schafft aber auch Problemfelder, von denen wenigstens drei benannt sein sollen.
Erstens läßt sich zeigen, daß die drei Farbkanonen üblicher Farbfernseh- oder Computermonitore schlichtweg nicht hinreichen, alle physikalisch möglichen Farben zu erzeugen. Experimente, die der Industrie allerdings viel zu aufwendig vorkamen, haben vielmehr gezeigt, daß erst neun Farbkanonen das sichtbare Spektrum einigermaßen annähern könnten.[1] Der sogenannte RGB-Kubus, die dreidimensionale Matrix aus diskreten Rot-, Blau- und Grünwerten also, ist einer der üblichen digitalen Kompromisse zwischen Ingenieuren und Betriebswirten.
Zweitens werfen diskrete Matrixen, die zweidimensionale der geometrischen Örter ganz wie die dreidimensionale der Farbwerte, das grundsätzliche Problem der Abtastrate auf. Nicht nur die Natur, soweit wir sie denn zu kennen glauben, zerfällt nicht in letzte digitale Elemente, sondern auch die Hypernatur, wie Computermusik und Computergraphik sie herstellen. Deshalb heißt Digitalisierung für die Wahrnehmung immer auch Verzerrung. Was bei digital gespeicherter Musik als Klirren oder, technischer gesprochen, als Quantisierungsrauschen droht, stört bei Computerbildern als Treppeneffekt oder Interferenz, trügerische Unstetigkeit oder Stetigkeit. Der Abtasteffekt Nyquists und Shannons zerhackt also nicht nur schön geschwungene Kurven oder Formen in Bauklötze, die unter Computergraphikern als Manhattan-Block-Geometrie firmieren, weil US-Stadtstraßenplaner ja den rechten Winkel seit jeher über alles lieben. Die Abtastung erzeugt stetige und daher ins Auge fallende Formen vielmehr auch dort, wo sie so wenig hingehören wie Morgensterns Huhn in seine Bahnhofshalle.
Drittens schließlich bereitet die Digitalität der Computergraphik ein Problem, das der Computermusik völlig abgeht. In einem Aufsatz über Time Axis Manipulation[2], dessen Lektüre ich bei einigen unter Ihnen noch immer erhoffe, habe ich dereinst zu zeigen versucht, welche Spielräume die Tatsache aufmacht, daß digitales Sampling jede musikalische Folge in drei (aus Peanos Theorie der natürlichen Zahlen bekannte) Elemente zerlegt: ein Ereignis oder Millisekundenzustand, seinen Vorgänger und seinen Nachfolger. Die drei lassen sich integrieren oder differenzieren, vertauschen oder verwürfeln, bis der Spielräume moderner E- und U-Musik wahrhaft durchmessen sind.
Im Prinzip - und das heißt leider: mit quadratisch steigendem Rechenaufwand - lassen sich diese Tricks aus der einen Dimension digitaler Musik natürlich auf die zwei Dimensionen digitaler Bilder übertragen. Nur pflegt das Ergebnis so chaotisch auszufallen, als sei die Wahrnehmung wieder auf David Humes oder Kaspar Hausers reine Empfindungen regrediert. Der Grund ist ebenso elementar wie nichttrivial. Jedes Bild (im Sinn der Kunst, also nicht in dem der Mathematik) kennt zugleich ein Oben und Unten, ein Rechts und Links. Demgemäß haben auch Pixel, sofern sie algebraisch als zweidimensionale Matrizen und geometrisch als orthogonale Gitter aufgebaut sind, grundsätzlich mehr als einen Nachbarn. In den heroischen Anfängen der Computerwissenschaft, als große Mathematiker erst einmal Binsenwahrheiten formulieren mußten, entstanden daher die Begriffe einer Ashby- und einer Von-Neumann-Nachbarschaft, je nachdem beliebige Elemente nur vom Kreuz ihrer oberen, unteren, linken und rechten Nachbarn umgeben sind oder aber vom Quadrat aus besagten vier orthogonalen und weiteren vier diagonalen Nachbarn. Daher rührt, wenn Sie so wollen, der ganze Unterschied zwischen den Stadtbildern von Manhattan und Basel.
Nun ist es aber das offenbare Geheimnis von Turingmaschinen, Von-Neumann-Architekturen und Mikroprozessoren, der Hardware jedes heutigen Computers also, daß sie die sogenannte Welt auf natürliche Zahlen und damit auf Peanos Nachfolgerrelation abbilden. Programmzähler und Arbeitsspeicher aufseiten der Hardware, Funktionen und Programme aufseiten der Software, alle laufen sie sequentiell. Alle Schwierigkeiten, die Computer mit der Parallelverarbeitung von Befehlen oder der Berechnung von Netzwerken haben, kehren in der Computergraphik wieder. Deshalb habe ich Ihre Einladung überhaupt angenommen, statt Sie meinerseits zur Lektüre von Time Axis Manipulation einzuladen. Im Gegensatz zur Musik hat jeder Punkt auf einem Bild faktisch unendlich viele Nachbarn und selbst nach John von Neumanns gewaltsamer Idealisierung immerhin noch acht. Deshalb werden wir noch lange darauf warten müssen, bis Turingmaschinen imstande sein werden, die gute alte Fraktur Basler Humanistenverlage automatisch zu entziffern. Alle Algorithmen zur Filterung, Aufbereitung und Erkennung von Bildinhalten laborieren an der Überzahl jener Nachbarschaften, die Bilder erst zu Bildern machen. Womöglich könnte diese Überzahl daher gerade umgekehrt Maße oder Antworten auf Gottfried Böhms Frage liefern, was die Dichte von Bildern ausmacht. Bilder, die schon Ashbys Algorithmus erkennt, hätten weniger Dichte als andere, die erst von Neumanns Algorithmus knacken würde. (Um von der Möglichkeit ganz zu schweigen, daß Bilder ohne latent eingebaute Orthogonalität oder Architekturalität Computeranalysen prinzipiell überfordern könnten.)
Heidegger hat, wie Sie wissen, das Rätsel der Wahrnehmung darein gesetzt, daß "wir im Erscheinen der Dinge zunächst und eigentlich niemals einen Andrang von Empfindungen vernehmen.".[3] Für Wesen, die in der Sprache hausen, zeigt sich etwas, das sie sehen oder hören, immer schon als etwas. Für computergestützte Bildanalysen dagegen bleibt das Etwas-als-Etwas ein theoretisches Fernziel, dessen Erreichbarkeit noch nicht einmal feststeht. Ich möchte deshalb die automatische Bildanalyse auf Wahrnehmungssymposien vertagen, die frühestens in zehn Jahren stattfinden, und mich im folgenden auf die automatische Bildsynthese beschränken. Es geht also nicht darum, wie Computer die optische Wahrnehmung simulieren, sondern nur darum, wie sie sie täuschen. Diese exorbitante Fähigkeit nämlich scheint es zu sein, die das Medium Computer über alle optischen Medien der europäischen Geschichte erhebt.

2


Die optischen Medien, wie sie nicht zufällig gleichzeitig mit Gutenbergs Buchdruck unsere Kultur verändert haben, gingen nämlich die Optik als Optik an. Von der Camera obscura bis zur Fernsehkamera haben all diese Medien das antike Gesetz der Reflexion und das neuzeitliche Gesetz der Refraktion einfach in Hardware gegossen. Spiegelung und Linearperspektive, Brechung und Luftperspektive waren die beiden Mechanismen, die die europäische Wahrnehmung - allen Gegenangriffen moderner Künste zum Trotz - auf perspektivische Projektion vereidigt haben. Was in der bildenden Kunst entweder nur manuell oder, wie bei Vermeer und seiner Camera obscura[4], nur halbautomatisch lief, haben die technischen Medien als optische Vollautomaten übernommen. Eines schönen Tages legte Henry Fox Talbot die Camera clara, die seine unvollkommene Zeichenhand sehr unvollkommen unterstützt hatte, beiseite und lief zu einer Photographie über, die er als Bleistift der Natur selber feierte. Eines weniger schönen Tages stieß Hoffmanns Nathanael seine Clara beiseite, setzte ein Perspektiv oder Fernglas ans Auge und sprang in den sicheren Tod.[5]
Zu solchen optischen Medien verhält sich die Computergraphik wie diese Medien zum Auge. Wenn die Kameralinse als buchstäbliche Hardware das Auge als buchstäbliche Wetware simuliert, so simuliert als Computergraphik eine Software die Hardware. Die optischen Gesetze der Spiegelung und Brechung bleiben zwar für Ausgabegeräte wie Monitor oder LCD-Bildschirm weiterhin in Kraft, aber das Programm, dessen Eingaben solche Ausgabegeräte ja ansteuern, überführt alle optischen Gesetze, die es berücksichtigt, in algebraisch reine Logik. Das sind, um es gleich zu gestehen, üblicherweise bei weitem nicht alle optischen Gesetze, die für Sehfelder und Oberflächen, für Schatten und Lichtwirkungen gelten; aber was abläuft, sind diese ausgewählten Gesetze selbst und nicht bloß, wie in anderen optischen Medien, die ihnen entsprechenden Effekte. Kein Wunder also, daß der Kunsthistoriker Michael Baxandall die Computergraphik als den logischen Raum aufspannen konnte, in dem jedwedes perspektivische Gemälde eine mehr oder minder reiche Untermenge bildet.[6]
Die vollständige Virtualisierung der Optik hat ihre Möglichkeitsbedingung an der vollständigen Adressierung aller Pixel. Einer zweidimensionalen Matrix aus diskret gemachten Zeilen und Spalten läßt sich die dreidimensionale Matrix eines diskret gemachten perspektivischen Raumes zwar nicht eineindeutig, aber doch eindeutig zuordnen. Jedes Vorn oder Hinten, Rechts oder Links, Oben oder Unten entspricht einem virtuellen Punkt, dessen zweidimensionaler Stellvertreter dann aktuell erscheint. Einzig und allein das factum brutum verfügbarer Computerspeicherplätze begrenzt den Reichtum und die Detailauflösung solcher Welten. Einzig und allein die unumgängliche, aber immer einseitige Entscheidung, welche Optik solche Welten regieren soll, begrenzt ihre Ästhetik.
Im folgenden möchte ich versuchen, Ihnen die zwei wichtigsten unter diesen optionalen Optiken näher zu bringen. Wobei allerdings vorweg zu betonen bleibt, welche Revolution gegenüber den optischen Analogmedien schon in der Tatsache liegt, daß die Computergraphik Optiken überhaupt optional macht. Sicher erlaubten es Photographie und Film, zwischen Weitwinkel und Teleobjektiv oder auch diversen Farbfiltern zu wählen. Aber weil ihre optische Hardware einfach tat, was sie unter den gegebenen physikalischen Bedingungen tun mußte, stellte sich niemals die Frage nach einem Algorithmus, der für Bilder optimal wäre.
Computergraphik, weil sie Software ist, besteht dagegen aus Algorithmen und sonst gar nichts. Der optimale Algorithmus zur automatischen Bildsynthese läßt sich daher ebenso problemlos wie unalgorithmisch angeben. Er müßte einfach alle optischen und d.h. elektromagnetischen Gleichungen, die die Quantenelektrodynamik für meßbare Räume kennt, auch für virtuelle Räume durchrechnen, schlichter gesagt also die drei Bände von Richard Feynmans Lectures on Physics in Software gießen. Dann würden Katzenfelle, weil sie anisotrope Oberflächen bilden, wie Katzenfelle schimmern; dann würden Schlieren in Weingläsern, weil sich ihr Brechungsindex an jedem Punkt verändert, die Lichter und Dinge hinter ihnen zu ganzen Farbspektren entfalten.
Prinzipiell steht solchen Wundern nichts im Weg. Universale diskrete Maschinen, vulgo mithin Computer, können alles, was überhaupt programmierbar ist. Aber nicht nur in Rilkes Malte Laurids Brigge, sondern auch in der Quantenelektodynamik sind die "Wirklichkeiten langsam und unbeschreiblich ausführlich".[7] Die perfekte Optik ließe sich zwar gerade noch in endlicher Zeit programmieren, müßte aber für die perfekte Bildwiedergabe auf unendliche Monitorwartezeiten vertrösten. Computergraphik unterscheidet sich vom billigen Echtzeiteffekt optischer Unterhaltungsmedien durch eine Zeitvergeudung, die es mit der Zeitvergeudung guter alter Maler aufnehmen könnte, wenn ihre Benutzer nur geduldiger wären. Einzig im Namen der Ungeduld beruht alle existierende Computergraphik auf Idealisierungen, die freilich im Gegensatz zur Philosophie wie Schimpfwörter fungieren.
Eine erste basale Idealisierung geht dahin, Körper als Oberflächen zu behandeln. Im Unterschied zur Computermedizin, die sie notgedrungen als dreidimensionale Körper wiedergeben muß, reduziert die Computergraphik die Dimensionen ihres Inputs vor vornherein auf die zwei Dimensionen ihres Outputs. Das bekommt nicht nur durchsichtigen oder teilweise durchsichtigen Dingen wie besagten Weinglasschlieren nicht. Es schlägt auch der Tatsache ins Gesicht, daß Dinge wie Katzenfelle oder Lämmerwolken (zumindest seit Benoît Mandelbrot) weder drei noch zwei ganzzahlige Dimensionen haben, sondern eine sogenannte Hausdorff-Dimension von beispielsweise 2.37.[8] Nicht umsonst versuchen computergenerierte Filme wie Jurassic Parc gar nicht erst, mit den Pelzmänteln auf Hans Holbeins Gesandten zu konkurrieren; sie bescheiden sich mit gepanzerten, optisch also blanken Dinosauriern.
Wenn erst einmal diese basale Reduktion von Körpern auf Oberflächen, Hausdorffdimensionen auf Bildlichkeiten vollzogen ist, steht die Computergraphik vor der Frage, welcher virtuelle Mechanismus welche Oberflächen zu sehen geben soll. In Betracht kommen zwei algorithmische Optionen, die einander aber nachgerade widersprechen und folglich eine Ästhetik unter Ausschluß aller anderen festlegen. Realistische Computergraphiken, also solche, die im Unterschied etwa zu bloßen Drahtgittermodellen mit hergebrachten Künsten konkurrieren sollen können, sind entweder Raytracing oder Radiosity, jedoch nicht beides zugleich.

A


In historischer Treue beginne ich mit der Strahlverfolgung einfach darum, weil sie aus den besten oder schlimmsten Gründen von der Welt viel älter als der Radiosity-Algorithmus ist. Wie Axel Roch es demnächst öffentlich machen wird, entstammt der Begriff Raytracing nämlich gar nicht der Computergraphik, sondern ihrem militärischen Vorläufer: der Radarverfolgung von Feindflugzeugen. Und wie der Computergraphiker Alan Watt kürzlich gezeigt hat, ist Raytracing der Sache nach noch viel altehrwürdiger. Den ersten Lichtstrahl, aus dessen Brechungen und Spiegelungen ein virtuelles Bild entstand, konstruierte im Jahr des Herrn 1637 ein gewisser René Descartes.[9]
Achtzehn Jahre zuvor, im Kriegsnovember 1619, hatte Descartes eine Erleuchtung und drei Träume empfangen. Die Erleuchtung betraf eine wundersame Wissenschaft, die seine spätere analytische Geometrie gewesen sein dürfte. Die Träume dagegen begannen mit einem Sturm, der einen rechtsseitig gelähmten Descartes drei- oder viermal um sein eigenes linkes Bein herumwirbelte. Ich vermute aber, daß Traum und Wissenschaft eins sind. Im Traum wird das Subjekt zum ausdehnungslosen Punkt oder näherhin Mittelpunkt, um den herum der eigene Körper als dreidimensionale res extensa die geometrische Figur eines Kreises beschreibt. Von dieser res cogitans und jener res extensa handelt bekanntlich die cartesische Philosophie, von algebraisch beschreibbaren Bewegungen oder Flächen dagegen sehr viel weniger bekanntlich die analytische Geometrie. Zum erstenmal in der Mathematikgeschichte machte Descartes es möglich, Figuren wie etwa den Kreis nicht mehr bloß als himmlisch-geometrische Vorgegebenheiten zeichnerisch wiederzugeben, sondern als Funktionen einer algebraischen Variable zu konstruieren. Das Subjekt als res cogitans ritt gleichsam alle Funktionswerte einer Gleichung ab, bis beim Initialtraum von 1619 der Kreis oder bei Münchhausens Ritt auf der Kanonenkugel die Parabel angeschrieben war.
Als der scheue Descartes 1637 mit seinem Discours de la méthode ans Licht der Öffentlichkeit trat, fügte er ihm außer der Geometrie zwei optische Anhänge bei: eine Abhandlung über das Brechungsgesetz und eine über den Regenbogen. Beide Abhandlungen aber wendeten die analytische Geometrie schlichtweg auf Farben und Erscheinungen an. Um das Lichterspiel des Regenbogens von seiner eingespielten Theologie zu erlösen, bat Descartes einen Glasbläser, ihm das hundertfach vergrößerte Simulacrum eines einzigen Regentropfens zu liefern. Diese hohle Glaskugel war aber nur das experimentelle Unterpfand eines Gedankenexperiments, in dessen Verlauf das cartesische Punktsubjekt die Kugel aus allen denkbaren Winkeln ansteuerte. Das Subjekt selbst spielte also einen Lichtstrahl, der von der Sonne kommend im Regentropfen alle denkbare Reflexionen und Refraktionen durchmachte, bis schließlich das einfachste Sonnenlicht nach trigonometrischen Gesetzen ins Regenbogenspektrum zerfiel.[10]
Sicher, das Reflexionsgesetz formulierte schon Heron von Alexandria, das Refraktionsgesetz schon Willibrord Snell. Descartes aber blieb es vorbehalten, den Weg eines einzigen Lichtstrahls aus wiederholten Anwendungen beider Gesetze zusammenzusetzen. Das cartesische Subjekt entsteht durch Selbstanwendung oder, informatisch gesprochen, durch Rekursion. Genau das ist der Grund, weshalb die cartesische Strahlverfolgung keinen Maler und kein optisches Analogmedium hat inspirieren können. Erst Computer und näherhin Computersprachen, die rekursive Funktionen gestatten, verfügen über die Rechenmacht, die zahllosen Wechselfälle oder Schicksale eines Lichtstrahls in einem virtuellen Raum voller virtueller Oberflächen überhaupt verfolgen zu können.
Raytracing-Programme beginnen im elementaren Fall damit, den Bildschirm als zweidimensionales Fenster mit Blick auf eine virtuelle Dreidimensionalität zu definieren. Dann folgen zwei Iterationsschleifen über alle Zeilen und Spalten dieses Bildschirms, bis ein Sehstrahl vom virtuellen, vor dem Bildschirm gelagerten Auge sämtliche Pixel einmal erreicht hat. Hinter den Pixeln aber wandern diese virtuellen Strahlen weiter, um lauter unterschiedliche Schicksale zu erfahren. Die meisten haben zwar das Glück, auf keine Oberfläche zu treffen, können also auf schnellstem Weg mit dem Auftrag abbrechen, eine bloße Hintergrundfarbe wie etwa den Himmel wiederzugeben. Andere Strahlen dagegen verstricken sich in eine durchsichtige Glaskugel vom Descartes-Typ, wo ihnen zahllose Brechungen und Spiegelungen bevorstünden, wenn die Ungeduld von Computergraphikprogrammen die maximal zulässigen Rekursionen nicht künstlich begrenzen würde. Das muß schon deshalb sein, weil ein Lichtstrahlspiel, das zwischen zwei parallele und perfekte Spiegel geriete, nie wieder aufhören würde, wohingegen Algorithmen durch endlichen Zeitverbrauch nachgerade definiert sind.
Raytracing erzeugt also, kurz gesagt, aus dem Zusammenspiel eines unendlich dünnen Lichtstrahls mit einer Menge zweidimensionaler Oberflächen im virtuellen Raum schließlich physikalisch-reale Hochglanzbilder. Alle Oberflächen, die die analytische Geometrie seit Descartes algebraisch definieren kann, sind erlaubt, alle Interaktionen zwischen Lichtern, spiegelnden und/oder teildurchsichtigen Oberflächen sind modellierbar. Wann immer Ihnen ein Computerbild begegnet, dessen Glanzlichter wie sonst nurmehr das himmlische Jerusalem glänzen und dessen Schatten scharf wie sonst nurmehr in der Hölle fallen, liegt elementares Raytracing vor. Das heißt aber leider auch, daß die optische Option namens Raytracing mehr und weniger zeigt als die schlichte Wahrnehmung. Einfach weil der Lichtstrahl unendlich dünn und das heißt nulldimensional ist, werden alle lokalen Effekte maximiert, alle globalen dagegen unterdrückt. Die Interaktion spielt nicht zwischen leuchtenden und beleuchteten Flächen, sondern zwischen Lichtpunkten und Oberflächenpunkten. Deshalb sind Spiegelglanzlichter ebenso hyperreal, wie matte Spiegelungen schlicht unterbleiben. Ganz wie aus dem cartesischen Punktsubjekt in mathematikhistorischer Konsequenz der Differentialkalkül von Newton und Leibniz entsprang, so ist Raytracing, formal gesehen, eine einzige Folge partieller Ableitungen. Was zählt, ist mithin die Differenz von Punkten, was untergeht, die Ähnlichkeit von Flächen. Raytracing-Bilder, die Vermeers wunderbarer Frau mit dem roten Hut Konkurrenz machen wollten, hätten daher keine Schwierigkeiten mit dem scharfumgrenzten Glanzlicht, das eine Lichtquelle von rechts vorn auf Nasenspitze und Unterlippe wirft, aber unendliche Schwierigkeiten mit den roten Reflexionen, in die der Hut als ganzer die linke Gesichtshälfte taucht. Raytracing, wie das cartesische Punktsubjekt auch, ist bloße Idealisierung, die Vermeers Frau mit dem rotem Hut notwendig verfehlt.

B


So kam es denn, daß die sogenannte Gemeinde der Computergraphiker seit 1986, wenn auch nicht gerade mit fliegenden Fahnen, zum Gegenteil übergelaufen ist. Holländisches Interieur nach Vermeer hieß nicht bloß ein zeitfressendes Computerbild unter anderen, sondern ein ganzes Programmierprogramm. Radiosity oder (in ungelenker Verdeutschung) Lichtenergiekalkül soll besagen, daß eine sichtbare Welt nicht mehr aus Strahlen und Flächenpunkten errechnet wird, sondern aus leuchtenden und beleuchtenden Oberflächen. Damit kann die Farbe des roten Hutes endlich tun, was das blutige Fachwort bluten verspricht: Die Lichtenergie einer aktiven Oberfläche strömt streng nach Vermeer auf alle passiven Nachbarflächen, die mit der aktiven nicht gerade im rechten Winkel stehen. Den naheliegenden, aber allzu menschlichen Einwand, daß die Augen solche Farbdiffusionen zu Zwecken der Wiedererkennung von Dingen geradezu wegrechnen, läßt das Radiosity-Verfahren dabei nicht durchgehen. Es geht schließlich ums Kalkül einer Welt, die auch Augen sehen könnten, wenn sie nur sehen könnten. Technischer gesprochen: das Cosinusgesetz, wie Johann Heinrich Lambert es 1760 für perfekt diffuse Oberflächen aufgestellt hat, wird durch Integration über alle beteiligten Flächenareale erfüllt.
Soweit die Theorie in ihrer mathematischen Eleganz, die übrigens ebensowenig wie beim Raytracing aus der Computergraphik selber stammt. Am Ursprung von Radiosity standen die in jedem Wortsinn teuren Probleme, die ballistische Raketen beim Wiedereintritt in die Erdatmosphäre aufwarfen. Ihre Metalloberfläche drohte im Konflikt zwischen extremer Weltraumkälte und extremer Reibungshitze zu zerspringen, wenn die NASA Fouriers analytische Theorie der Wärmediffusion von 1807 nicht entschieden modernisiert hätte (um vom Challenger-Unfall ganz zu schweigen).
Radiosity ist mithin im Gegensatz zu Raytracing ein Notfallalgorithmus. Nur in formaler Eleganz läßt sich die Integration als Umkehrfunktion der Differentiation definieren, in bitterer numerischer Empirie dagegen frißt sie dramatisch höhere Rechenzeiten. Brauchbar sind Radiosity-Programme daher erst geworden, seitdem sie gar nicht mehr versprechen, ihr lineares Gleichungssystem in einem einzigen Durchlauf zu knacken. Prosaischer gesagt: man startet den Algorithmus, findet sich zunächst mit lauter Finsternissen ab, legt die unter Programmierern berühmten Kaffeepausen ein, um schließlich nach ein, zwei Stunden erste passable Erfolge der globalen Lichtenergieverteilung zu begrüßen. Was die sogenannte Natur mit ihrer Parallelberechnung in Nanosekunden schafft, treibt ihr angebliches Digitaläquivalent zur Überbelastung.
Das cartesische Subjekt, idealisiert wie es war, bot eben darum alle Vorzüge der Eleganz. Als dagegen das neunzehnte Jahrhundert mit Fourier und Gauss, Maxwell und Boltzmann daran ging, Energien, Oberflächenintegrale und Thermodynamiken zu berechnen, wurde dieses Subjekt zumindest dysfunktional und zuhöchst - wie etwa auf Möbiusbändern - schlichtweg verrückt. Der Schritt von der Mechanik zum Feld, von Ableitungen zu Integralen bezog mithin einen mathematischen Blankoscheck, den erst das laufende Jahrhundert eingelöst hat. Digitalcomputer sind, wie Vilém Flusser nie zu betonen unterließ, die einzig mögliche Antwort auf die Frage, die Größe und Not des großen neunzehnten Jahrhunderts ausmachte.
Digitalcomputer aber sind Digitalcomputer. Sie kennen nur endlose Folgen von 0 und 1, anders gesagt: beliebige Summen aus beliebigen ganzzahligen Zweierpotenzen. Schon die Zahl Pi, der alle Kreise, Kugeln und cartesischen Schwindelanfälle entspringen, ist eine von Turings computable numbers nur unter der Bedingung, bis zum gewünschten Grenzwert angenähert zu werden. Das frißt Zeit, die die Computergraphik nicht unbegrenzt hat. Das Radiosity-Verfahren eskamotiert daher zu allererst alle Oberflächen, deren Gaußsche Krümmung nicht null ist und bleibt. Während Raytracer für Kugeln und Möbiusbänder, Kelche und Vasen geradezu prädestiniert sind, reduziert bei Radiosity-Programmen ein Präprozessor alle geometrischen Schönheiten erst einmal auf öde Drahtgitter, die ausschließlich aus ebenen Flächenelementen wie Dreieck oder Viereck zusammengebastelt sind. Die Einfallslosigkeit der Bauhausarchitektur kommt zu computergraphischen Ehren, einfach weil die zur Lösung anstehenden Integrale andernfalls (wie eine hübsche Formel lautet) prohibitiv schwierig würden. Solche Plattheit legt aber nicht nur fest, welche Oberflächen darstellbar sind, sondern auch, wie die Interaktionen zwischen ihnen mathematisch modelliert werden. Klarerweise sollte eine leuchtende Fläche ihre Lichtenergien für Rot, Grün und Blau allen anderen Flächen im genauen Lambert-Maß des Winkels mitteilen, der zwischen den Flächen nun einmal besteht. Das aber würde, horribile dictu, einen Rekurs auf die Zahl Pi erzwingen. Deshalb blickt die leuchtende Fläche nicht in jenem Halbkreis um sich, der aus jeder Wahrnehmung vertraut ist; sie bastelt sich vielmehr aus Gründen der Rechenökonomie eine private Manhattan-Block-Geometrie.[11] In Radiosity-Bildern interagieren also, kaum anders als auf Mondrian-Bildern, Rechtecke mit Rechtecken, auch wenn weder die einen noch die anderen welche sind. Alle Glanzlichter, mit denen Raytracer prunken, verblassen in numerisch angenäherten Integralen, die ja die Langeweile selber sind. Mit anderen Worten: als Radiosity sieht sich die Computerarchitektur selber ins blind binäre Auge. What you get is what you see, dieser grandiose Werbespruch für moderne graphische Benutzeroberflächen, begegnet für einmal seiner dialektischen Wahrheit: What you see is what you get. And what you got, is a computer chip.
Das Wort Computergraphik gilt wortwörtlich. Hinter dem Milliardengeschäft, die optische Welt noch einmal versprechen zu können, verbirgt sich Kempelens und daher auch Benjamins schachspielender Zwerg. Digitale Computer, zumindest solange John von Neumanns magistraler Entwurf ihrer Architektur in Kraft bleibt, setzen dimensionslose Punkte, also Bits oder Pixel, zu orthogonalen Speicherplätzen, Befehlssätzen usw. zusammen. Das ist weder notwendig noch elegant, aber billig. Wir alle wissen zum Beispiel, daß die Packungsdichten und folglich auch die Interaktionsmöglichkeiten hexagonaler Bienenwaben viel höher liegen. Aber for the time being, also für Sein und Zeit von heute, gelten dümmere Gesetze. Raytracing ist eine Selbstabbildung des dimensionslosen Punktes, die nur von Glanzlichtern und Rekursionsrekorden einigermaßen umglänzt oder vernebelt wird. Radiosity ist gerade umgekehrt eine Selbstabbildung der orthogonalen Chipfläche, die nur von blutigen Farbdiffusionen und mühsamen Flächenunterteilungen einigermaßen gekrümmt oder verrauscht wird. Raytracing als Differenzialkalkül erschließt eine virtuelle Unendlichkeit, die sich wie bei Caspar David Friedrich in unsere ebenso endliche wie romantische Welt hineinspiegeln läßt. Radiosity als Integralkalkül schließt ein virtuelles System, dessen Randbedingungen wie bei Vermeers Camera obscura-Bildern konstant bleiben müssen, über sich selbst. Klaustrophobe Landschaftsmalerei und klaustrophile Historienmalerei - beide sind sie zu computergraphischer Hochform aufgelaufen.
Hätte ich statt einer halbtechnischen Einführung in die Computergraphik also bloße Kochrezepte versprochen, wäre dieser Kurzvortrag daher schon am Ende. Liebhaber von Interieurs würden Radiosity-Programme aus dem Netz angeln, Liebhaber offener Horizonte dagegen Raytracing-Programme. Und seitdem es, zumindest unter LINUX, die Blue Moon Rendering Tools gibt, fiele auch das Entscheiden selber flach. Diese Software, nicht minder wundersam als blaue Monde, berechnet nämlich virtuelle Bildwelten im ersten Durchlauf nach globalen Abhängigkeiten im Radiosity-Sinn, im zweiten dagegen nach lokalen Singularitäten im Raytracing-Sinn. Sie verspricht mithin eine coincidentia oppositorum, die nach allem Gesagten allerdings keine einfache Addition sein kann. Es würde hier und heute zu weit führen, wenn ich zu erklären suchte, warum bei solchen Zweischrittverfahren beileibe nicht erst der zweite Schritt auf den ersten, sondern schon der erste auf den zweiten schielen muß. Anders wären alle vier möglichen Fälle optischer Energieübertragung gar nicht zu beherzigen.
Zum Glück läßt sich die Lehre aus den Blue Moon Rendering Tools kürzer und formaler ziehen. Bereits als solche plaudern computergraphische Zweischrittverfahren die bittere Wahrheit aus, daß diffuse Reflexion und diffuse Refraktion nicht gleichzeitig mit spekulärer Reflexion und spekulärer Refraktion zu haben sind. Lokalität oder Spekularität ist und bleibt das Gegenteil von Globalität oder Diffusivität, weil Integration das Gegenteil von Differentiation, Radiosity das von Raytracing ist. Die Zeit des Weltbildes, als die Heideggers Zorn unsere informationsgesteuerte Gegenwart schon 1938 bestimmte,[12] läuft mithin auf die Feststellung hinaus, daß kein Algorithmus ein gleichermaßen detailliertes wie integrales Weltbild erstellen kann. Zwischen Daßsein und Wassein, Örtern und Flächen, Ableitungen und Integralen, Ereignissen und Wiederholungen gibt es immer nur Kompromisse, aber keine Synthesen. Wobei der Computergraphik als solcher freilich aller Dank dafür gebührt, daß sie aus Exklusionen überhaupt Kompromisse hat machen können. Denn was einst die philosophische Ästhetik, am prominestesten wohl in Kants Kritik der Urteilskraft, über den Unterschied zwischen Zeichnung und Kolorit, Ableitung und Integral festzulegen beliebte[13], wird weder Tafelbildern noch Computergraphiken gerecht.

3


Die Dinge, nach Anaxagoras' großem Wort, erscheinen und vergehen gemäß der Gerechtigkeit. Ich habe dagegen zu zeigen versucht, daß und warum die Bilder - beileibe nicht nur als Computergraphiken -gemäß der Ungerechtigkeit erscheinen. Wirbeltieraugen trennen zwischen Stäbchen und Zäpfchen als Sensoren für Wassein und Daßsein, Bildgenuß und Ereigniskrieg. In Fortspinnung von Time Axis Manipulation dürfte man also auch bei Raummanipulationen, die schon als Titel den überstrapazierten Bildbegriff vorteilhaft ersetzen könnten, an Dennis Gabor erinnern, der Heisenbergs quantenmechanische Unschärferelation 1946 in nachrichtentechnischen Klartext übersetzte. Wer nach dem Ort von Bildpunkten fragt, verliert deren Nachbarn aus dem Blick; wer umgekehrt nach Punktnachbarschaften und das heißt Flächen fragt, versäumt den Schock, der jeder Bildpunkt sein kann. Wer darüber hinaus begreift, daß sich dieses Dilemma beim Übergang von der Geometrie zur Optik noch einmal potenziert, kommt der Frage, deren Nichtantwort die Computergraphik ist, schon einigermaßen nahe. Dann nämlich spielen die Raummanipulationen nicht mehr bloß zwischen Oberflächen und Punkten auf ihnen, sondern zwischen Oberflächen und Oberflächenpunkten einerseits, Lichtkörpern und Punkten auf ihnen andererseits. Mit anderen Worten: Integrale und Differentiale werden zu Funktionen von Integralen und Differentialen. Was auf der rechten Seite der Gleichung steht, hängt von der linken Seite ab und umgekehrt.
Die computergraphische Gerechtigkeit, wenn es sie denn gäbe, wäre mithin ein Fredholmintegral der zweiten Gattung. Das nämlich "ist ein Typ von Integral, dessen unbekannte Funktion sowohl innerhalb wie außerhalb des Integrals auftritt" und dessen "wichtigste Anwendung" bezeichnenderweise "in quantenphysikalischer Partikeldynamik liegt".[14] 1986, also während erste Radiosityprogramme den guten alten Raytracern gerade Konkurrenz zu machen begannen, hat ein gewisser Kajiya vom California Institute for Technology die Kühnheit aufgebracht, seine Rendering Equation oder allgemeine Wiedergabegleichung nicht minder paradox, nicht minder physikalistisch anzusetzen. Die Faulheit, die unser aller Teil ist, braucht in Kajiyas Gleichung nur die eine oder andere Menge von Variabeln in fiktive Konstanten umzufälschen, um entweder Raytracing oder aber Radiosity als algorithmische Untermengen abgeleitet zu haben. Der Schönheit der Quantenelektrodynamik aber ist mit Faulheiten nicht gedient. Im Gegenteil: Seit der Rendering Equation schwebt jeder Computergraphik ein Ziel vor, dessen Unerreichbarkeit ihr womöglich verheißt, dereinst nicht ruhmloser zu enden als Brunelleschis gnadenlos geometrische Linearperspektive. Computergraphik wäre erst dann Computergraphik, wenn sie zu sehen geben könnte, was ungesehen erscheint - optische Teilmengen quantenphysikalisch verstreuter Partikeldynamiken.
In Heideggers etymologischer Kurzsichtigkeit hieß Phänomenologie, dieses philosophischgeschichtlich wirksamste von Lamberts Zauberworten: legein ta phainonema, das Erscheinende sammeln. In computergraphischer Weitsichtigkeit braucht solches Sammeln keinerlei Dasein mehr, schon weil sich leuchtende Radiosity-Flächen für die bequemste Projektionsfläche, strahlende Lichtpunkte für den schnellsten Strahlverfolgungsweg entscheiden dürfen. Projektile haben Subjekt vs. Objekt, die dümmste aller Oppositionen also, zu Grabe getragen. Unsere Augen sind daher nicht nur in der HS 293 und ihren Cruise Missile-Kindern über die Welt verstreut; sie dürfen seit Kajiyas Rendering Equation erwarten, daß die Welt selber - zumindest unter der Tarnkappe von Mikrochips - eines unsäglichen Tages ihr Bild werfen wird. Legein ta phainomena, das Erscheinende sammeln, wird dadurch nicht einfacher.


[1] Vgl. Alan Watt, Fundamentals of Three-Dimensional Computer Graphics. 2. Aufl. Wokingham-Reading-Menlo Park-New York-Don Mills-Amsterdam-Bonn-Sydney-Singapore-Tokyo-Madrid-San Juan 1990, S. 353 f.
[2] Vgl. Friedrich Kittler, Real time analysis. Time axis manipulation. In: Draculas Vermächtnis. Technische Schriften. Leipzig 1993, S. 182 - 207.
[3] Martin Heidegger, Der Ursprung des Kunstwerks. In: Holzwege. Frankfurt/M. 4. Aufl. 1963, S. 15.
[4] Vgl. Arthur K. Wheelock jr., Vermeer and the Art of Painting. New Haven-London 1995.
[5] Vgl. Ernst Theodor Amadeus Hoffmann, Der Sandmann. In: Fantasie- und Nachtstücke, hrsg. Walter Müller-Seidel. München 1960, S. 362 f.
[6] Vgl. Michael Baxandall, Shadows and Enlightenment. New Haven-London 1995.
[7] Rainer Maria Rilke, Die Aufzeichnungen des Malte Laurids Brigge. Sämtliche Werke, hrsg. Ernst Zinn. Wiesbaden, Frankfurt/M. 1955 - 1966, Bd, VI, S. 854.
[8] Vgl. Benoît Mandelbrot, Die fraktale Geometrie der Natur. Basel 1991, S. ?.
[9] Zum folgenden vgl. Watt, Fundamentals, S. 154 - 156.
[10] Vgl. René Descartes, Les météores. In: Oeuvres et lettres, hrsg. André Bridoux. Paris 1953, S. 230 - 244.
[11] Zum Verfahren der Nusselt-Analogie, die Halbkugeln auf berechenbare Halbkuben herunterfährt, vgl. James D. Foley, Andries van Dam, Steven K. Feiner, John F. Hughes, Computer Graphics. Principles and Practice. 2. Aufl. Reading-Menlo Park-New York-Don Mills-Wokingham-Amsterdam-Bonn-Sydney-Singapore-Tokyo-Madrid-San Juan-Mailand-Paris 1990, S. 796.
[12] Vgl. Martin Heidegger, Die Zeit des Weltbildes. Holzwege, S. 69 - 104.
[13] Vgl. Friedrich Kittler, Farben und/oder Maschinen denken. In: Hyperkult, hrsg. XXX, YYY, ZZZ, S. AAA - BBB.
[14] Alan und Mark Watt, Advanced Animation and Rendering Techniques. Theory and Practice. Wokingham-Reading-Menlo Park-New York-Don Mills-Ontario-Amsterdam-Bonn-Sydney-Singapore-Tokyo-Madrid-San Juan-Mailand-Paris-Mexico City-Seoul-Taipei 1992, S. 293.