Friedrich Kittler

Hardware, das unbekannte Wesen

Physeos kategoria   
Periander    

Die Hardware, zumal von Computern, scheint in unseren Vorstellungen von Wirklichkeit nicht vorzukommen. Das liegt nicht nur an ihrer buchstäblich unvorstellbaren Komplexität, die es Benutzern (oder auf neudeutsch der Wetware) geraten sein läßt, ausschließlich mit Software umzugehen. Nur ist diese Unkenntnis nicht vom Himmel gefallen, sondern selber Effekt von Programmierungen. Eine famose, nämlich marktbeherrschende Softwareschmiede hat kürzlich die Parole ausgegeben, in naher Zukunft würden und sollten Computer so unauffällig wie Waschmaschinen werden - Black Boxes also, deren Innereien besagte Endbenutzer nichts mehr anzugehen brauchen. Jedes Wissen über die Hardware wäre unter Bedingungen vollendeter Benutzerfreundlichkeit schlichter Luxus und jeder Versuch, sie zu denken, nur Relikt eines obsoleten Maschinenzeitalters.

Nun hat aber dieselbe Softwarefirma sehr viel weniger lauthals, nämlich in einem internen Geheimmemorandum, auch noch die Parole ausgegeben, in naher Zukunft jene Einzelnen oder auch Endbenutzer ganz so zu behandeln wie Computer auch. Beide, heißt es wörtlich, seien "programmierbar". Das Versprechen waschmaschineller Unauffälligkeit kippt folglich in eine Drohung um, die ihrerseits nur möglich wird, weil Computer eine wohldefinierte oder eben programmierbare Hardware darstellen. Ob diese Programmierbarkeit auch für Menschen, also die sogenannte Wetware gilt, steht wie bei jeder Maschinenmetapher natürlich dahin, auch wenn jene Firma und mit ihr alle, die an soziokulturelle Auswirkungen der Neuen Medien glauben, unbefragt davon ausgehen. Jedenfalls muß, bevor über solche Fragen auch nur gesprochen werden kann, erst einigermaßen klar sein, was Programmierbarkeit von Hardware überhaupt besagt.

Die Antwort, um sie vorwegzunehmen, lautet: eine Paradoxie. Denn in jener guten alten Zeit, als auch Engländer und Amerikaner unter Hardware noch das Warensortiment von Eisenwarengeschäften verstanden, schloß der Begriff von Werkzeug den der Programmierbarkeit eher aus. Es gehörte zur (in Sein und Zeit zurecht gerühmten) Verläßlichkeit von Hämmern, sich nicht unter der Hand in Sägen oder Bohrer zu verwandeln. Selbst jene ebenso seltenen wie zukunftsträchtigen Werkzeuge, in denen sich die Unberechenbarkeit aller Zukunft materialisierte, hatten wenigstens darin verläßlich zu sein, daß sie - etwa im Fall des Würfels - nicht mit allzu ungleichen Wahrscheinlichkeiten auf ihre sechs Seitenflächen fielen. Für all diese Verläßlichkeiten bürgte jeweils ein Material, dessen Formbeständigkeit alle Bewegungen auf die einer elementaren Mechanik beschränkte.[1] Marmor, Stein und Eisen hieß es einst im deutschen Schlager, der die deutsche Panzer- und/oder Kfz-Produktion ja weiterhin beherrscht. Sicher, schon diese Mechanik reichte im Glücksfall hin, um einfache Rechenregeln oder Algorithmen zu implementieren. Die Vier-Spezies-Maschine, die der junge Leibniz einer staunenden Royal Society präsentierte, setzte das indisch-arabische Stellenwertsystem der Ziffern bekanntlich in eine Hardware aus dekadischen Zahnrädern um, die das Geschäft der vier Grundrechenarten erstmals automatisierte. Aber was dabei an Ziffern und Überträgen von Zahlrad zu Zahnrad rieselte, war lediglich ein Kalkül und noch kein Programm, das aus eigener Kraft Kalküle hätte starten, kontrollieren und wieder beenden können.[2]

Historisch begann Programmierbarkeit, so sie denn von Kalkülisierung unterschieden werden darf, wohl erst zu jener Zeit, als die Technologie von Werkzeugen zu Maschinen überging, anstelle der Einzelstückherstellung also die standardisierte Massenproduktion trat. Nachdem amerikanische Waffenfabriken schon im Bürgerkrieg Gewehre ausgeliefert hatten, deren Teile und Munitionen untereinander beliebig austauschbar waren, trieb der Erste Weltkrieg die Austauschbarkeit soweit, daß die Einzelteile des einschlägig bekannten Maschinengewehrs 08/15 auch in Fahrrad- oder Schreibmaschinenfabriken hergestellt werden konnten.[3] Erst solche wahrhaft modularen Systeme, wie Babbage wohl als erster sie für seine Protocomputer gefordert hatte,[4] dürften eine zumindest in Grenzen programmierbare Hardware möglich gemacht haben. Ein gutes Beispiel, das ich dem Informatiker Michael Conrad entnehme, wäre etwa das Kombinationsschloß, weil es im Unterschied zur Vier-Spezies-Maschine mit einer kombinatorischen Explosion von Möglichkeiten auf seine Umweltbedingungen reagiert. Ein solches Schloß jedoch, obwohl es im Wortsinn der Informatik durchaus "einen endlichen Automaten" darstellt, "läßt sich" bei aller Modularität doch "nicht in eine Menge elementarer Komponenten zerlegen, die rekonfiguriert werden könnten, um ein beliebiges physikalisches System zu simulieren. Das Kombinationsschloß ist folgerichtig nicht strukturell programmierbar und effektiv programmierbar nur in dem eingeschränkten Sinn, daß sich sein Zustand für eine begrenzte Klasse von Verhaltensweisen einstellen läßt." Niemand käme folglich auf den Gedanken, Kombinationsschlössern oder Vier-Spezies-Maschinen die Errechnung jener physikalisch sehr wohl begrenzten Klasse von Verhaltensweisen anzuvertrauen, die da Wetter heißt. Demgegenüber "ist ein digitaler Computer, der zur Simulation eines Kombinationsschlosses benutzt wird, strukturell programmierbar, weil dieses Verhalten durch Synthese aus einer kanonischen Menge elementarer Schaltgatter erreicht wird"[5] und, wie anzufügen wäre, genausogut das Wetter simulieren könnte.

Conrads Definition der strukturellen Programmierbarkeit hätte es mehr als verdient, durch Fakten und Daten aus einer noch recht unerschlossenen Technikgeschichte untermauert zu werden. Zu erzählen wäre etwa die dramatische Geschichte, wie Elektronenröhren seit 1920 mühsam dazu gebracht worden sind, ihre Eingangssignale nicht mehr einfach und das heißt analog zu verstärken, sondern vielmehr zu zählen und das heißt in digitalen Ziffern auszugeben. Zu erzählen wäre auch, wie die noch für Babbage unantastbaren Unterscheidungen zwischen Zahlen und Wahrheitswerten, Daten und Befehlen bei Turing oder Von Neumann implodiert sind, um Programme mit Rekursionen, also mit einer Programmierbarkeit im Quadrat auszustatten. Statt dieser länglichen Technikgeschichte eines halben Jahrhunderts genügt aber womöglich ein Zitat von Jacques Lacan, der schon 1955 in einem erstaunlichen Vortrag die Programmierbarkeit von Hardware am schlichten Symbol der Tür beschrieben hat:

"Die Tür", heißt es bei Lacan, "ist ein wahres Symbol, das Symbol vor allen anderen, dasjenige nämlich, an dem sich durch das Kreuz, das sie zeichnet und das Öffnung und Schließung verkreuzt, der Durchgang des Menschen immer wird erkennen lassen.

Seit dem Augenblick nun, da man die Möglichkeit gemerkt hat, beide Züge der Tür aufeinanderzulegen und das heißt Schaltkreise als solche zu realisieren, bei denen etwas gerade dann durchgeht, wenn sie geschlossen sind, und etwas gerade nicht durchgeht, wenn sie offen sind, seit diesem Augenblick ist die Wissenschaft vom Kalkül in die Implementierungen der Computertechnik übergegangen. Wenn es Maschinen gibt, die von allein rechnen, also Summen und Integrale bilden und alle Wunder vollbringen, die der Mensch bislang für das Eigenste seines Denkens gehalten hatte, dann nur, weil die Fee Elektrizität, wie man so schön sagt, uns den Bau von Schaltkreisen erlaubt, von Schaltkreisen, die sich öffnen und schließen, sich unterbrechen und wiederverbinden - und all dies in Funktion des Gegebenseins informatischer Türen."[6]

Die unnachahmliche Eleganz, mit der Lacan die Paradoxie programmierbarer Hardware auf den Punkt gebracht hat, sollte nur nicht vergessen machen, daß alle Logik seines Arguments von einem Existenzquantor abhängt. Nur sofern und soweit Feen vom Typ der Elektrizität erschlossen sind - und zwar auf ihre Programmierbarkeit hin -, werden Schaltungen machbar, die wie das grundlegende Flipflop der Elektronik einen kontingenten Eingangszustand, weil sie ihn sozusagen verriegeln, bis auf Widerruf speichern oder merken können. So weiß man zum Beispiel heute (im Unterschied zu 1955), daß auch bestimmte ausgesuchte Eiweißmoleküle informatische Türen bilden oder daß die prinzipielle Möglichkeit nicht ausgeschlossen ist, Flipflops statt auf der Basis von Leiterelektrizität auf der viel schnelleren von Licht zu realisieren. Ob solche Biochips oder Optocomputer jemals zu industrieller Serienreife gelangen, hängt nurmehr davon ab, ob sie sich genauso weitgehend miniaturisieren lassen, wie das der Siliziumtechnologie im den letzten vierzig Jahren gelungen ist.

Aber man braucht den Propheten gar nicht zu spielen. Schon die bloße Möglichkeit, jene Rückkopplung von Schließung und Öffnung, wie sie Schaltkreise spezifiziert, in anderen Medien als dem herrschenden Zwillingspaar aus Siliziumoxid und Silizium zu implementieren, deutet auf eine weitere Paradoxie der Hardware. Für strukturell programmierbare Maschinen sind bestimmte physikalische Parameter offenbar ebenso notwendig, wie sie ersetzbar sind. Einerseits stünde das mathematische Grundprinzip der Turingmaschine von 1936 ohne die elektronische Hardware, die ihm 1949 als Transistor zufiel, vermutlich noch heute bloß auf dem Papier einer unschuldigen Dissertation, würde also nicht über Leben und Tod nicht nur von Airbuspassagieren bestimmen. Der weltweite Triumphzug von Computertechniken, mit anderen Worten, wäre als Emanation reiner Mathematik nur mißverstanden. Andererseits aber macht es gerade den Unterschied zwischen programmierbarer und nichtprogrammierbarer Hardware, daß die Programmierbarkeit auch Materialeigenschaften nurmehr als Formalitäten veranschlagt. An die Stelle jener Verläßlichkeit, die Materialien wie Leder oder Kruppstahl bis zum Zweiten Weltkrieg ebenso sprichwörtlich wie unersetzlich machte, ist eine systematische Jagd getreten, die die ehedem sogenannte Natur auf mögliche Computeräquivalente hin durchtestet. Die starke Form der Post-Turing-Hypothese, derzufolge die Natur selber ein gigantischer Digitalcomputer ist, erfährt zwar keinen physikalischen Beweis, den es wohl auch nie geben wird, aber meßtechnische Approximationen. Was immer von Digitalschaltungen als mögliche Digitalschaltung erkannt wird, landet im Pool programmierbarer Materien. So unersetzlich die Hardware im allgemeinen also für Rechenleistungen und Speicherkapazitäten bleibt, so ersetzbar ist jede Hardware im einzelnen geworden.

Diese Ersetzung spielt auf zwei Ebenen zugleich. Auf der technischen Ebene kann jede Hardware selbstredend nur durch eine andere ersetzt werden, vor allem weil die computertechnisch unabdingbare Funktion der Speicherung als bloße Software unmöglich realisierbar wäre. Auf einer logischen Ebene jedoch läßt sich jede Hardware, sofern es nur um Speicherung des an ihr Programmierbaren geht, gerade auch durch Software ersetzen. Deshalb gibt es schon seit etwa zehn Jahren jeden Computerschaltkreis zweimal: erstens und selbstredend auf dem Siliziumchip, der ja hunderttausende gleicher Schaltungen ein zweitesmal verschaltet; zweitens aber auch noch als Computerprogramm, das alle elektrischen Parameter jenes Schaltkreises einigermaßen standardisiert speichert und das heißt sein Schaltverhalten zu simulieren erlaubt. Neue Computergenerationen zu konstruieren heißt seitdem nicht mehr, die einzelnen Hardwarekomponenten mechanisch oder elektrisch zusammenzusetzen; das würde alle verfügbaren Ingenieursmannjahre bei weitem übersteigen. Konstruieren heißt vielmehr, jene sogenannten Schaltungsbibliotheken unter Programmsteuerung aufzurufen, zu verknüpfen und auf ein Optimum hin durchzutesten. In Extremierung dessen, was seit Gutenberg, aber auch erst seit Gutenberg technische Zeichnung heißt, fällt der Hardwareentwurf mit seiner eigenen Simulation zusammen, weil die anschließende Realisierung der Hardware selber überlassen bleiben kann. Computed Aided Design, mit anderen Worten, ist und bleibt auf nichttriviale Weise selbstreferenziell; im Computer Aided Computer Design erfüllt sich sein Begriff.

Solche Fakten jedoch, bei aller ingenieursmäßigen Eleganz, werfen ein theoretisches Problem auf. Es ist offenbar ihre Programmierbarkeit selber, die die Hardware von heute zum unbekannten Wesen verdammt. Schaltungsbibliotheken für Ingenieure fungieren ganz so wie Reinsträume für Fabrikarbeiter, die typischerweise Frauen aus Malaysia oder Indonesien sind: Beide belegen sie Computerhardware mit einem Berührungsverbot. An die Stelle von Heideggers Hammer, der zu schwer oder zu leicht, jedenfalls aber stets in der Hand lag, ist eine Immaterialität gerade des Materiellsten getreten.

Diese Immaterialität hat auch einen Namen. Er lautet Software und dient zur Verbreitung der frohen Botschaft, daß (um das famose Cyberspace Manifesto zu zitieren) heutzutage "der Geist über die rohe Macht der Dinge" im allgemeinen und den Rohstoffmaterialismus des 19. Jahrhunderts im besonderen gesiegt habe. Hardware wäre, mit anderen Worten, kein bloß unbekanntes Wesen, sondern ohne jeden Belang. Ein neuerliches Reich der Freiheit, auch als Software oder Vernetzung bekannt, könnte den Deutschen Idealismus endlich implementieren. Wie König Midas, dem alles, was er anfaßte, im Guten wie Bösen zu Gold wurde, wären wir außerstande, auf Hardware auch nur zu referieren, ohne sie immer schon in Software zu verwandeln. Wie Hegels Geist, der ja ebenfalls als Sieger aus der Unmöglichkeit hervorging, das Buchpapier, auf dem er selber stattfand, zu bezeichnen,[7] wäre Software die einzige Weise, Hardware zu wissen. Es bliebe also nur übrig, diese Unmöglichkeit zu positivieren, die angeblich natürlichen Sprachen Schritt um Schritt in Programmiersprachen zu überführen und alle derart transformierten Semantiken miteinander zu vernetzen - schon hätte "der Geist über die rohe Materie gesiegt".

Solch monströsen Ansprüchen gegenüber, die ja nicht zufällig einem Land entstammen, dessen Computerhardware weiterhin die Weltstandards setzt, ist vielleicht der Hinweis erlaubt, daß der Geist namens Software als Emanation der Hardware selber entstanden ist. Es war die schiere Unmöglichkeit, über alle Schaltzustände einer Computerhardware Bescheid zu wissen, die schon in der Frühzeit ihrer Technologie zur Einführung von Abstraktionen geführt hat. Das menschliche Kurzzeitgedächtnis ist in dramatischem Unterschied zu Turingmaschinen außerstande, kombinatorische Explosionen zu speichern. Also stellten höhere Programmiersprachen, deren Konstrukte von einem maschinennäheren Programm, dem Interpreter oder Compiler, erst noch in ausführbaren Code übersetzt werden müssen, die Grundlage her, auf der sich mittlerweile ganze Türme von Softwarehierarchien errichtet haben. Diese wahrhaft babylonische Kunst erreicht heute solche Höhen, daß im Rekordfall noch die Maschinensprachen selber emuliert werden können oder, mit anderen Worten, auf einer Hardware A die Funktionen einer anderen Hardware B ablaufen. Seitdem Alpha-Prozessor gelernt haben, Intel-Prozessoren zu emulieren, die ihrerseits Power PCs emulieren, scheint das maschinenunabhängige Reich der Freiheit bereits ausgebrochen. Am Horizont stünde eine universale Portabilität, die alle Computertechnologie schließlich in eine reine Syntax atomarer und insofern unstrukturierter Elemente auflösen würde.[8]

Dem bleibt jedoch entgegenzuhalten, daß Simulation und Emulation ihren Zweck nur erfüllen, solange sie jene kontingente Zukunft, um deren Berechnung es schließlich geht, nicht selber verbrauchen. So prinzipiell möglich es wäre, das Wetter von morgen auf Turings Prinzipcomputer von 1936 zu berechnen, so ausgeschlossen wäre es auch, das Ergebnis dieser Vorhersage vor Eintritt des morgigen Wetters selber abzuholen. Die formale Austauschbarkeit von Software und Hardware gilt mithin nur in Bereichen, deren Daten keine oder doch zu vernachlässigende Zeitindizes tragen. Für Operationen über Strings, die selber schon als symbolische Zeichenketten vorliegen, reicht Turings Prinzipschaltung aus Lese/Schreibkopf und Endlospapierband vollkommen hin. Weshalb denn auch allen, die ihre Computer nur als bessere Schreibmaschinen verwenden, die Hardware weiter das unbekannte Wesen bleiben darf. Bei Operationen über Daten, die Signale im Sinn der Nachrichtentechnik oder Meßwerte im Sinn der Physik sind, entscheidet dagegen die Hardware über Möglichkeit oder Unmöglichkeit selber. Sobald nämlich Fragen des Speicherplatzes oder der Rechenzeit zählen, wird die Abstraktion von Hardware auf Software unhaltbar. Die Operationen lassen sich nicht mehr auf syntaktische Verküpfungen unstrukturierter atomarer Elemente reduzieren, weil ihre Durchführbarkeit gerade von der Struktur diese Elemente abhängt. Solange der unwidersprochene Geiz von Hardwareherstellern es fertigbringt, den Entwurf und Einbau assoziativer Speicher oder paralleler Multiplizierer zu umgehen, finden bestimmte Programme einfach nicht statt.[9] Entscheidend wird also, ob ein Schaltgatter den Raum eines Kombinationsschlosses oder aber den eines hochintegrierten Transistors füllt und ob der programmierte Schaltvorgang in der Zeit von Stunden oder Nanosekunden terminiert. Keine Software der Welt ist aber imstande, solche Probleme der Skalierung auch nur zu repräsentieren; bestenfalls gelangen Programmiersprachen bis zur ebenso drakonischen wie opaken Deklaration, daß die zugelassenen Datentypen bestimmte implementationsabhängige Maxima nicht übersteigen dürfen. Umgekehrt definiert es programmierbare Hardware geradezu als solche, daß sie ihre in der entsprechenden Hardwarebibliothek auch repräsentierten Maxima und Minima muß einhalten können. Solche Rahmenbedingungen, wie sie bemerkenswerterweise bis zum Wetter reichen, das Siliziumchips überhaupt vertragen, reduzieren Turings Universale Diskrete Maschine auf eine Technologie, die grundsätzlich nur über begrenzte Ressourcen verfügt und damit selber einen Teil jener Welt bildet, deren Berechnung sie übernimmt.

Dieser Absturz vom Himmel des Kalküls zur Erde der Implementierung ist unverwechselbar anders als jener Platonismus, in dessen Licht die Softwarepropheten ihn interpretieren. Es geht keineswegs darum, daß alle Dreiecke oder Schaltkreise, die Menons berühmter Sklave in den Sand Athens oder das Silizium von heute zeichnen könnte, das sokratische Ideal eines vollkommenen Dreiecks notwendig verfehlen. Programmierbare Hardware ist keine Trübung oder Verrauschung, die die Physik mit ihren unübersteigbaren Grenzwerten einer idealen Software antun würde, sondern gerade umgekehrt eine Struktur eigenen Rechts, die jede Software zur Berücksichtigung ihrer Gesetze zwingt.

Um dieses ausschlaggebende Argument wenigstens zu illustrieren, bleibt nur übrig, eine reale Schaltung anzuführen. In der Logik, die aber seit George Boole zur Schaltalgebra und seit Claude Shannon zur digitalen Schalttechnik mutiert hat, gibt es bekanntlich die Negation. Ganz entsprechend geben Schaltgatter, die im Jargon Inverter heißen, am Ausgang den Wert falsch zurück, wenn der Eingangswert wahr hieß, und umgekehrt. In keiner Logik, mithin aber auch in keiner Software, taucht dagegen eine klassische Inverterschaltung auf, die schon seit Turings Tagen alle Digitalcomputer wahrhaft dominiert. Diese Schaltung nämlich spart den Eingang zwar nicht ein, schließt ihn jedoch mit dem Ausgang kurz. "Sein - unmittelbar Nichts", hätte Hegel womöglich kommentiert, aber auch damit den Schaltungstrick nicht getroffen. Denn was in Softwarebegriffen blanke Absurdität wäre, funktioniert als Hardwaretechnologie sehr wohl. Aus dem schlichten physikalischen Grund, daß es seit Einstein eine absolute Geschwindigkeit gibt, sind Eingang und Ausgang nie vollkommen synchron, anders gesagt, sie heben einander weder in blankem Kurzschluß noch in spekulativer Logik auf. Anstelle beider Unmöglichkeiten tritt vielmehr ein Grundbaustein aller lauffähigen Digitalcomputer: die getaktete Zeit. Weil jeder beliebige Eingangszustand der Schaltung nach seiner unvermeidlichen Verzögerung das eigene Gegenteil bewirkt, wechseln die Wahrheitswerte falsch und wahr am Ausgang eines rückgekoppelten Inverters so schnell und so regelmäßig, daß sie allen anderen Hardwarekomponenten eine systeminterne Zeit vorgeben können. So einfach wird es machbar, von Neumanns sequenzielle Softwarestruktur zu implementieren oder, schlichter noch, Turings beiläufigen Satz wahr zu machen, demzufolge "wir" in der Computertechnik "die Zeit als diskret behandeln".[10]

Die Sequenzialität von Computern hat also, allem Anschein zum Trotz, mit der mathematischen Nachfolgerrelation seit Peano nichts zu schaffen (zumindest solange jene Nachfolge ohne Zeitverbrauch abläuft). Genausowenig jedoch wäre sie mit der Verrauschtheit oder Unschärfe von Platons Erdenwelt, die schlimmstenfalls kleine Arhythmien jenes endlosen 0/1-Strings verursacht, zureichend erklärt. Was programmierbare Hardware ist und sein kann, gründet vielmehr auf einer technischen Struktur, sozusagen einer konkreten Allgemeinheit, die nurmehr von physikalischen Konstanten und einer topologischen Geometrie abhängt. Im Fall rückgekoppelter Inverter hieße diese Topologie Möbiusband, im Umkehrfall dynamischer Speicherchips dagegen Torus.

Solche Strukturen unterscheiden die programmierbare Hardware nicht nur von jeder Software, deren Topologie immer auf den eindimensionalen Fall von Eingabe- und Ausgabestrings herunterzurechnen ist, sondern auch vom zugegebenermaßen platonischen Ideal durchgängiger Programmiertheit. Schaltungen, mit anderen Worten, führen die ihnen zugedachten Operationen aus, sofern und solange die Verrauschtheit von Platons Erdenwelt nicht dazwischenfährt. Ihre Funktionalität, alles andere als ernötigt oder kausiert, ist (wie jeder Blick in Datenblätter lehrt) lediglich verbürgt. Um sie zu erzwingen, müßten die Hardwarearchitekturen alles, was auch sie als atomar oder unzerlegbar voraussetzen, seinerseits modulalisieren und das heißt durchstrukturieren - ein unendlicher Regreß der Fraktalbildung, der immer mit den Grenzen technologischer Machbarkeit zu kämpfen hat.

Nun sind aber diese technologischen Grenzen keine Konstanten - und zwar vermutlich eben darum, weil es Computertechnologien gibt. Wenn innovative Firmen wie etwa Silicon Graphics ihre nächste Maschinengeneration planen, gehen sie grundsätzlich von Komponenten aus, die noch gar nicht lieferbar sind. Solches Bauen ins Blaue scheint vermessen im griechischen Wortsinn, ist es aber nicht. Denn die Festkörperphysik, deren Befunde allen Verfahren des Halbleiterentwurfs und der Ionendotierung zugrundeliegen, ist mit dem Resultat dieser Verfahren, der existierenden Computerhardware nämlich, wieder rückgekoppelt. Hochtechnologie scheint die erste Technologie, deren Hybris sich auszahlt. Nicht viel anders als beim rückgekoppelten Inverter wirken leistungsfähigere Rechenverfahren zurück auf die Theoriebildung, die dann ihrerseits leistungsfähigere Festkörperarchitekturen entwerfbar macht. Schon jetzt ist absehbar, daß eine solche computergestützte Physik die momentan noch definitive Grenze des Moleküls unterlaufen wird können, um die elementaren Schaltgatter der Zukunft auf quantenmechanische Maße und Gesetze zu reduzieren. Die Entdeckung von Strukturen in Gegebenheiten, die vordem als unzerlegbar galten, verliert jeden Anschein theoretischer Haarspalterei, sie gerät zur Möglichkeitsbedingung ihrer Implementierung. Villeicht gibt es die Kernphysik gar nicht, um ebenso neue wie umstrittene Energiequellen zu erschließen, sondern um Informationsquellen physikalisch zu optimieren. So und nur so wird, allerdings hinter dem Rücken einer Informatik, die aus Hilberts Paradies geschlossener Softwarewelten nicht wieder vertrieben werden möchte, die Grenze zwischen Physik und Computertechnik immer durchlässiger. Was dieser "Zweiwegeverkehr"[11] an Strukturen zutage fördert, ist unabsehbar und im Glücksfall auch mehr als bloße fraktale Wiederkehr des Gleichen auf Stufen niederer Skalierung. Wenn zum Beispiel die Computergraphik, um den leicht amerikanisierten Photorealismus ihrer Linearperspektiven noch zu steigern und das heißt zu verrauschen, auf Partikelmodelle und Pfadintegrale rekurrieren muß, die bislang nur in der Kernphysik zählten, mag bloßer Modelltransfer stattfinden.[12] Aber wenn zum Beispiel die heute projektierten Quantencomputer ihr Versprechen tatsächlich einhalten sollten, mehr als das klassische eine Bit pro Schaltelement speichern zu können, schlüge eine Hardwareentwicklung in direkter Auswirkung auf Software oder Logik durch.

Doch auch unabhängig davon, was die Zukunft noch bringen mag, scheint es wissenschaftlich entscheidend, auf eine Vielzahl möglicher Hardwarearchitekturen zu wetten, statt sie alle auf das Singularetantum universaler Portabilität oder Emulation zu reduzieren. Daß alles, was in Turings Wortsinn berechenbar ist, auf einer eindimensionalen Turingmaschine laufen kann, besagt noch lange nicht, daß es auf ihr auch laufen muß. Womöglich ist einer Vielzahl nichtlinearer Systeme, wie die heutige, also computergestützte Physik sie beschreibt, mit einer entsprechenden Vielzahl von Maschinentypen besser gedient. Solche Typen müßten nicht alle in Turings Wortsinn universal sein, hätten dafür aber eine Fähigkeit zur Umkonfigurierung, die atomare Gegebenheiten, je nach Aufgabe, auf Strukturierbarkeiten umschalten könnte und ungekehrt. All jene Sensoren und Effektoren, die von der Hardware her bislang als triviale Input- oder Output-Ports und von der Software her[13] gar im Unbegriff von Pseudodateien figurieren, ließen sich endlich skalierbar konfigurieren. Und Native Computing, dieses ebenso große wie gebrochene Versprechen der Firma Intel, Symbolketten und Meßwerte auf demselben Chip prozedieren zu können, würde doch noch wahr.

Jeder Blick auf aktuelle Hardwarekomponenten lehrt das gerade Gegenteil: Symbolverarbeitende Chips und digitale Signalprozessoren, im Zeitverhalten also chaotische und deterministische Chips, bleiben durch Welten getrennt. Anstelle von hundert Blumen dominiert die Symbolverarbeitung und innerhalb ihrer eine in Maßen superskalare Standardarchitektur.[14] Aber daß es die versprochene Bandbreite der Variation bislang nur in Ansätzen oder Randbereichen gibt, liegt beileibe nicht an der Technologie. Im Unterschied zu aller Hardware der Geschichte hat die programmierbare Hardware in den fünfzig Jahren ihrer Existenz bislang ein Entwicklungstempo vorgelegt, das ihre Leistungsfähigkeit - so Gordon Moores Gesetz - aller achtzehn Monate schlicht verdoppelte. Solche Früchte trägt der Zweiwegeverkehr zwischen Festkörperphysik und Schaltungstechnik. Aber gerade die ungeheure Beschleunigung gegenüber den Evolutionsraten natürlicher wie auch kultureller Systeme, die ja in Jahrmillionen oder doch Jahrhunderten rechnen, hat Probleme aufgeworfen, die schließlich die NATO höchstselbst auf den denkwürdigen Namen Softwarekrise taufte. Programme scheinen, anders gesagt, außerstande, mit der Hardware-Evolution noch mitzuhalten, einfach weil Programmierer nicht aller achtzehn Monate doppelt so gut programmieren. Die Schere, die sich damit zwischen Hard- und Software auftut, lädt aber zu bracchialen Lösungen nachgerade ein. Die naheliegendste unter ihnen ist es wie üblich, das Verhalten bekannter Systeme auf die unbekannten zu projizieren und deren Freiheitsgrade damit drastisch einzuschränken. So kommen Computer auf den Markt, über deren Architektur weniger der Stand der Kunst bestimmt als vielmehr eine Vorgeschichte oder Firmenbürokratie, die umstandslos in Hardware kristallisiert. Und falls das Softwareideal vom Computer als besserer Waschmaschine jemals triumphieren sollte, wäre diese Bürokratisierung perfekt: Über der Hardware, ihrer Programmierbarkeit zum Trotz, fiele eine unwiderrufliche Deckelhaube zu.

Den Eintritt dieses Zufalls zu verhindern scheint ein eminent politisches Ziel. Wenn Computer die ersten Maschinen sind, die die Kontingenz oder Unberechenbarkeit einiger, nicht aller Zukünfte um endliche Grade vermindern können, sollte ihre eigene Kontingenz so offen wie möglich bleiben. Die Entwicklung möglichst komplexer und möglichst vielfältiger Hardwareplattformen ist daher eine Aufgabe, an der zum Beispiel Europa, von der bewundernswerten Ausnahme des Transputers abgesehen, bislang noch kaum teilgenommen hat. Wenn mein Beitrag zur Ringvorlesung es vermocht hätte, diese Aufgabe wenigstens wahrnehmbar zu machen, wäre ein Teilziel schon erreicht. Wenn jemand hinginge und all jene Programme, die bislang unterm Titel Philosophiestudium liefen, in Hardware gießen würde, das Ziel selber.

Damit habe ich freilich noch immer nicht die Frage beantwortet, welche Auswirkung die Neuen Medien auf soziokulturelle Vorstellungen haben. Die Ausrede, daß ich es nicht weiß, verschlägt wenig. Aber womöglich ist unter hochtechnischen Bedingungen, wo Personen, Programme und Prozessoren zusammen eine Kultur bilden,[15] das Beharren auf dem Sozialen selber eine der bürokratischsten Fesseln, um Hardwareentwicklungen zu behindern. Hier in der Rostlaube einer verflossenen Revolution, die eben dies nicht begriffen hat, stärkt es jedenfalls das Gemüt, an die älteste Ethik Europas zu erinnern. Laut Aristoteles "ist es nämlich unsinnig, wenn einer behauptet, die politische Wissenschaft sei die höchste Wissenschaft. Denn der Mensch ist nicht das Beste, was es im Kosmos gibt."[16]


[1] Vgl. Hans-Dieter Bahr, Tropisches Denken. Entwürfe phänomenologischer Landschaften. Wien 1994, S. 34 f.

[2] Dies ist die These von Bernhard J. Dotzler, Papiermachinen. Versuch über Communication & Control in Literatur und Technik. Berlin 1996.

[3] Vgl. demnächst Peter Berz, 08/15. Ein Standard des 20. Jahrhunderts. Diss. masch. Berlin 1997.

[4] Vgl. Anthony F. Hyman, Charles Babbage, 1791-1871. Philosoph, Mathematiker, Computerpionier. Stuttgart 1987.

[5] Michael Conrad, The Prize of Programmability. In: Rolf Herken (hrsg.), The Universal Turing Machine. A Half-Century Survey. Hamburg-Berlin 1988, S. 289.

[6] Jacques Lacan, Le séminaire, livre II: Le moi dans la théorie de Freud et dans la technique de la psychanalyse. Paris 1978, S. 347 (freie Übersetzung).

[7] vgl. Georg Wilhelm Friedrich Hegel, Phänomenologie des Geistes, hrsg. Johannes Hoffmeister. 6. Aufl. Hamburg 1952, S. 88.

[8] Vgl. Robert Rosen, Effective Processes and Natural Law. In: Herken (hrsg.), S. 534.

[9] Oder aber die Informatik kapriziert sich (im Fall fehlender Parallelmultiplizierer) auf den Überfluß von Algorithmen, die etwa im Bereich linearer Algebra n^3 Matrizenmultiplikationen zu 2*n^3 Additionen 'wegoptimieren'.

[10] Alan Turing, The State of the Art. In: Intelligence Service. Ausgewählte Schriften, hrsg. Bernhard Dotzler und Friedrich Kittler. Berlin 1986, S. 192, und den Beitrag von Georg Fleischmann (in diesem Band).

[11] David Finkelstein, Finite Physics. In: Herken (hrsg.), S. 349.

[12] Mitteilung von Rolf Herken/Berlin.

[13] Bei aller Bewunderung für Kernighan, Ritchie, Thompson und Unix...

[14] Superskalar: Mehrere Befehle, falls ihr Microcode trivial und ihre Abfolge unproblematisch ist, können gleichzeitig abgearbeitet werden.

[15] Vgl. Manfred Faßler, Mediale Interaktion. Speicher, Individualität, Öffentlichkeit. München 1996.

[16] Aristoteles, Nikomachische Ethik, V 7, 1141 a.