Friedrich KittlerInterviewStefan Heidenreich, Pit Schultz, 12-22-1993 |
Stefan: Wir hatten uns gedacht, wir sollten noch einmal auf die, wie sie in Real Time Analysis sagen, Umschaltung von Nieder- auf Hochfrequenztechnik kommen, und deren Auswirkung auf den Zeitbegriff.. Kittler: Bevor wir jetzt zu Hochfrequenz springen und diese Opposition so ganz binär ansetzen, ist es vielleicht sinnvoller, zunächst einmal den Niederfrequenzbereich nach oben und unten einzuschränken. Es ist ein Band, das die Augen und Ohren haben, bleiben wir einmal bei den Ohren, weil das am sinnfälligsten ist, es ist ein stehendes Band, das den Ohren als Klang oder als Ton begegnet, und sowohl oberhalb wie unterhalb setzen die Ohren aus. Im subsonischen Bereich, in dem die Rockgruppen ihre Basslautsprecher installieren, das ist genauso spannend wie der Hochtfrequenzbereich, der oberhalb der h–rbaren Frequenz liegt. Und alles was eingreift ins das H–rbare, quasi ästhetische Material, kommt entweder von unten oder von oben. Das finde ich schon einmal spannend. Daß langsamere Prozesses als die, die im Ohr zu hörbaren Tönen verschmolzen werden den Tönen eine andere Qualität geben. Der schlichteste Fall ist das Vibrato, das absolut niederfrequent sein muß, um nicht selbst wie ein Ton anzukommen. Es gibt zwar auch Synthesizer, bei denen das Vibrato etwas zu schnell eingestellt ist, zwischen 10 und 20 Hertz, wo es schon fast in den hörbaren Bereich hineineinreicht, wo das Vibrato dann als ein Brummen über dem Ton liegt. Bei 5 Hertz ist das Vibrato wunderbar im Timing. Aber dadurch legt man natürlich zwei Zeiten, die die Ohr als unterschiedliche Zeiten erfahren, übereinander. Der Hochfrequenzbereich ist deshalb wesentlich spannender als der Tiefstfrequenzbereich, der subsonische, den ich gerade angesprochen habe, weil er als einziger eine Analyse des Niederfrequenzbereichs erlaubt. Indem er selbst hunderttausende oder milionenmal schneller ist, führt er eine eine Analytizität ein, die dem Tiefsttonbereich im Verhältnis zum hörbaren Bereich nicht gegeben ist. Der Hochfrequenzbereich funktioniert wie eine Differenzierung mathematisch gesehen, und der andere, der Vibratobereich, wie ein Integral über dem, was man hört. Und Analyse ist Differenzierung oder Differenzenbildung im binären oder digitalen Fall. K: Die Form ist gar nicht so alt. Vor dem Vibrato war der Triller, der ganz anders funktioniert hat, indem er das auf zwei anspielbare Töne fetsgelegt hat. Und erst seit Philip Emmanuel Bach, das verdanke ich der meisterlichen Dissertation von Wolfgang Scherer, gibt es so etwas wie die Bebung in der Musik und zwar damals definiert interessanterweise als der Ausdruckdes Subjekts selber, mitten in dieser angeblich doch so subjektlosen. nämlich wohltemperiert gedachten Bachianischen Musik. Das Vibrato kommt ungefähr 1760 auf, wird recht schnell mit all dem korreliert, was Albrecht von Haller zu dem Thema Reizbarkeit der Seele beschrieben hat, und ist dann die Stelle, wo die Seele in die Musik reinfunkt. Aber zurück zu den Höchstfrequenzen: wir reden ja immer noch von Systemen, in denen es nur die Gegenwart gibt, es wird also in actu auf den hörbaren und Niederfrequenzbereich angewendet. Ich bringe das immer durcheinander, die unterscheidung die (Tietze-Schrenk?) zwischen Schaltnetzen und Schaltwerken macht. Das eine von beiden ist auf jeden Fall eine reine Gegenwart und läßt das Signal sofort durchrieseln, wie man sagen würde in der Theorie dieser noch nicht so richtig gebauten Fließcomputer, und das andere ist ein System mit Vergangenheit und Gedächtnis und kommt aus seiner Vergangenheit wieder auf sich zurück und erst an der Stelle wir es spannend, denn dieses Auf-sich-selber- Zurückkommen aus der Vergangenheit, indem man eben Spechereinheiten vom Flipflop angefangen bis zu höheren Stufen einbaut, ist in sich paradoxerweise - ich red jetzt ziemlich leichtsinnig daher- die Bedingung der Möglichkeit dafür, durch dieses Sich-Merken von Vergangenheiten, der letzten Systemzustände zugleich in die Zukunft hineingehen zu können, natürlich nicht faktisch, weil die Zukunft nicht betretbar ist, aber in der Approximation gibt es dann so etwas wie Zukunftsvorhersage. Wenn das System sich jeweis nur den aktuellen Wert merkt, ist es derart vergeßlich, daß es überhaupt keine Tendenz in die Zukunft hinausprojezieren kann, also ist die Retention, wie Husserl gesagt hätte, also das Sich-Merken der letzten zehn Werte die Bedingung der Möglichkeit dafür, einigermaßen optimistich und approximativ gut auf den elften, noch anstehenden Wert zu kommen, also lineare Trajektion ist ein Beispiel. Das seit Norbert Wiener, seit das Problem des Vorhaltens beim Flakschießen aufgetreten ist. Weil die Flugzeuge wesentlich schneller waren als die armen Soldaten, auf die vor der Erfindung des Flugzeugs geschossen werden mußte. Das geht nur im Höchstfrequenzbereich, weil die Vorhersage selbst Zeit frißt. Sie verfrißt die Zeit, in die sie vorankommen will jenseit der Gegenart mit ihren eigenen Berechnungen. Deshalb sollte es schnell gehen und deterministisch sein, so daß zu einer bestimmten Zeit ein bestimmtes Ergebnis vorliegt. Man kann das ganze auch etwas plausibler machen an so Sachen wie der Wettervorhersage. S: Aber Wettervorsage besitzt auch nur einen bestimmten Grad von Wahrscheinlichkeit und verliert sich dann in einer Unschärfe. K: Das wird immer so feierlich verkündet. S: Glauben sie, daß die perfekte Wettervorhersage möglich ist ? Anders gesagt: ist der Laplace'sche Dämon programmierbar? K: Kein Mensch interessiert sich ja für das Wetter in 130 Millionen Sekunden,also Ende nächsten Jahres, und zwar präzise auf diesen Zeitpunkt, aber die Differentialgleichungen, mit denen es berechnet wird stammen von irgendeinem Norweger Anfang dieses Jahrhunderts. Es ist eben nur furchtbar aufwendig, Differentialgleichungen im 3-D-Raum zu lösen, worauf das Wetter ja hinausläuft. Es liegt ja auch mehr an dem Mangel von Meßpunkten bislang. Ich glaube in den Modellen sind die relativ weit. Das Problem ist eben nur, daß Computer nicht zwei von den drei Tagen, auf die sie das Wetter vorauberechnen, damit verbringen, die Differentialgleichungen zu knacken, die dafür zuständig sind. Alles nur als Annäherungen. Der Laplace'sche Dämon wird nicht irgendwie in eine Maschine einziehen. Aber ich sehe immer nicht, wie die Fraktalfritzen die Differentialgleichungen in der Meteorologie aus der Welt schaffen wollen. In den Fraktalen ist von Haus aus überhaupt keine Zeit eingebaut als Funktion. Man kann die beliebig durchlaufen nach allen möglichen Richtungen, also an diesen Grenzen, wo die Sachen interessant werden, und so etwas wie Gesetze der Ÿnderung sind da nicht drin, wie in guten alten Leibniz-Tagen. S: Also ist das Fraktal generell als Simulationsmodell nicht tauglich ? K: Also mir scheint es als geometrisches Simulationsmodell, und Mandelbrot ist ja in die Geometrie und die natürliche Geometrie vermengt, wunderbar geeignet und als Sache für delta t, um jetzt die alte Gruppe zu zitieren, überhaupt nicht geeignet. S: Aber wenn das gegenwärtige Wetter mit einer Mandelbrot-Figur beschrieben werden kann, muß es dan nicht einen Weg egeben, diese Mandelbrot-Figur in die Zukunft zu projezieren, oder reicht es sie zu messen ? K: Es gibt nirgenwo in den Schriften von Mandelbrot eine Stelle, wo er sagt, in welcher Richtung man die Mutationen eines Fraktals zu durchlaufen hat. Man kann alle möglichen Wege da durch nehmen, das heißt unendlich viele, und die Bilder sind ja auch demgemäß. Ob man das jetzt zweidimensional oder vierdimensional macht. Es gibt kein Problem die Dimensionen auf meteoreologische Maßstäbe zu erweitern, nur es gibt keine Tendenz in diesen Dingern. Oder wenn man eine Tendenz denken will, dann müßte sie aus empirischen Befunden hergeholt werden. Also aus ihrerseits einem Wettermodell. Und die fraktale Berechnung anstelle des Knackens von Differentialgleichungen, was immer sehr aufwendig ist, hätte dann nur den Vorteil, Rechenzeit zu schinden, aber im Modell selber sehe ich nun überhaupt gar keine Ðbergangslogik. Pit: Es gibt jetzt zwei Fragen. Einmal in Richtung Erinnerung und Vorhersage, das Modell der künstliche Intelligenz, wo man versucht mit Expertenwissen Regeln zu formalisieren, und auf der anderen Seite das Problem von der Messung her, sozusagen vom stochastischen anzugehen, Richtung neuronale Netze und als Geschichte der Analogcomputer zu lösen. Die Frage wäre: wie modifizieren sich Modelle im Sinne der Reduzierung von Komplexität. Was würde auf Seiten der Hochfrequenztechnik als zukünftiges Simulationsmodell präferiert werden, Differentialrechnung oder eher Fuzzy-Rechentechniken ? K: Ich hatte noch nie ein Fuzzy-system laufen gehabt bei mir. Ich kenne es nur aus der Literatur. In der Genesis war die Fuzzy-logic doch ein Versuch, die Unschärfen der natürlichen Sprache in der allzu großen Schärfe von formalen Sprachen abzubilden oder wiederzufinden, und in der Hinsicht hat sie sich ja sehr bewährt, schon damals. Nur das sind Sachen von denen ich überhaupt nicht geredet habe, auch nicht von Expertenwisen. Und das ist ja letztlich der Fact, daß die Computer wie Menschen und das heißt: wie die Sprache der Menschen werden sollen, Menschen werden sie sowieso nicht. Aber ihre Sprachen können sie werden, wenn sie benutzerfreundlich und fuzzy-mäßiger würden. Aber ich denke, die Abläufe die meteorologisch oder einfach szientifisch die Zukunft betreffen, sind völlig jenseits des Bereichs der Alltagssprache. Die Alltagssprache wird immer noch sagen können: Wenn der Hahn kräht auf dem Mist, ändert sich's Wetter oder es bleibt wie es ist. Das sind halt die Bauernregeln. Und Sprache war völlig ohnmächtig, weshalb es ja die Wettergötter und Gewittergötter gibt, mit solchen Sachen, die aus dem Stochastischen in der Zukunft auf uns zukommen, umzugehen. Aber inzwischen sind die Fuzzy-logic-Systeme auch ziemlich gut, um Echtzeit- Steuersysteme zu betreiben, in denen komplexe Bedinungungen berücksichtigt werden müssen. Also in KKWs sind sie, soviel ich weiß, sehr beliebt. S: Ich weiß nicht, ob fuzzy-logic soweit weg ist von der Differenzierung. Es bedeutet doch nur, daß jede Variable mit einem Wahrscheinlichkeitsvektor versehen wird. P: Sicher, das wird abgebildet auf digitalen Maschinen. K: Aber die Zahlenrepräsentation durchläuft das Kontinuum von null bis eins, im Untrschied zur Boole'schen Algebra, die einfach zwischen 0 und 1 alteriert. Insofern ist es schon eine Sache, die sich von Haus aus genau diesen Verfahren wie der Differentialrechnung öffnet. Es sind ja doch klassische Funktionen, die da gebraucht werden. P: Nicht Simulation von Analogtechnik auf einen Digitalrechner. K: Die könnte man natürlich genausogut analog bauen, wenn man es schneller bräuchte. P: Der Analogrechner ist ja sozusagen natürlicher als der Digitalrechner indem er eine Unendlichkeit der Differenzen zuläßt. Fuzzy logic ist sozusagen diese Rückkehr des Naturprinzips von der Analogtechnik auf den digitalen Rechner. Das betrifft auch die Hochfrequenz und die Unendlichkeit der Zeitschritte oder Intervalle. K: Mein einzeges Problem ist, daß mit den neuronalen Netzwerken.. P: Ich wollte auf den Geschichtsbegriff nochmal hinaus. Nicht nur über Computertechnologie reden, wir müssen auch... K: Ich komme aber gleich .. meine kleinen Verdächtigungen gegenüber den neuronalen Netzwerken, die haben wieder etwas mit Zukunft zu tun. Es ist ja bekanntermaßen schwer, mit den klassischen digitalen Systemen Tendenzen zu erkennen oder Gestalten zu erkennen. Buchstabenerkennung, da gibt es große Probleme. Das sind ja letztlich solche Sachen. Und die neuronalen Netze sind auch einmal mit dem Versprechen angetreten, sie könnten das besser lösen, aber mir kommt es manchmal so vor, daß diese Unterscheidung zwischen Trainingsphase und Anwendungsphase, als Erkennungsphase in den neuronalen Netzen, genau diese Zukunftserkennung oder Tendenzerkennung insofern ganz fälschlich löst, insofern als sie die Lösung schon versteckt. Also: das alte Kant'sche Problem von Theologie: Wozu ist etwas gut? Das ist ja die Frage. Wozu ist denn dieses halbe angefangene, handschriftliche kleine a gut, wie solles sich runden, wie soll es sich schließen ? Das kann man entwder mühsam und gräßlich mit digitalen Buchstabenerkennungsprogrammen, mit Fallunterscheidungen lösen wollen, oder man führt ein neuronales Netzwerk ein, und gibt dem aber letztlich in der Trainingsphase die Figur des Buchstabens a oder das Phonem a oder das Diphon vor, was dann hinterher erkannt werden soll. Das heißt, diese Zukunft, die in den digitalen Systemen so große Schwierigkeiten macht, wird in den neuronalen Netzwerken von Seiten der Programmierer oder der Trainierer schon als bekannte reingestopft, und dann ist es natürlich elegeant zu sagen, hinterher aber wie eine gemeiner Trick: o.k., das läuft doch bestens. Also wenn diese neuronalen Netzwerke keine Trainingsphase bräuchten, dann wären sie mir lieber. Sondern wirklich mit dem stochastischen und aus der Zukunft herkommenden Neuen und nur deshalb Informationsreichen zurechtkämen - als solches. S: Aber ist die Trainingsphase nicht gerade die Phase, die die neuronalen Netzte wieder an das menschliche Wissen angliedert, die also genau den Schritt wieder zurückmacht, zur menschlichen Sprache, nämliche zum menschlichen a ? Wenn das neuronale Netz beliebige Figuren erkennen würde, was hätte denn das für einen Zweck ? Das wäre ein neuronales Netz, das nur Wiederholung und Ÿhnlichkeiten selbst erkennt, ohne dann wieder zur Sprache zurückzukommen. K: Es würde aus der Vergangenheit, die es sich einigermaßen speichert und auf ihre gewesenen Gestalten, Erkennbarkeiten gebracht hat, in der Zukunft die Wiederkehr dieser Dinge zu erkennen. Und es läuft ja letztlich alles darauf hinaus, in diesem wirren Strom von Daten, der die Zukunft ist inclusive Mord, Tod und Verderbnis, Perioden zu erkennen. Also das, was Foucault in seiner schönen Antrittsvorlesung als Serie und Ereignis bezeichnet hat, könnte man dort glatt übersetzen in Zeitachse und Frequenzachse. Also Perioden als Frequenz und Ereignisse als reine Zeitstösse, Stepfunktion, Schrittfunktion, Einheitsfunktion. S: Also wrden Perioden mit einer Fourier-Tranformation analysiert, während Ereignisse hinausfallen ? K: Die Ereignisse sind auch noch beschreibbar, aber approximativ. Letztlich gibt es eine, das hat ja der Gabor so hübsch beschrieben, Unschärferelation zwischen Frequenz und Ereignis, wie in der Quantenphysik. Was jetzt keine Metapher ist, wie bei diesen blöden Idioten, die sagen, es gibt Unschärferelationen in der Philosophie oder so etwas, oder in der Erkenntnis des Menschen von der Welt. Mathematisch passiert da gar nichts. S: Kommt man da nicht wieder auf das Paradoxon der Menge, die sich selbst enthält. Dadurch, daß der Rechner einen Zeitvorteil gegenüber der Messung hat, wird ja die Berechnung von Zukunft erst möglich. Ist dann die Menge, die sich selbst enthält möglich, als die Menge, die die Meßdaten und deren Zukunft enthält ? K: Das ist eine schöne Frage. Da muß man natürlich antworten: das ist nicht möglich. Es ist schwer, diese Paradoxie auf die real existierenden Von-Neumann- Maschinen zu übertragen, deshalb weil die Typentrennung immer schon durchgeführt ist, das heißt die substantielle Unterscheidung von Daten und Zeigern, Pointern, oder Adressen und Daten ist so klar, daß es Typenkonflikte nie gibt. Oder anders gesagt: es gibt sie natürlich, aber type-cast ist eines der größten Verbrechen, das uns überhaupt begegnen kann, aber man macht es natürlich alle Tage. Das heißt, man nutzt Adressen als Daten oder man stutzt Adressen in andere Datenformate über Type-Casting, aber es ist natürlich eine Sache, die von der Industrie nicht gern gesehen wird, die immer die Vermeidung der Paradoxien der Typentheorie zum Gesetz ihrer Ausbildung propagiert. Außerdem rutschen ja Daten hinten weg in dieser Voraussge der Zukunft, denn es ibt kein unendlich langes Turing-Band. P: Aber geht ja auch darum, daß Zukunft mit Erinnerung zu tun hat, wie vorher bei den Beipiel von den 10 Zuständen. Also ist es auch egal ob neuronales Netz oder herkömmliches Programm, da wird Methodenwissen, Erinnerung, Gestalterkennung, was auch immer gespeichert. Das wird halt mit eingehenden Daten in Beziehung gesetzt, um so etwas wie Interpolation herzustellen. Damit hat man ja eine Geschichtlichkeit, die eine Bedingung ist für Zukunft. Ohne Erinnerung gibt es keine Zukunft. Das andere ist, daß durch die Computertechnologie die Erinnerung absolut wird, siehe CD-Rom, das läßt sich nicht mehr löschen. Die Absolutheit der Archive wird immer virulenter, wie zum Beispiel in dem anstehenden Informationgau, der immer angekündigt wird. Also daß man auch mit den gespeicherten Daten, mit der Erinnerung nichts mehr anfangen kann, weil sie nicht mehr strukturierbar ist. Ich will auf den Szenariobegriff hinaus, inwiefern also die totale Geschichtlichkeit wiederum Geschichtlichkeit auslöscht. K: Ich habe gestern mit Historikern, mit ganz konservativen Historikern über die Kaiserzeit geredet, und denen ein bißchen drohend erzählt, wie viele historische aktuelle Entscheidungen in Computern sitzen oder an Telefonleitungen gemacht werden, ohne verschriftet zu werden. Und der Historiker aber, anstatt traurig zu sein, was ich gehofft hatte, hat sich schrecklich gefreut und gesagt, wunderbar. Denn die Datenmenge an Papieren, die wir etwas für die erste Hälfte des 20. Jahrhunderts aufzuarbeiten hatten, als alle Kanzleien noch Akten führten und niemand telefoniert hat so idealiter, ist so entsetzlich, daß taktische Entscheidungen im Irakkrieg nicht mehr von Menschen sondern von Gefechtscomputer gemacht worden sind oder daß einige Absprachen über Telefon gelaufen sind, also nicht dokumentiert. Aber die harte These, daß durch die Digitalisierung die Geschichte deshalb wegrutscht, weil sie ohne jede Selektion Punkt für Punkt und Bit für Bit für immer gespeichert ist, da bin ich mir nicht so sicher, ob das so funktioniert. Es gibt doch diese Dialektik zwischen Größe des Gesamtspeichers, der immer größer wird, also es können immer mehr Daten abgespeichert werden, und Größe des gespeicherten Elements. Und jetzt haben wir dieselbe Paradoxie, die wir eben in der Zeit hatten, daß jetzt auch im Raum oder auf der Fläche dieser Speichermaterie das einzelnme Element immer winziger wird und also auch immer quantenphyikalischer befreibar wird, und ein Gammastrahl putzt zwar nicht die CD-Rom weg aber kann im Submikron- Transistorspeichern schon ziemlich böse Sachen anrichten, weil nämlich einfach ein Bit kippt. Also die Miniaturisierung ist die notwendige Vorbedingung für die Abspeicherung von allem und jedem. Und Miniaturisierung selber läuft Gefahr, die Sachen wieder löschbar zu machen. P: Als Risikofaktor ? K: Ja. Natürlich kann man damit leben, wenn jedes hunderttausendste Bit kippt. Dann muß man eben ein bißchen redundant sein. P: Auf der anderen Seite, wenn sich das Telefon an ein juristisches System koppelt, dann braucht es die Einschreibung, siehe ISDN, siehe Mobilfunk, das wird schon immer irgendwo verwaltet. Und die Zahl der Dattenschatten, die jeder hinter sich herzieht, die wächst. K: Datenschatten, schön gesagt. P: Der Zuwachs an technischer Erinnerung, der ist schon zu verzeichnen. Sicher mehr ein technisches Thema, weniger auf Papier. K: Na ja, exponentielle Publikationsraten über Jahre hinweg. P: Um nochmal auf den Szenariobegriff zu kommen. Wir hatten gestern Robert Gassner vom Institut für Zukunftsforschung bei uns, der macht Entwicklung von Szenarien. Das ist interessant, weil das Szenario eine Kategorie ziwschen Uotpie und Simulation darstellt. Es ist keine Simulation, Simulation baut auf einen Szenario auf. Das Szenario ist eine Spezifikationfür eine Simulationsmodell, sehr intuitiv, aber es muß realistisch genug sein, daß es wahrscheinlich ist. Dann lassen sich Szenarien gegeneinander stellen, alternative Szenarien aufstellen. Es ist also eine Methode, Zukunft fortzuschreiben aus der Vergangenheit, und mit einem gewissen Unsicherheitsfaktor zu spielen. Und da wäre meine Frage: nach was für Szenarien gehen sie vor ? Jeder hat ja bestimmte Szenarien. Ein Szenario ist eine Fortschreibung einer bestimmten Ideologie. Was wäre ihr Szenario ? K: Ich neige zu konfliktuellen Modellen, die man in der Vergangenheit immer hat als militärische durchspielen können, also das hieße, um noch einmal zurückzukommen auf das, wovon wir gerade geredet haben, daß sich die dramatische Machtfrage stellt. Es gibt zwei mögliche Szenarien für mich. Das eine heißt einfach: es gibt, nach Turings Beweis prinzipiell nichts Besseres als Digitalisierung. Und das ist und das bleibt so, und damit ist Geschichte im technologischen Sinn an ihr Ende gekommen. Sie kann nur noch was die Materien des Digitalen angeht verbessert werden. Man kann von Silicium auf Galliumarsenid übergehen, und deshalb einen strategischen Vorteil von 20 Jahren gewinnen, was die Amis ja im Moment versuchen. Oder man kann auf Opto-Leitungen übergehen und wieder einen massiven Zeitfaktor gewinnen, aber auf jeden Fall, im Prinzip würde sich nichts ändern. Und eine Zeitlang würde es dem Imperium, dem momentanen, das irgendwo am Pacific -Drain anzusiedeln wäre, gelingen, seinen Vorsprung zu halten und andere Gangster, die sich auf dieselbe Technologie einlassen wollen, würden durch Proliferation systematisch bestraft, und es wäre der erste Teil des Irak-Kriegs gewesen, der nicht um ÷l gegangen wäre, sondern um das peinliche Faktum, daß zum Beispiel der Irak schon in seinen Kommandozentralen schon glasfaserverkabelt war, weshalb die ersten Versuche, diese Kommandozentralen auszuhebeln so schiefgegangen sind. Sie sind ja unempfindlich gegen elekrotmagnetische Pulse, die Glasfasern, und das hat man nicht gewußt. Das wäre das Szenario 1, das am Ende in Entropie enden würde, denn Nonproliferation ist nur eine temporäre Möglichkeit und würde am Ende dazu fürhen, daß die ganze Welt mit derselben Technologie, die in sich nicht mehr überbietbar wäre, ausgestattet wäre, und dann könnte es nackte strategische Zweikämpfe geben, auf gleichberechtigter Basisi geben, wie einst im schönen Mittelalter, als die Ritter noch fair zueinander waren. Und das ander Szenario wäre das Gegenszenario, daß die digitalen Sachen im Sinn von Hilberts Grundlagenkrisenlösung immer die besten bleiben, aber daß die Grundlagenkrise der Mathematik uns gar nicht interessiert, sondern daß es um stochastische Porzesse aus einer offenen Zukunft geht, und daß man deshalb die digitalen Maschinen durch raffiniertere, sprich Livermore'sche und in Los Alamos schon angedachte Analogcomputer ersetzen würde. Und die wären so konfiugrationsreich, weil sie im Grunde konfigurationsarm sind, weil man immer nur dedizierte Geräte bauen könnte, es gibt keinen universalen Analogcomputer, der alles kann. Das ist ja die Pointe an diesen Dingern. Sondern die müssen immer neu konfiguriert werden für wechselnde Aufgaben und irgendwann sähe die Digitaltechnik vom Zeitfaktor her zum Beispiel oder vom Präzisionsfaktor oder vom Integrationsfaktor her alt aus und ein neues Imperium würde an die Stelle des jetzigen am Pacific Drain zu treten imstande sein. Das sind die beiden Szenarien, die auch beide ziemlich konfliktgeladen sind. P: Ein digitales und ein analoges. Klasse ! K: Also irgendein anderes. Man muß es analog nennen. Lassen wir es mal offen. P: Gibt es eine Analogie zu Philosophiesystemen von digtal und analog? Ob man vom analogen irgendiwe zum östlichen kommen könnte, weiß ich nicht? K: Ja , weiß man nicht. Manchmal denkt man es ja so ein bißchen. Der offentsichtlich aus Galicien nach Amerika eingewanderte Norbert Wiener hat ja leidenschaftlich am Analogen im zweiten Weltkrieg festgehalten(s.unten). Und Shannon, der offensichtlich aus dem Irland gleichen Namens kam, hat massiv auf digital gesetzt. Und Wiener in seiner desperation, der ein guter Mathematiker war, hat ja darauf gesagt: "Shannon's just crazy, he thinks in discrete manner." Und in Wieners Augen war das auch verrückt. S: Die Verrücktheit hat sich durchgesetzt. K: Ja. S: Ich muß mir die Modelle erst noch einmal durch den Kopf gehen lassen. Die sind für mich in der Klarheit völlig überraschend., hätte ich nicht erwartet. K: Wenn sie diesen Haßlacher-Artikel(?) lesen in dem Band von Herken(?), dann merkt man das, und der kommt wirklich aus den Waffenschmieden der USA und sagt ja, die Physiker können nicht leben mit digitalen maschinen. S: Welchen Haßlacher? K: Den hab ich so wild ausgebeutet in dem Artikel über Hard War und Soft War(?). In dem 50Jahre Berechenbarkeit-Band von Wulf Herken aus Berlin. The universal turingmachine, a half century survey. S: Woher kommt ihre Fixierung auf Konfliktsysteme. Das würde mich interessieren. Man kann ja auch genausogut sagen: Was Kultur ist, sie würden sagen: Mißbrauch von Heeresgerät - aber man könnte sagen: Der Mißbrauch von Heeresgerät ist wichtiger als der Gebrauch von Heeresgerät. Das wäre die Gegenthese, die sie als Kulturwissenschaftler doch zumindest verstehen solten. Was ist dazu zu sagen ? Und woher kommt die Fixierung auf die Konflikttheorien ? K: Das weiß man selber ja immer nicht. Ich habe immer so ein Grundgefühl, daß es theoretisch unbefriedigend ist, ein intelligentes Wesen anzunehmen, das kann man Subjekt nennen oder Mensch oder Computer, wie auch inmmer, und dem eine amorphe Umwelkt gegenüberzustellen. Das so ý la descartes, letztlich. Ich sehe erst seit Hegel Land, philosophisch, wo zwei Selbstbewußtseine gedacht werden, und prompt kommt es zu der Brückengeschichte über Herrschaft und Knechtschaft. Nicht aus irgendwelchen aggressiven Gründen, das ist ja beiGott nicht Hegels Begründung, sondern einfach weil zwei Intelligenzen aufeinanderstoßen und soweit ich die Geschichte kenne, ist das immer passiert. Und wenn die Technologien Waffen sind, dann sind sie auch Waffen gegenüber einer anderen Waffe und in sich so spezifiziert, im Unterschied zum Werkzeug, zum Beispiel, das natürlich im amorphen Stein immer sein Paradigma gehabt hat. Und erst dann wird die Sache interessant, weil dann eben laut Lacan nicht bloß die einfache Kontingenz dessen, was wild aus der Zukunft als Wetter auf uns hereinrollt, ins Spiel kommt, sondern diese bei Lacan und bei Luhmann und bei uns allen, die wir irgendwie zu Denken versuchen, doppelte Kontingenz eintritt, daß nämlich a nicht genau weiß, was b machen und b weiß nicht genau, was a machen wird. Und das ist eigentlich erst spannend. Lacan hat das so schön im zweiten Seminar beschrieben. S: Aber bei Luhmann führt das zu Kommunikation und bei ihnen zu Konflikt. K: Ja, das ist sehr merkwürdig, warum das so ist. Aber ich entsinne mich an dieses wunderbare Rencontre in Dubrovnik, als wir beide auf dem Podium saßen und ich hatte über meine Nachrichtentechnik halt gerade so ein bißchen geredet, und Luhmann wollte abmildern und lächelte so weise und gütig und lieb, wie er immer ist, sehr aufmerksam und sagte: Das ist alles nicht so schlimm, diese Optimierung der Technologie, denn schauen sie sich die Flugzeuge an, da sind alle Systeme drei- bis viermal redundant aufgebaut aus Sicherheitsgründen. Und ich konnte so leicht replizieren: ja sicherlich, sie haben so recht, die Redundanz ist das Kennzeichen von Zivilgerät und schauen sie sich die MIG 29 an, da ist alles nur einfach ausgelegt, damit sie ebenso elegant wie kampffähig ist und leicht. Man hat immer die beiden Oppositionen. Also innerhalb eines befriedeten Systems einer Pax Americana kann man Zvilluftfahrt treiben, und dann kann man im Interesse der Bevölkerung Redundanz einbauen, was ja in der Deregulation aller Regeln schon wieder abgeschafft ist. Die stürzen ja alle ab, weil sie kaputt sind und weil die Bevölkerung nichts mehr zählt seit den 80er Jahren, aber man konnte es prinzipiell in den 70ern so machen, als die Boeings gebaut wurden, und man kann auf der anderen Seite sobald es die externe Beziehung gibt auf strategische Weise optimieren. Und das heißt nicht redundant, sondern auf Leistung zu optimieren. Und was mich halt reizt an der bundesrepublikanischen Debatte, das ist nicht nur ein privates Hobby, daß ich diese Konflikttheorien ganz gerne propagiere, ist schlicht dies, daß eben im Schutzmantel dieser Pax Americana die deutsche Intelligenz der letzten Jahre sich auf so ein Modell von Gesellschaft eingeschossen hat, das letztlich Staat minus Außenpolitik heißt. Gesellschaft ist Nation minus Außenpolitik hat letzthin ein frecher Mensch, dessen Name mir entfallen ist, gesagt. Und ich sehe nicht ein, wie man damit ernsthaft rechnen kann angesichts der dritten Welt und so weiter. S: Ihre Konflikte spielen sich aber alle zwischen technolgischen Avantgarden ab. K: Ich hab die zweite Welt jetzt schon wirklich mit rein gebracht, mit der Irak- Geschichte, und die dritte Welt will die zweite werden. Die nordkoreanischen Atomwaffen sind schon im Anmarsch. Ich will das nicht dramatisieren, aber das ist ja klar, daß die ein Wörtchen mitreden wollen. S: Dann komme ich wieder zurück zu dem Modell digital versus analog. Das digitale Modell, das ihrer Einschätzung nach zur Entropie führt, würde dann auch in der dritten Welt zu Entropie führen, das heißt zu einem gleichen Niveau. K: Es wäre unmöglich, das Gefälle noch länger aufrechtzuerhalten. S: Dagegen sprechen ja die Krisenszenarien, die, um es als Konflikttheorie zu formulieren, uns einen neuen Feind aufgebaut haben, nämlich das ÷kosystem selber, was auch eine ganz interessante rhetorische Figur ist, die sagen würden, zu der Entropie kommt man gar nicht, weil da das ÷kosystem sich querlegt und in Form von Katastrophen das verhindert. K: Das ÷kosystem gibt es in dem Sinn nicht als objektive Gegebenheit, sondern das ÷kosystem ist eine Funktion unserer Meßgeräte. Im selben Maß wie die Chemie überhaupt erst imstand war, die Ozonsphäre zu zerstören, im selben maß gibt es überhaupt erst einen Begriff derselben und die Meßbarkeit derselben. Das scheint sich in einer, Gottseidank, natürlichen Balance zu halten. S: Die natürliche Balance besteht nach ihnen nicht etwa im Ausgleich verscheidener ÷kosysteme oder im ÷kosystem selber, sondern zwischen Meßtechnik und Verschmutzungstechnik? K: Ja, das ist sehr schön formuliert. S: Ein anderes Szenerio. Ich spiele jetzt einfach mal verschiedene Szenarien auf dem Hintergund ab. Ein anderes Szenario wäre ja: Die Gene sind lesbar geworden und auch manipulierbar geworden, und damit ist so etwas wie Evolution machbar und auch hintergehbar. Ist damit nicht ein evolutionär entstandenes Wesen wie der Mensch oder überhaupt biologische Wesen nicht prinzipiell in Hintertreffen geraten gegenüber den Maschinen, die Gene designen können, und muß man damit nicht neben ihren beiden Szenarien ein drittes annehmen, nänmlich das, daß der Mensch selbst ins Hintertreffen gerät ? K: Das ist eigentlich kein drittes. Nämlich die einzigen Maschinen, die imstande sind, diese Zahlenlawine kombinatorischer Möglichkeiten ein bißchen schneller zu bewältigen sind die digitalen maschinen. Dazu sind sie auch nachgerade prädestiniert, um Mutationen auszurechnen. Und das Lesen und Manipulieren von Genen läuft gar nicht anders als über Datenbanken, die auf Gene angesetzt werden. Ich denke, die Gentechnolgie ist in sich ein Effekt der Digitalisierung, und erst durch sie ermöglicht als Konzept. Boole und Mendel sind interessanterweise Zeitgenossen gewesen. Mendel, der zum ersten Mal den Begriff eines digitalen und nicht mehr anlysablen letzten genetischen Elements auf die Welt gesetzt hat. Und sehr erfreulich ist ja auch - also ich widerspreche dem Szenario damit überhaupt nicht, sondern ich versuche nur, es in ein technolgisches Szenario einzubeziehen -. und deshalb ist es um so erfreulicher zu erwähnen, daß jetzt ja auch evolutionäre Programmierstrategien langsam das Licht der Welt erblicken. Es gibt einfach so verdammt komplizierte Optimierungsprobleme in der Informatik, daß die Informatiker keine Lust mehr haben oder keine Mathematik mehr haben, um die Optimierung auf dem Papier zu lösen, also entwickeln sie genauso wie die Szenariotechniker drei oder vier verschieden Typen eines programms, von denen sie daumenwertgeschätzt hoffen, daß sie ganz gut zur Lösung beitragen, und dann werden die vier Programme aufeinander gehetzt und die beidenSieger, die dürfen sich dann kreuzen, und die beiden Verlierer werden gleich ausgemerzt. Und die beiden Gewinnnprogramme kreuzen sich, entweder sexuell oder asexuell, kann man beides im Computer simulieren, die beiden Arten von Vererbung, und dann werden ab und zu per Pseudo-Random-Generator ein paar Mutationen reingeschossen und am Ende kommt nach 10 Tagen Simulationslauf ein Programm raus, das wirklich Echtzeitwerte erreicht. Und auf diese Weise ist auch wieder ein Konfliktmodell in die ach so unschuldige Von-Neumann Programmiertheorie eingeführt, indem nicht mehr ein Programm sich als Herr des gesamten Speicherraums geriert, sondern zwei Programme kämpfen gegeneinander oder viele. Ums Ðberleben. Und dann ist in der Informatiktheorie eine Stelle erreicht, wo nur noch das Fleisch den Unterschied zur genetischen Manipulation macht. Und da denke ich, kann man vielleicht doch einmal von der Hardware abstrahieren und sagen, was da in der Software läuft das ist dasselbe, was in der Gentechnologie läuft. Abgesehen von den nanomechanischen Problemen, die bei der Behandlung und Extraktion von Genen auftreten. S: Und was kann die Rolle eines Menschen sein, oder der Menschheit überhaupt ? Oder ist der Mensch abhängige Variable von sich selbst kreuzenden informatischen Systemen. K: Ich will es jetzt nicht ganz so pessimistisch sagen, aber ich denke, in Teilbereichen ist es jetzt schon wahr, daß wir abhängige Variablen sind. Also wenn die Airbusflieger oder die Tornadoflieger ohne ihr Computersystem sofort abstürzen würden. Der Tornado ist aerodynamisch so instabil, daß er nur durch seine Computersteuerung fliegen kann. Der würde keine Sekunde lang von selbst in der Luft bleiben, im Unterschied zu normalen Flugzeugen. Wie ein Stein käm der runter, wenn er nicht ständig in kleinen Schwingungen des Bordcomputers durch die Luft gelotst werden würde. Und diese Piloten sind absolut abhängige Variablen und ich denke, wir sind abhängig von meteorologischen Vorhersagen. Wir planen unsere Ferien nach Schneemeldungen im Winter. Ich natürlich nicht, weil ich nicht Ski fahre. Aber die anderen. Aber ich denke, man soll es nicht übertreiben, sondern eher versuchen, anstelle der Gesellschaft, die ja implizit immer angenommen hat, daß Menschen Sujekte ihrer Theorie sind, Gegenstände ihrer Theorie sind, langsam daran zu denken, eine abstraktere Soziologie zu betreiben, in der Menschen und Programme gleichermaßen gleichberechtige integrale Teile dieser technischen Wirklichkeit sind. Unter DOS kriegt man das Gefühl ja nicht, man hat del, dir, cd also change directory und das isses so, ja und copy, damit kommt der normale Mensch aus. Und das wirkt wie vier Werkzeuge, also wie Schraube, Säge, Hammer und Meißel so ungefähr auf den Benutzer. Da hat er nicht das Gefühl, daß er mit Leuten umgeht. Und dann steigt man auf UNIX um, irgendwann und findet sich plötzlich unter 400 Programmen, von denen man drei kennt, nämlich wie bei DOS nur unter anderen Namen, und die restlichen 397 staunt man an. P: Man hat also die System-Umwelt-Differenz und eine wachsende Komplexität, die immer durch die wachsende Komplexität des Systems geschaffen wird. Also je komplexer das Sytem, desto komplexer auch die Umwelt. Die Frage ist, wie weit die Technik noch hinterherkommt hinter der Komplexität, die sie selbst schafft. Die komplexitätsreduzierenden Punkte an den Paradigmenwechseln sind Kriege. Inwieweit ist der Krieg das technologische Prinzip überhaupt, immer als Reset- Zustand des Systems. K: Ja. P:Inwieweit ist ein Krieg jetzt schon vorprogrammiert als Szenario. Ob jetzt analog oder digital, das Konfliktpotential ist das technologische Potential. K: Wunderbar formuliert. Krieg als Reset. P: Gibt es pazifistische Szenarien ? Im Sinne einer Technologie. K: Das könnte ja nur heißen, daß das Bessere sich durchsetzt, ein pazifistisches Szenario. Man hat ja nicht den Eindruck, daß das permanent passiert. P: Daß in der Rückkopplung der Komplexitätsschaffung die Maschine ihre Produkte überholt, in der System-Umwelt -Differenz die Komplexität auf Seiten des Systems handhabbar ist und auf Seiten der Umwelt wirklich reduziert wird. K: Ich bin noch in ihrem vorigen Argument drin. Was ich als wunderbares Modelbeispiel furchtbar mag ist das Problem mit dem Fernseher. Abgesehen von Intel-Maschinen und den PC's sind die Fernseher die größte jemals getätigte Investition und die sind alle weltweit einigermaßen kompatibel trotz der drei leicht verschiedenen Systeme. Und wenn sich jetzt herausstellt, daß die Fernsehenorm erstens bescheuert ist, und zweitens keine mehr verkaufbar sind, also überlegt man sich das bessere Fernsehsystem, High-Definiton-TV, und es stellt sich heraus, daß das ungefähr 50 Milliarden Dollar Mindetstpreis wäre, das gesamte existierende Fernsehsystem der Welt umzurüsten. Da wäre wahrscheinlich Krieg als Resetzustand ganz gut, denn sonst zerren nur die unterschiedlichen japanischen, Sony, amerikanischen und europäischen Interessen gegeneinander und es passiert nichts. Man hat nicht das Gefühl, daß das Bessere sich da durchsetzt. Natürlich hätte man sagen können, Fernseher sollten schon im Jahr 1930 so konstruiert sein, daß sie mitwachsen, daß die Bildschirme größer werden, daß es überhaupt keine fertigen Endprodukte mehr gibt, die einfach einem Standard unterliegen und keine anderen und nicht imitierbaren sind. Aber soweit ist man leider Gottes noch nicht. Und mit den Intel-Architekturen ist es ja ähnlich, also das, was wir eben so gelobt haben, diese Eigenschaft von Technik, daß sie ihre eigene Vergangenheit integriert, und die letzten Systemzustände sich merkt, das gilt ja nun bittererweise auch für die Intel-Archtektur ganz gnadenlos. Die Ruinen des 8088 liegen auf dem 586 drauf, weil es immer noch kompatibel sein muß. Es gibt Befehle, die überhaupt keinen Sinn mehr machen, also FDIVI zum Beispiel, ist ein Coprozessorbefehl, der hat früher mal irgendetwas gemacht , und wird heute immer noch in die Maschine reingebaut, löst aber nichts aus. Es sitzen Ruinen rum, und alle Welt wartet auf den wunderbaren Tag, an dem der zweite der erste wird, an dem Motorola Intel überholt, was nie passiert aus obskuren amerikanischen Pepsi versus Cola Affären heraus, oder ein Reset-Zustand namens Zerstörung beseitigt dieses ganze sinnlos und ruinenartig gewordene Architekturwesen. S: Muß man sich diese Zerstörung immer als materielle Zerstörung denken, also als irgendwelche Flugzeuge, die Bomben abwerfen, oder sind nicht die Konflikte der Zukunft welche, die in Informationzentralen oder innerhalb geschlossener Schaltkreise spielen, anstatt den Umweg über die Materie zu gehen? K: Davon träumen ja alle. Die neue Devise von IBM in ihrer neuen, absolut rasant neuen Allianz mit Motorola, die ja schon wieder ein bißchen gefährdet ist, die gehen ja davon aus, und Microsoft macht es ja versuchsweise auch schon wieder nach, daß sie die Schnittstelle zum real existierenden Prozessor softwaremäßig formulieren, und dann kann man irgendetwas druntersetzen, was dann gerade technolgoisch verfügbar ist. Ein Betriebssystem kennt auf jeden Fall keinen Prozessor mehr, sondern ist neutral gegen ihn, und das war es vorher noch nie. Und auf diese Weise kann man eben jeden beliebigen Prozessor auf jedem beliebigen anderen emulieren, wie das schöne Wort lautet. Aber ich glaube nicht, daß das die Zeitoptimierungswünsche der Produzenten erfüllt. Als Konzept ist das da, daß man nichts mehr zerstört. Wenn es einigermaßen leistungsfähig ist, das man das einfach mit einer Softwareschicht überzieht, und deshalb unsichtbar macht, aber das scheint die reale Zerstörung nicht ganz ersetzen zu können, dieses Emulationskonzept. Dann das ist ja der Witz, man kann auf ein Turing-Maschine absolut alles machen, aber wer macht es außer Oswald Wiener. S: Mit ensprechender Langsamkeit. K: Es bestand überhaupt kein Grund, irgendwelche Computer zu bauen, denn das hätte man alles mit dem Papierband machen können. Aber da wird es dann doch lächerlich das Argment, daß alles emulierbar ist. P: Von hier aus können wir eigentlich auf corporate identity kommen. Inwieweit die Computer-Technologie immer auch zugleich eine Firmenstrategie ist und damit auch ein Identitätskonzept darstellt. Das ändert sich ja ständig. Der Computer als Subjektmodell. Ich habe ja dieses furchtbare Zitat von Gandhi von der Intel- Entwicklungsabteilung hier zitiert. Haben sie es gesehen? Das habe ich reingesetzt in die letzte Auflage, also in die Neufassung dieses Textes. Das kann man nur vorlesen.das ist so gnadenlos ehrlich. Chakrat Gandhi über Intel und Risk-Approximation: "Der Hauptvorteil einer schnellen CPU, den die Risk Prozessoren früher hatten, wurde mit der Zeit zu einer eher sekundären Eigenschaft. Lassen mich ein Analogon anführen. Der CPU-Kern - also die rein arithmetischen, logischen Funktionen verhält sich wie ein Unternehmer, der eine neue, innovative Firma gründet. Wenn die Firma klein ist, gedeiht sie mit den Ideen und Einfällen des Unternehmers, mit zunehmender Größe der Firma wird ihr Erfolg mehr und mehr durch periphere Funktionen wie Vertrieb, Marketing, ÷ffentlichkeitsarbeit, Finanzen, Controling usw. bestimt. Funktionen, die meistens mit den Produkten der Firma überhaupt nicht in Zusammenhang stehen, Großunternehmen konkurrieren aufgrund ihrer peripheren Funktionen miteinander, in Zukunft wird der Leistungsnateil des mathematischen Kerns weiter abnehmen." Und er teilt uns mit, das habe ich hier ausgeführt, auf den frühen Maschinen war 92% Rechenleistung, 8% quasi Firmenselbstabbildung, auf den 586 sind es 92% Firmenabbildung, 8% mathematischer Kern. Und das erklärt Gandhi für einen Fortschritt, aber man kann es genausogut als Dinosaurierkopf bezeichnen, dieses Verhältnis von Kopf undPeripherieabbidlung, also alles was Cache-Organisation ist, was Memory-Management-Unit heißt, was Paging ist, das sind alles Funktionen, die eigentlich die Bürokratie abbilden. Und Geschwindigkeit ja alle nur simulieren, da müssen wir jetzt mal lange drüber reden, inwiefern ein Cache nicht schnell ist, sondern Geschwindigkeit vortäuscht. Man kann es ganz kurz so sagen. Sie gehen statistsich wahrscheinlich korrekt, aber interessant davon aus, daß auch Code dem Prinzip der Lokalität unterliegen, das heißt, daß im Code keine unendlich langen Ströme sind, sondern daß der Code normalerweise sequentielle abgearbeitet wird. Auf die Natur übertragen heißt das: natura non facit saltus, also das Wetter kippt nicht in 30 Sekunden von hoch auf tief, und deshalb brauchen wir überhaupt keine Aufrufung, die von hoch auf tief schnell umschaltet, sondern wir können den lokal zusammenhängenden Teil des langsamen Hauptspeichers schnell mal zwischenzeitlich abbilden in einem schnellen Zwischenspeicher, und in dem sitzt das dann. Und den müssen wir noch verwalten, der hat natürlich Verwaltungsaufwand, den zu führen, den auch auch up-to-date zu halten, das ist der große Verwaltungsaufwand, und falls dann mal Sprünge im Programm kommen , dann müssen wir halt wieder auf den Hauptspeicher zurückgreifen. Irgendwie ist das natürlich auch eine Entropiedefinition von Programmen, die damit gegeben wird. Theoretisch ist es extrem interessant. Ich polemisiere auch gar nicht gegen die Caches, sind nützen uns ja allen, sind ja auch normalerweise schneller. Daß man letztlich Code-Fragmente genauso interpretieren kann in diesem Cachebegriff, wie in der ersten Zeit die Umwelt eines Computers definiert worden ist. Also, wenn wir jetzt über Vorhersage von Naturereignissen gesprochen haben in der ersten Diskussionsrunde über Zukunft, kommen wir jetzt in eine Dimension hinein, wo es eine Branch-Prediction Unit zum ersten Mal bei Intel gibt, hardwaremäßig implementiert, also der Prozessor versucht rauszukriegen, wohin die das Cache-Register so schrecklich führenden Sprünge im Addressraum tendenziell gehen, und liest genau den Teil des Codes, von dem er annimmt, daß der Sprung ihn jetzt adressieren wird ein und den Teil, von dem er annimmt, daß er nicht erreicht werden wird, den liest er gar nicht erst ein. Der Prozessor versucht eine Vorhersage über den in den nächsten 10 oder 20 Takten bei ihm selber erst eintreffen werdenden Code. S: Simuliert das Programm dann das Programm oder den Benutzer ? K: Das überhaupt nicht. S: Also es versucht, sich selbst vorherzusagen. K: Ja. S: Das ist die Redundanz, die dann stattfindet. K: Ÿrgerlich ist es nur, wenn das Programm sich verrechnet hat, was oft passiert, oder wenn Fehlerbedingungen auftreten, dann muß die ganze Berechnung hinausgeschmissen werden und neu aufgesetzt werden, wie das so schön heißt. P: Mich interessiert inwieweit das jetzt zeitlich ineffizient ist. Das baut ja auf einer gewissen Häufigkeitsverteilung auf, wie Programme normalerweise geschrieben werden. Von daher ist es effizient, wenn sich Programmiertechniken grundsätzlich ändern würden könnte es sein, daß solche Caches dann ineffizient wären. In dieser Logik, in dieser Geschichtlichkeit von dem Zusammenhang Hardware und Software, das ist ja auch immer aufeinander abgestimmt, ist es doch eigentlich effizient und auch zeitsparend. K: Sicher. P: Also der Zusatzaufwand an Programmierung, der hat schon eine Effizienz. K: Obwohl man sich aufregen könnte, denn es ist eben der Geiz, der darin besteht, daß diese Dinger grundsätzlich mit ziemlich langsamen Arbeitsspeichern ausgerüstet werden. Das müßte ja nicht sein. P: Ja gut, das hat wieder technische Gründe in der Chipproduktion, daß sie nicht so schnell umstellen können zwischen den Generationen. K: Und vielleicht ein bißchen theoretischer. Das ist ja ein interessantes Phänomen, daß für einen dynamischen Speicher, der also nach einigen Mikrosekunden wieder aufgefrischt werden muß, weil er vergeßlich ist, ein Transistor plus ein einziger winziger Kondensator im Picofaradaybereich zureicht, daß aber für einen statischen Speicher, der im Prinzip sich ewig etwas merken kann, solange Strom anliegt zumindestens eben vier Transistoren inder Standardimplementierung Bedingung sind und Intel, die noch eins auf Sicherheit draufgeben nehmen 6 Transistoren für ein einziges Speicherflipflop, das zwei stative Zustände über die Zeit halten kann. Und diese Verhältnis von 1 zu 6 ist halt ein gravierendes Verhältnis in der Bautechnik. Aber das ist ein interessantes Phänomen, daß also zwei Steuerelemente, ... also vier Steruelemente müßte man schon sagen, man kann ein Flipflop mit zwei Kondensatoren und zwei Transistoren bauen, aber es ist eleganter, die Kondensatoren durch Quasitransistoren zu simulieren, dann hätte man vier Transistoren als Grundausstattung für etwas, das sich binäre Zustände merken kann. Wohingegegn das andere ein analoges Denken ist. Ein Kondensator wird halt eine Zeit lang aufgeladen und hält sich eine Zeit lang, und der Transistor steht vor ihm wie ein Ventil, der das Abfließen dieser Spannung für eine kurze Zeit verhindert, aber sobald das halt abgeflossen ist wie ein analoger Prozeß, dann muß sie wieder nachgelesen, nachgeschoben werden. Das wäre auch so ein Punkt, wo wieder analog-digitale Einheiten in der Maschine selber als Unterscheidung herhalten, und das analoge wäre quasi wieder das natürlichere. S: Und die Caches,.. K: Die Caches sind statisch und der Abreitsspeicher ist dynamisch. Punkt. P: Um nochmal auf den Grundkonflikt von analog und digital zurückzukommen. Es gibt von Bateson eine Referenz auf C.G.Jung, wo er dessen Begriffe Pleroma und Creatura, also im Bereich des Additiven und im Bereich des Differentiellen. Könnte man sagen, daß man dem Analogen das Additive zuordnen könnte und dem Digitalen das Differentielle. Das Analoge als Bereich der Intensitäten und die Kreatur zum Digitalen. Das geht je da schon fast um eine metaphysische Grunddifferenz. K: Ja, das könnte einem manchmal so vorkommen, das Tohuwabohu analog und die Schöpfung Gottes, die ja auf lauter binäre Unterschieden aufgebaut ist. Gott schied den Tag von der Nacht und nannte das eine Nacht und das andere Tag. P: Daß das Analoge immer das Andere, das Außen bezeichnet, und das Digitale das sozusagen, das auf der Habenseite steht. Daß man in der Konfliktzuordnung jetzt sagen könnte, das Analoge wäre der Teil der Kultur, der außerhalb des Herrschaftssystems steht. K: Das sieht so aus. Und das, was ich immer im Sinn eines Fazits auf dieses Band noch reden wollte, und jetzt endlich dazukomme, wäre halt, daß alle Kulturen soweit man sie kennt, die müssen ja gar nicht von Menschen gewesen sein, sie haben alle auf der Seite des Codes das Haben gehabt. Aber der Code war eben in sich unfähig, die andere Seite zu approximieren. Die Sprache war die Sprache und Gott war Gott und die binären Unterscheidungen waren alle getroffen, gut und böse und Nietzsche und so weiter. Aber was draußen war, ob der Dschungel jetzt gut oder böse war, das ließ sich überhaupt nicht manipulieren. Und der Trick an der modernen Technologie ist eigentlich, daß sie per Diferentialgleichung und dann durch ihre Computerimplementierung über dieses analoge Außen in Stücken so verfügen kann, als wäre es Code. S: Daß das Aussen gemessen werden kann. P: Ðber den A-D-Wandler. K: Ðber den A-D-Wandler und dann wieder über den D-A-Wandler, der dann wieder effektiv reingeht, afferent und efferent meine ich, kann dann das Aussen behandelt werden. Und das ist der beträchtliche Machtzuwachs, der eben alle sogennannten Primitiven erst zu Primitiven gemacht hat. P: Machtzuwachs als Codezwachs. K: Und die Erfindung der reellen Zahlen war natürlich eine Bombe in dieser Geschichte, denke ich mir mehr und mehr. P: Und ein Extrem wäre natürlich auch die Fraktale also die komplexen Zahlen. K: Oder wo die Dimensionen nicht mehr ganzzahlig sind. S: Dann wäre also ganz konventionell ausgedrückt, die Mathematik der Schlüssel zur Beherrschung der Welt. K: In Ergänzung eben dessen, was die Sprache alles nicht konnte. Die menschliche Sprache jetzt, nicht die formale Sprache, die ja eben aus der Mathematik entsprungen ist. P:Und das Feld, auf dem sich möglicherweise dieser Konflikt abzeichnet, ist die Hochfrequenztechnik, die das Digitale mit dem Analogen kombiniert. Also wer über diese Technologien herrscht, darauf beziehe ich mich mit diesem Elektrosmog- Ding, Information und Energie. K: Das war doch dieser wunderbare Satz von diesem Admiral Moore, der mal eine Zeitlang Chef des joint chiefs, also der vereinigten Stäbe der vier amerikanischen Truppeneinheiten war, und der einfach gesagt hat: Wer das elektromagnetische Spektrum am besten beherrscht, der wird Sieger im nächsten Krieg. Aber ich meine, man kann da noch eins dazu sagen, also wir sind ja richtig physikalistisch heute, es ist mathematisch tunlich, bis 30 oder 40kHz dieses elelktromagnetisch Spektrum als analog und Wellenfunktion anzuschreiben, es ist jenseits dessen nicht mehr tunlich, weil jeder Regentropfen sich als Quantum im Planck'schen Sinn darstellt und dann wird die Sache mathematisch wieder diskret, in jenem Bereich der von dann Lichtwellen und so weiter betroffen ist. S: So daß für Lichtwellen auch die diskrete Beschreibung die bessere ist ?. K: Da wo Funk aufhört wird es wieder sinnvoll, diskret, also mit einzelnen Photonen zu rechnen. S: Zurück zu Teilchentheorie. K: Ja, und der Funk ist ja langsam an der Grenze seiner Machbarkeit angelangt. Auch die Störungen werden sich nicht mehr in Wellenfunktionen darstellen, sondern als Partkelschauer. Man muß prinzipiell dazu sagen, heute meditiert man also weinselige Nächte lang darüber, man weiß ja nicht, ob es die reellen Zahlen wirklich gibt und das Analoge überhaupt gibt. Die Kontinuum-Hypthese ist unbewiesen. Es ist ein bißchen eine Option, überhaupt davon zu reden. Natürlich gibt es analoge Schaltkreise im technischen Sinn, es ist nur eine Frage, ob es das Analoge in der Natur gibt. Man kann das nur als Methode bezeichnen. Und solche blöden Probleme, ob die Zeit jetzt in Quanten herumläuft, die sollen die Physiker lösen. S: Sind das nicht Probleme von Beschreibungsmodellen, die je nach Frage angewandt oder nicht angewandt werden müsse ? K: Klar, das ist ja die schlaueste Antwoirt. S: Ich habe noch einen Punkt, den ich heute ansprchen wollte, um von dem Physikalischen wieder herunterzukommen. K: Die Ethik. S: Genau: die Ethik. Die alte Frage: Was sollen wir tun ? Wird die prakitsche Vernunft nach und nach außer Kraft gesetzt, oder wird es sie noch geben? Halten sie Ethik für durchsetzbar, nein, das ist völlig tendenziös formuliert. Hat Ethik Zukunft, fragen wir einmal so. K: Ich denke: ja. Komischerweise denke ich: Ja, weil ich ja nicht so total wütend auf Habermas und solche Leute bin, wie man es vielleicht den Bolz'schen Schriften entnehmen könnte. Ich denke, diese winzige Ecke, die bei Habermas Universalpragmatik heißt, die scheint mir einigermaßen plausibel. Der Witz daran ist, daß halt Habermas universal und partikulär verwechselt, indem er etwas, was der natürlichen Sprache per Sprechakttheorie ganz vernünftigerweise eignet, durch die alberne Entgegensetzung von kommunikativer und instrumenteller Vernunft zu aller Vernunft erklärt. Ich denke, in dem Raum, in dem Alltagssprachen herrschen und in dem wir reden, behält sie weiter ihre Gültigkeit, aber es gibt auch ganz andere Bereiche, in denen berechnet und programmiert wird, da sehe ich keine Ethik, auch keine mögliche. P: Das sind vor allem die Kritikpunkte. Es gab vor kurzem eine kleine Veranstaltung von diesem Minimal-Club, das ist im weitesten Sinn eine Künstlergruppe, die versuchen, Technikphilosophie und Ethik und Politische Praxis in eine Diskursform zusammen zu bringen. Im Moment versuchen sie, Medientheorie zu lesen, erst seit einem Jahr, das scheint mir auch ein bißchen eine Tendenz, Dietrich Diedrichsen vesucht das auch gerade und es gibt eine Beschäftigung seit kürzerer Zeit mit Medientheorie. K: Es wurde ja auch ein Wohlfahrtskommittee gegründet. P: Mit dieser Szene hängen die zusammen. Und da gab es jetzt eine Veranstaltung über Gentechnologie aber auch über Technikphilosophie, Wege zu finden, wie man zum Beipsiel auch feministische Ansätze da rein bringen kann. K: Das geht doch ganz gut. P: Ja klar. Da wurde sie halt auch kritisert. S: Also einmal über den Informationsbegriff, also daß Information grundsätzlich auf einer kulturellen Verinbarung basiert, also 586, 486 hin und her, die Kapazitäten spielen gar keine Rolle, nur was wir verstehen ist Information. Und dann wurden sie als der Theoretiker der mathematisierbaren Information angeführt, die vor dem Hintergrund an Wert verliert. K: Also Verstehen hat doch gar nichts mit Information zu tun. P: Erst suchen sie immer die Ethikreferenz im Sinne der Handlungsfähigkeit, im Sinne von: wie soll ich handeln. Das ist also eine Sache, und die andere ist das Herausbarbeiten von Ideologien, immer da, wo Ideologien mit Macht zu tun haben, einen roten Marker draufzusetzen. Und es gibt halt eine gewisse Ideologie des Ingenieurstums, die sich ankoppelt an die Ideologie der Information, als kapitalistische Ideologie auch. Da gibt es eine Tradition aus dem marxistischen Denken heraus, die sich immer auch an den Energiebegriff koppelt, Information kritisch zu sehen. K: Das ist doch letztlich dasselbe. P: Energie und Information ? K: Offenbar. Abgesehen vom Vorzeichen. S: Das wäre ja gerade der Shannonsche Informationsbegriff, der sagt: es spielt überhaupt keine Rolle, was das durchgeht, es zählen nur die Bits und das ist unsere Information. Das ist einer von den Kritikpunkten. Sie sagen: Shannon hin und her, in einem Shannon'schen Kanal können soundsoviele Bits rüberkommen, es zählen nur die Bits, die wir verstehen, mit deren Redundanz wir umgehen können, die also anschlußfähig sind an unser Wissen. Das heißt: unser Wissen determiniert die Information. K: Da können wir ja gleich wieder zu Platon zurückgehen, zur Höhle. S: Wie, zu Platon zurück? K: Ganz einfach, es gibt nichts anderes als Sprache und die Sprache nennen wir Idee, dann wird sie sie auf eine Semanttik reduzierbar, die ihr Lauthaftes, wie Heidegger sagen würde, oder ihr (Gewaltsames?), wie Derrida sagen würde, weggezaubert hat. Damit kann man doch keine Blumentöpfe mehr gewinnen. Dazu steht auch die reale Welt nicht mehr. Jeder, der ein Auto bedient, ist woanders. Wenn er das Auto verstünde, würde er nicht mehr fahren. P: Aber als positiver Aspekt bleibt auf jeden Fall der Versuch einer Einigung auch mit einem diskursfremden Theoriebereich. K: Bei Minimal Club. P: Bei Minimal Club zum Beispiel. Was mich da interessiert, ist die Strategie der Bricolage gegen die Strategie des Ingenieurs zu setzen. Auf der einen Seite der Ingenieur, der immer mit Aufbau und Vernichtung spielt, Krieg und Wideraufbau, im Gegensatz zum Bricoleur, der den Prozess im Sinn hat, und die ganze Zeit Maschinen baut, die nicht funktionieren. Also sozusagen das Schaffen und Zerstören in einem produziert. Eine Strategei wie Minimal Club funktioniert mehr im Sinne von Bricolage, von vorneherein ist das Nicht-Funktionieren intergriert. Die Frage wäre, ob sie das einbeziehen, auch als die Technik der dritten Welt, als Improvisationstechnik, keine Technik auf einem absoluten Maschinenzustand, sondern eine des nomadischen. K: Wir kennen es ja alle aus den mille plateaus. Ich habe noch nie eine gebastelte Integralgleichung gesehen. S: Dabei kann ich auf den Vortrag zurückkommen, den sie im Literatuhaus über Pynchon gehalten haben. Ist nicht gerade die Schwarzkommando-Strategie bei Pynchon eine Bricolage-Strategie. Die hatten sie als Utopie dargestellt. Ist so eine Utopie denkbar ? K: Denkbar ist sie, glaube ich, schon. S: Wäre das ein mögliche Strategie, durch Imitation von Technik, Technik zu unterlaufen. Und überall dort, wo etwas funktioniert, das Nicht-Funktionieren einzusetzen. Dadurch aus dem Ingenieurs-Kreislauf auszubrechen? K: Wenn es jemand will. Ich will es ja nicht. Ich weiß auch nicht, warum man es wollen sollte. Aus ethischen Gründen offenbar. P: Weil das Ingenieursdenken auf Krieg hinausläuft, auf Zerstörung, auf den Reset-Zustand, und die Bricolage immer gegen den Sinn der Technik, siehe selbst Japan, die im Grunde genommen auf einer Bricolage-Technik basieren, also sich Technik anzueignen und sich daraus neue Technik zusammenzubauen. Die dann natürlich sehr stark dem amerikanischen Geist folgen. Aber jedenfalls andere Wurzeln haben. Und was jetzt da in Asien passiert, das ist ja eine Art des technischen Denkens. K: Ich könnte mir gut so ähnliche Differenzen im Entwurfsverhalten vorstellen. Wovon die eine mehr systematisch und die andere mehr bastlerisch ist. Nach meiner empirischen Ansicht würde ich den Spieß lieber umdrehen und sagen, die Japaner gehen systematisch vor und die Amerikaner sind die Bricoleure. Jetzt in der Chip-Technologie. Der PC war der klassische Fall eines gebastelten Gerätes. Die Spezifikationen sind unter aller Sau. Vor zwei Jahren haben sie den Bus vom PC normiert und zwar nachträglich, mit allen Katastrophen die darinliegen. Einige Signale sind einfach vollkomen im Zeitverhalten bescheuert, man kann es nicht anders sagen. Das ist aber alles nicht mehr gut zu machen, weil inzwischen 50 Millionen Dinger installiert sind. Da sitzen die wahren Bricoleure, in Amerika, wenn man sich anschaut, was die für Steckdosen haben, dann weiß man woher das Bricoleurhafte kommt. S: Sind die besseren Ingenieure Bricoleure? K: Das heißt doch nicht, daß sie besser sind. S: Die, die an der Macht sind. Wenn man davon ausgeht, daß das Bessere an der Macht ist, dann sind die Bricoleure an der Macht. K: Das Schlechtere ist an der Macht. Natürlich ist der Apple besser. P: Es gibt ja auch einen Knowhow-Transfer. Die haben ja im Grunde ihren technologischen Sprung gemacht nach dem krieg, durch Import von deutschen Ingenieuren, auch schon vor dem Krieg. K: Wiener ist gebürtiger Amerikaner gewesen. Aber John von Neumann. P: Aber er hat ja auch in Deutschland gearbeitet. K: Er wurde als Student vom MIT geschickt. S: Wir sollten zum Schluß kommen. K: Wir könnten noch was Kluges dazu sagen am Schluß. Ðber die Architektur von Zentralen Recheneinheiten. Noch eine Funktion der Verkleinerungsmöglichkeiten. und solange die Japaner alle Gelder in Verkleinerung ihrer Steuerchips stecken, haben sie immer die bessere Technologie um etwas zu erneuern, oder um überhaupt Chiparchitekturen zu entwerfen. Und CPU-Architekturen, das ist ja nicht unmöglich, die besser zu machen. S: Aber es wird ja nicht gemacht, und den Weltmarkt teilen sich Intel und Motorola. K: Ja genau, Nec baut nach, alles Lizenzen. S: Ist eine eigene japanische Entwicklung überhaupt in Sicht. K: Bei hochkomplexen Chips schon, im Fernsehbereich, bei Chips für Signalverarbeitung sind sie schon relativ führend. P: Camcorder zum Beispiel oder LCD-Bildschirme. Alle peripheren Chips. S: Aber die CPU rühren sie nicht an ? K: Das (Droh?)Projekt ist sang- und klanglos abgeblasen worden. Teilweise aber auch mit Bonus den die investierten Geräte darstellen. Es wäre ein derartiges Takeover notwendig, ein derartiger Dumping-Preis, eine zweite Auflage der Kamera-Politik wäre eventuell, mit einem riesigen Geldstoß über die existierende Rampe hinwegzusetzen, und die besseren durchzusetzen, das könnte wohl kommen. Das läßt sich aber nicht bezahlen. Die Strategie scheint ja eher zu sein, zunächst die Unterhaltungsalektronik als Hauptabnehmer der Konsumelektronik aufzukaufen, Sony kauft CBS und so weiter, um auf diese Weise die Sache zu ändern. S: Ich habe gestern mit einem Marxisten gesprochen, der hat mir erzählt, die alte These, das Sein bestimmt das Bewußtsein müßte umgekehrt werden, weil das meiste Sein ja nur noch über Medien vermittelt wird, das heißt, das Sein ist selbst schon Kommunikation. In dem Sinne wäre ja die Unterhaltungselektronik das neue Sein, wenn man das so nimmt K: Jaja. S: Ist die These haltbar ? K: Also, alle außer mir kippen jetzt auf diesen Pfad um. Luhmann hat ja frecherweise in der deutschen Philosophengesellschaft verkündet, das Bewußtsein ist an Kommunikation im großen und ganzen nicht beteiligt, soziale Systeme und Bewußtsein ist ganz schlecht koppelbar, soziale Systeme sind nur über Kommunikation definiert, Kommunikation wird aber nicht vonPersonen hergeleitet, sondern Kommunikation läuft über die Kopplung über die Konsumenten. Und der zweite auf der Liste, der Kandiat der Ossis, ich war ja gerade auf dem Ossi- Kongress, hat den schönen Satz gesagt: "Wir waren immer gegen Kommunikationsmedien, aber jetzt müssen wir doch einsehen,daß die Kommunikationsmedien die Selbstreflexionsinstanz der Gesellschaft sind. So sinngemäß. Und damit hat er seinen Frieden mit den Medien gemacht. Nicht ganz so schlimm wie: die Medien sind das Sein, aber... P: Sozusagen die Medien als Form der Selbstkritik. S: Der Kommunist von gestern hat mir ganz klar gesagt, daß 80 Prozent, oder soundsoviel Prozent, er hat das in Prozent ausgedrückt netterweise, des Seins sind über Kommunikation vermitteltes Sein, und damit ist das Sein Kommunikation. K: Bewußtsein kann man ja auch nicht anders als kommunikativ sich vorstellen. S: Er hat sich das Bewußtsein schon als eine interne Funktion gedacht, die Kommunikation extern. Klartext: wir schauen uns Jurassic Park an, und das heißt, was unser Sein ist. Ist das so, ganz banal gefragt. K: Es heißt ja schon im alten Marx, Produktions- und Verkehrsverhältnisse., nicht bloß Produktionsverhältnisse, Verkehrsverhältnisse genauso. Und dann geht er ins Detail und sagt Eisenbahn und Telefgrafie und das seien die wahren Mächte. P: Ist doch das Medium die Botschaft. K: Wenn man beim Medium an die Benuzterinterfaces denkt oder das ganze installiert haben sein müssende System mitmeint, das Marx meint, wenn er von Verkehrsverhältnissen spricht. Eisenbahn und Telegrafie sind keineswegs ein zufälliges Beispiel, sondern sie sind ja die ersten Medienkopplungen gewesen. Also was wäre die Eisenbahn ohne die Telefgrafie, da wären die Züge ja aufeinandergeknallt. Die beiden sind immer parallel installiert worden, und das ist ein Verkehrsverhältnis und ein Mediensystem. Wir könnten ja lange über Zukunft und Telegrafie sprechen. Das ist ja spannend. Vor der Telefgrafie konnte eine Armee vielleicht Reiter abschicken, und sagen, wir kommen übermorgen an, aber der Reiter hat auch Zeit verfressen bei seiner Meldung. Bei diesem Eisenbahnsystem konnte zum ersten Mal sozusagen in Nicht-Zeit gemeldet werden: Zug fährt jetzt in Leipzig ab und wird in zwei Stunden in Berlin sein. Und die Nachricht selber hat keine Zeit gebraucht. Im Prinzip keine Zeit. Dadurch war so ein Eisenbahnsystem erst möglich. P: Also kommt sozusagen die Hardware vor der Software. K: Ja fragt sich, was eben Planung angeht. Die Szenarien kann man eben, ist die einzige Form, wie man sich in diesen Zustand versetzt. Man kann aber nichts bewirken in diesem Sinne. S: Wenn ich jetzt Virilio anschau, der sagt: wir müssen uns gar nicht mehr bewegen, weil wir kriegen eh schon alles ins Haus geliefert. Heißt das, daß ein Verkehrsmittel durch das andere ersetzt wird, oder ist es so, daß die Verkehrsmittel vor dem Sinn kapitulieren. K: Vor dem Sinn kapitulieren ? S. Also vor dem, daß eben doch die Oberfläche herrscht. Ich habe bei Virilio doch den Eindruck , daß er sagt: die Leute im Büro müssen sich nicht mehr bewegen, wiel sie eben ihren Telefonhörer haben. Das System selbst ist eine Black Box, und man selbst ist nur noch mit Oberflächen konfrontiert. Sind dann nicht die Oberflächen, das, was wir als Sinn rezipieren und auch als Sinn darstellen ? K: Kann ja gut sein aber ich finde das irgendwie Kulturkritik und nichts weiter. |