Code und Material
Exkursionen ins Undingliche Herausgegeben von Georg Trogemann
Prof. Dr. Georg Trogemann (Hrsg.) La...
18 downloads
658 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Code und Material
Exkursionen ins Undingliche Herausgegeben von Georg Trogemann
Prof. Dr. Georg Trogemann (Hrsg.) Lab3, Labor für experimentelle Informatik, Kunsthochschule für Medien Köln, Deutschland http://interface.khm.de Mit Unterstützung durch die Kunsthochschule für Medien Köln http://www.khm.de Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdruckes, der Entnahme von Abbildungen, der Funksendung, der Wiedergabe auf photomechanischem oder ähnlichem Wege und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürfen. Produkthaftung: Sämtliche Angaben in diesem wissenschaftlichen Werk erfolgen trotz sorgfältiger Bearbeitung und Kontrolle ohne Gewähr. © 2010 Springer-Verlag/Wien Printed in Germany SpringerWienNewYork ist ein Unternehmen von Springer Science + Business Media springer.at Umschlagbild: Roman Kirschner, Roots, 2005/2006 (Detailansicht) Redaktion/Lektorat: Karin Lingnau, Tom Lingnau, Lasse Scherffig, Georg Trogemann Gestaltung: Karin Lingnau, Tom Lingnau Druck: Prima Print, Köln, Deutschland Mit zahlreichen, zum Teil farbigen Abbildungen Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über “http://dnb.d-nb.de” abrufbar. ISBN 978-3-7091-0120-9 SpringerWienNewYork
Frieder Nake Vorwort
9
Georg Trogemann Code und Material
15
Andreas Muxel, Martin Nawrath, Lasse Scherffig, Georg Trogemann Experimente
29
Ralf Baecker Rechnender Raum
48
Micha Thies txtstruct
54
Lasse Scherffig Feedback Vom Unding zur Sache
64
Thomas Hawranke Sensobotanics
88
Ludwig Zeller CubeBrowser
94
Martin Hesselmeier, Karin Lingnau SARoskop
104
Inhalt
Ralf Baecker Nowhere
110
Lothar Michael Putzmann Orakel Eine Frage zum Problem Berechenbarkeit und Material
116
Andreas Muxel Connect
126
Anselm Bauer Parasiten
134
Roman Kirschner Roots
142
Karin Lingnau Rabbit, Rabbit deconstructed
152
Georg Trogemann Algorithmen im Alltag mit Fotografien von Jochen Viehoff
158
AutorInnen
187
Frieder Nake
Vorwort
Geht einer durch die Straßen einer beliebigen Stadt in Europa und ist neugierig genug, von außen durch die Fenster ins Innere der Räume zu spähen, so kann er heute eine Wette darauf wagen, in wenigstens achtzig Prozent aller Räume eines Elektronengehirns gewahr zu werden. Ein altmodisch klingendes Wort, nicht wahr? Das war nicht immer so. Weder hätte unser Flaneur überhaupt irgendeines dieser Geräte im Wohnraum entdeckt, noch hätte ihn der Name Elektronengehirn verwundert oder verstört. Denn vor fünfzig Jahren gab es nur sehr wenige davon, und die es gab, sah man nicht. Sie waren Geheimnisse, die irgendwo fernab existierten. Viele aber, nicht nur die Feuilleton-Schreiber, meinten, dass sie genau so heißen sollten, wie es heute befremdlicher kaum klingen kann: Elektronengehirn. Gelegentlich auch Giant Brains oder “Denkmaschinen”. Das hat sich geändert. Vor ein paar Jahren sagten die Leute vor allem PC, meinten damit aber beileibe nicht etwa parti communiste, was man ja auch denken könnte. Wofür die Abkürzung stand, war vielleicht schon vergessen. Solche PCs gibt es auch heute noch in den Arbeits- und Wohnräumen zu entdecken. Auf dem Vormarsch sind jedoch der Laptop oder das Notebook und mittlerweile noch viel kleinere Gehirne mit um Zehnerpotenzen höheren Leistungen. Man steckt sie sich in die Hosentasche und fingert geschickt an ihnen herum. Recht sexy.
9
Dem Handy (mobile phone) sind in rascher Folge Funktionen zugeflogen und eingeprägt worden, die ihrem Besitzer eine mediale Zauberwelt schaffen, in die sie ihn locken und ziehen. Den Versuch wäre es wert, das handliche Kästchen, für das deswegen in Deutschland ein neues englisches Wort erfunden wurde, vielleicht Handgehirn oder brain in the pocket zu nennen. Doch es scheint, die Gehirn-Metapher habe ausgespielt. Als ob die Leute gelernt hätten, dass es mit dem Denken der rechnenden Maschine allzu weit nicht her ist. Eher schon ist das Vielfachgerät ein Zugang zu riesigen pulsierenden Datenräumen geworden, die sich unsichtbar und auch sonst unbemerkbar überall um uns herum befinden, wo immer wir uns aufhalten. Mit dem Taschenhirn zapfen wir sie an. Wir blicken nicht aufrechten Hauptes in die Welt hinaus, sondern in leicht gebückter Haltung ihm auf die Oberfläche. Schluss damit! Ernsthaft jetzt! Der unmäßigen Bedrohlichkeiten und Befremdlichkeiten der aufkommenden Rechenmaschinen konnten sich die Menschen in den frühen 1950er Jahren wohl nur so erwehren, dass sie sie im Namen als außerhalb ihrer eigenen Sphären befindlich erklärten. Den Giant Brains musste und sollte schlicht alles zugetraut werden. Was ja auch zutraf und doch für die frühe Zeit der Computerentwicklung hinsichtlich der konkreten Leistungen der Maschinen maßlos übertrieben war. Die Informatik kam als eine eigene Disziplin in Europa Ende der 1960er Jahre auf. Ein Vierteljahrhundert später wurde der Computer zur Ware. Es ist ziemlich geschmacklos, ein feines Buch wie die hier vorliegenden Exkursionen ins Undingliche mit belanglosen Sprüchen über Ausbreitung und Allmächtigkeit von Computern zu belasten. Einen Ausdruck allerdings verdient die wohl in Reichweite und Geschwindigkeit historisch ziemlich einzigartige Entwicklung schon. Die gesamte technische Infrastruktur aller gesellschaftlichen Prozesse und Felder, so will ich es ausdrücken, ist in den vergangenen vierzig Jahren (seit Beginn der 1970er Jahre) von Grund auf umgewälzt worden. Die produktive Basis wie der kulturelle Überbau sind davon so breit und tief und nachhaltig erfasst worden, dass jungen Generationen Alternativen nicht mehr vorstellbar zu sein scheinen. Vielleicht nur als negatives Utopia im romantischen Rückblick. Dies trifft für Europa und Nordamerika und Japan zu. Stürmisch aber holen weite Teile der Welt nach und auf, und nur einige Gegenden, vor allem in Afrika, bleiben noch wenig berührt. Glück oder Pech? Wer will das sagen? Alles, was hierzu ökonomisch und soziologisch zu sagen wäre, unterbleibt hier. Einzig eine überzeugende, wenn wohl leider noch immer ungewohnte Kennzeichnung der rechnenden Maschine ist für den Kontext von Exkursionen ins Undingliche bedeutsam. Denn das ist es, was so sensationell über die Gesellschaft hereingebrochen war, besser: was so sanft, aber wirkungsmächtig in ihrem Inneren heranwuchs und -schwoll: das Undingliche. Das, was wirkt, und zwar gewaltig, nicht-rückholbar, und was doch nicht ergriffen werden kann mit der Hand, nur begriffen mit dem Hirn. Das Undingliche ist neu, die maschinelle Realität des Undinglichen, das ja als Fantasie, die an die Macht gelangen solle, schon lange mit uns ist, in jeder romantischen Bewegung.
10
Das Undingliche aber ist nicht so sehr die Negation des Dinges, seine Verflüchtigung vielleicht und Verdampfung, von der Marx und Engels im Kommunistischen Manifest schon 1848 sprachen. In der englischen Übersetzung poetisch: All that is solid melts into air. Die Voraussage ist Wirklichkeit geworden. Das Undingliche ist vielmehr die Aufhebung des Dings in der Relation des Zeichens. Das Ding, das die klassische Maschine bearbeitet und herstellt, verdoppelt sich im Zugriff der transklassischen Maschine zum Ding und Zeichen. Jeder dingliche Prozess wird heute von seinem Schatten begleitet, einem Zeichenprozess. Der begleitende Zeichenprozess gewinnt dabei bald schon relative Selbständigkeit, von der wir erfahren, wenn jemand am Kundenschalter sagt, es täte ihm leid, aber das ginge nun eben nicht, Sie wissen schon, verständnisinnig, der Computer ... Naturgemäß ist der Zeichenprozess, den die Computermaschinerie vollführt, gar nicht wirklich ein Zeichenprozess im vollen Sinne des Wortes Zeichen. Denn das Zeichen wird Zeichen erst dann und dadurch und so weit, als wir es interpretieren. Der Computer aber kann nicht interpretieren. Er kann es überhaupt nicht und nie und nimmer. Denn er hat keinen sterblichen Körper und mithin auch kein Interesse. Dennoch macht die Redeweise vom Zeichenschatten einen guten Sinn, wenn wir ein wenig vorsichtig vorgehen (was wir immer dann tun sollten, wenn es um eine jener Verdoppelungen geht, die vielleicht gar kulturelle Entwicklung voran bringen). Zunächst gilt es felsenfest zu halten, dass nichts in der Welt durch seine bloße Existenz schon Zeichen wäre. Dann aber im fast selben Atemzug, dass jedes beliebige Etwas Zeichen werden kann. Dazu braucht es nicht mehr als eines Menschen und seiner Fähigkeit zur Interpretation - also die Fähigkeit, Bedeutung zu schaffen, wo keine ist. Immer und überall, wo das geschieht, wird ein Ding zum Zeichen gemacht. Ständig findet das statt, mehr, als wir dächten. Wir betten ein Wahrnehmbares ein in ein Verhältnis, das seine (eine!) Bedeutung wird. Die Bedeutung - nichts als die Zuordnung zu einem Anderen - weist bei Charles Sanders Peirce zwei Facetten auf: eine konventionelle, kulturabhängige, längerfristig bestehende, und eine individuelle, situationsabhängige, kurzfristig bestehende. Peirce nennt die erste Facette das Objekt des Zeichens, die zweite den Interpretanten. Objekt und Interpretant zusammen machen die Bedeutung aus. Der Interpretant des Zeichens ist die Bedeutung, die ein Individuum einem Zeichenereignis hier und jetzt zukommen lässt. Das Objekt ist, was in einer großen oder kleinen Gemeinschaft dem Zeichen allgemein beigeordnet ist. Beide sind eng aufeinander bezogen. Nur als Mitglieder einer Kultur, einer Gemeinschaft (wie groß and abstrakt, wie klein und konkret sie auch sei) sind wir in der Lage, zu verstehen, zu begreifen, uns über den Zeichengebrauch zu verständigen. Unterscheiden wir zusätzlich mit Charles William Morris eine syntaktische (“Wie wird bezeichnet?”), semantische (“Was wird bezeichnet?”) und pragmatische Ebene der Zeichen (“Wozu wird bezeichnet?”), so können wir nun die erwähnte Verdoppelung des Dings zum Computerding genauer fassen.
11
Sie besteht darin, dass sich dem Ding ein semiotisches, jedoch reduziertes Zweites beigesellt: ein Zeichen, das auf seine syntaktische Dimension reduziert und innerhalb dieser nur berechenbar behandelt wird. Maschinell können Zeichen nur als Signale vorkommen. Computer-maschinell nur als algorithmische Signalprozesse. Das ist die widersprüchlich konstituierte Zeichenwelt der Computer. Sie sind semiotische Maschinen, in Zeichenprozessen verfangen, dem Medium ständig nahe, in ihm aufgehend. Und sie sind das auch nicht, können es wegen fehlender Interpretationsfähigkeit gar nicht sein, nur Signalprozesse vollführend, ganz Automat. Jedoch Zeichen ist nicht Ding, sondern Verhältnis. Wir Menschen stehen - nach einem Wort des unglücklichen Mathematikers Felix Hausdorff (als Paul Mongré) die semiotischen Tiere - zur Computermaschinerie in einem Verhältnis, die uns zwingt, diese Maschine als semiotische Maschine zu begreifen. Denn wir richten sie ein, mit Zeichen maschinell umzugehen, wir nehmen sie nicht für die stoffliche Bearbeitung von Welt, sondern für die rechnerische. Die Maschine ist in der Lage, das auch zu tun, weil sie dazu gebaut wurde, den Extremfall der Interpretation zu leisten, in rasender Geschwindigkeit, ohne den Hauch eines Zögern, mit größtmöglicher, nämlich berechnender Sicherheit: die Determination. Die einzige Bedeutung eines Zeichens und Zeichenkonglomerats festzustellen, die der programmierende Mensch in die Programme legt, das ist die Aufgabe der rechnenden und mithin semiotischen Maschine. Es ist eine formale (nicht und nie mehr als das: eine rein formal so zu nennende) Interpretation, die der Computer vollbringt. Diese einseitige Interpretation, die eine Interpretation ohne Wahl, unabhängig von allen weiteren Kontexten und Situationen ist, eine Interpretation also, die wegen ihrer strengen Begrenzungen wir nur gewaltsam in der Lage sind zu vollbringen, die Determination also, sie ist das Metier des Computers, des ehemaligen Elektronengehirns. Semiotisches Tier und semiotische Maschine in enger Umschlingung. Kalt und doch sexy. Ein wenig melancholisch, mag einer denken und seinen Laptop streicheln, so dass niemand es sieht. Zu denken wie eine Maschine denken würde, wenn sie es könnte, das ist der quälerisch schöne neue Umgang mit Maschinen. Wenn die “versteckten Algorithmen” hinter den grandiosen Stürmen von Farben und Formen auf den Monitoren ihren Charme verloren haben und wenn die Erwartungen des Betrachters nüchterner geworden sind, so ist das der Gewöhnung an die verdoppelte Welt geschuldet, nicht dem Verlust ihrer Überzeugungskraft. Das Reale hat sich im Laufe dieses historischen Prozesses in das Aktuale und das Virtuale getrennt. Die von Sol LeWitt so gerühmte Idee der conceptual art ist in der digital art mehr als Idee: hier ist sie ausführbare Tat! Denken und Schauen werden eins, seitdem die Computerkunst von 1965 dazu überging, Bilder als unendliche Klassen zu denken und mit dem Hirn zu zeichnen. Der Code selbst ist zum Material geworden, und eine neue Art der Intelligenz ist gefordert: eine Intelligenz, die algorithmisch und ästhetisch gleichzeitig und gleichermaßen präsent ist. Die algorithmische Revolution, von der Peter Weibel spricht, hat diese neue Intelligenz notwendig gemacht. Sie ist von Zeichen und Medien geprägt und eben deshalb auch von Dingen.
12
An der Kunsthochschule für Medien in Köln sind seit geraumer Zeit im Lab3 junge Menschen um Georg Trogemann dabei, Projekte zu durchlaufen und Prozesse zu schaffen, die zu den Hervorbringungen dieser neuen Intelligenz gehören: der Intelligenz der algorithmischen Zeichen. Sie kann in einem Atemzug eine physikalische Formel, eine algorithmische Formulierung und eine ästhetische Form nennen und bewegen. Diese Intelligenz ist den Prozessen zugetan, die sie initiiert, beobachtet und reflektiert, an denen sie sich erfreut und von denen sie gern sieht, dass sie bei anderen ein Leuchten in den Augen erzeugt. Warum denn auch nicht? Streng geht es zu in der Welt der Algorithmen. Jedoch sind algorithmische Prozesse heute so komplex geworden, dass nicht jeder Studierende und Mitarbeiter des Lab3 zu jedem Zeitpunkt genau sagen könnte, was als nächstes geschieht. Sie leben mit ihren Materialien, die mit dem Gedanken anfassbar sind. Sie erscheinen als Äußerungen aus der Welt der algorithmischen Zeichen. Das ist das Neue der Digitalität. An der KHM Köln wird es auf Feinste, Klügste und Erfindungsreichste gepflegt. Diesem Buch, mit einer Auswahl von Arbeiten aus dem Lab3, ist hohe Aufmerksamkeit zu wünschen. Denn es setzt Beispiele.
13
Georg Trogemann
Code und Material
“Nicht im Zeitalter des Materialismus, wie alle Banausen klagen, leben wir, sondern im zweiten platonischen Zeitalter. Erst heute, in der Epoche der Massenindustrie, kommt dem einzelnen Objekt tatsächlich ein geringerer Seinsgrad zu als seiner Idee.“ schreibt Günter Anders 1978 über “Die Antiquiertheit des Materialismus”.1 In der Tat ist für die Wirtschaft längst nicht mehr relevant, im Besitz eines bestimmten Dings zu sein, sondern die nicht-physischen Rezepte für die Herstellung zahlloser Exemplare des Dings zu besitzen. Und dieses Wissen über die Dinge wird heute nicht mehr in den Köpfen der Handwerker oder handschriftlich aufgezeichnet, sondern als digitale Information, als Unding (Flusser). Damit betreten wir die Welt der Algorithmen. Heute programmieren wir Maschinen, damit sie massenhaft die wertlos gewordenen Dinge auswerfen. Wir entwerfen neue Dinge am Computer und entwickeln Steuerungssoftware, die es erlaubt, die Produkte in zahllosen Varianten herzustellen. Kaum ein Auto
15
gleicht exakt dem anderen, keine IKEA-Küche der des Nachbarn. Programmierte Schein-Individualität ist eines der Kennzeichen digitaler Industrien. 1984 versuchte Jean François Lyotard mit seiner Pariser Ausstellung Les Immatériaux den durch die Entwicklung digitaler Informationssysteme veränderten Blick auf die Materialität der Dinge zu untersuchen.2 Die Ausstellung “[...] traf auf weit in den Alltag und die Populärkultur hineinreichende Interessen. Denn mit der medientechnischen Entwicklung, mit der die vieldiskutierte Vorstellung von den Extensionen des Körpers und der ubiquitären Überwachung einhergeht, scheint die Welt ihre materialen Unterschiede einzubüßen und die Wahrnehmung flüchtiger Oberflächen an die Stelle fester Gegenstände zu treten. Die Pariser Ausstellung wurde jedoch weniger als kritische Befragung der Tauglichkeit des überkommenen Materialbegriffs rezipiert, sondern als Bestätigung der Überwindung der alten Welt physischer Materialien durch angeblich immaterielle Bilder der Informationstechnologie. Damit wird den digitalen Codes eine Weihe verliehen, die einst nur der künstlerischen Arbeit als Transformation des Materials in einen anderen höheren Zustand zukam.”3 In der Rezeption der Pariser Ausstellung spiegelt sich die verbreitete Vorstellung, es gäbe höhere und niedrigere Formen in der Kultur. Zu den Höheren gehören die geistigen, immateriellen Ausdrucksformen, zu den Niedrigen die materiellen. Diese Hierarchisierung von Geistigem und Materiellem durchzieht die gesamte westliche Kulturgeschichte. Begriffspaare wie Code und Material, Zeichen und Ding sind aus dieser Perspektive lediglich moderne Varianten einer alten Dualität. In der Hierarchisierung von Ding und Zeichen gewinnen derzeit lediglich die Zeichen wieder einmal die Oberhand. “Es geht um den Übergang von einem ontologischen Symbolismus zu einem operativen Symbolismus. Unter ontologischem Symbolismus sei die Auffassung verstanden, dass das Gegebensein symbolisch repäsentierter Gegenstände unabhängig sei vom Akt der Symbolisierung, so dass also die Gegenstände ihren Symbolen vorausgehen, und die Symbole einen bloß sekundären Status innehaben. Der Begriff operativer Symbolismus akzentuiert dagegen die Überzeugung, dass die sinnlich wahrnehmbaren Symbole gegenüber dem, was sie repräsentieren, primär sind, dass also die symbolisierten Gegenstände erst durch den Akt symbolischer Bezugnahme hervorgebracht werden. Der Übergang vom ontologischen zum operativen Symbolismus kann so pointiert werden: Nicht mehr verleihen die Dinge den Zeichen ihre Bedeutung, vielmehr konstituieren die Zeichen die Dinge überhaupt erst als epistemische Gegenstände.”4 Die Materialität der Information Betrachten wir als Beispiel ein einfaches Objekt, einen Kreis. Die Trennung der Idee des Kreises von seiner materiellen Realisierung ist leicht nachzuvollziehen. Dazu die frühe Kybernetik: “Wenn wir einen Kreis ziehen, so ist der geometrische Informationsgehalt, den diese Form repräsentiert, völlig von der Materialität unabhängig, die dabei ins Spiel kommt. Wir mögen den Kreis auf einer Wandtafel mit Kreide anmalen oder auf Papier mit dem Bleistift. Dieser Wechsel der Materialität, in der sich die Zeichnung manifestiert, ist ebenso irrelevant wie die Materialität des kybernetischen Systems (zeichnende Person), die die Figur produziert. Wenn also behauptet wird,
16
dass ein Informationssystem als solches total unabhängig von einem gegebenen materiellen Bestand der Welt ist, so ist Materie immer im Sinn von Holz, Kreide oder auch Fleisch und Blut gemeint. Darin liegt ja gerade die umwälzende Bedeutung der Kybernetik, dass behauptet wird, dass Eigenschaften und Verhaltensweisen, die wir in der Vergangenheit ausschließlich lebendigem Fleisch und Blut zugeschrieben haben, auch unabhängig von solcher spezifischen Materialität realisiert werden können.”5 Wir erleben heute nicht nur eine immense Zunahme von Ideen, eine “Inflation der Erfindungen (die als Herstellung von Ideen bei Plato nirgends vorkommen)”6, sondern vor allem die Veränderung der Repräsentation von Ideen. Die Idee des Kreises fällt heute vollständig mit seiner mathematischen Formalisierung zusammen. Im Idealfall liegen uns die Ideen als formale Verfahren, d. h. als Algorithmen vor. Der Schritt zur Herstellung konkreter Instanzen der Idee ist dann nur noch kurz. Die Bedeutung der Information als künstlerisches Material wird sehr früh von Abraham Moles erkannt.7 “Das Bewusstsein der Materialität der Information ist außerordentlich jung. [...] Erst mit der Erfindung der übrigen Kommunikationskanäle [jenseits des Buches], mit Telefon, Radio, Aufzeichnung von Ton, Bild und Bewegung wieder einmal war der homo faber dem homo sapiens voraus – bemerkte man, dass diese Materialität etwas war, was über Papiergewicht und Anzahl der Telefonkabel hinausging, nämlich das Zeichen; man begriff die Existenz der Materialität jeglicher Kommunikation. Die Idealität der Kommunikation wurde also in der begrifflichen Darstellung durch das Hinzukommen der Materialität in ihrer Bedeutung eingeschränkt. [...] Von jetzt ab gibt es in der modernen Welt eine ganze Kategorie von Individuen, die mit den materiellen Ideenträgern umgehen: nicht mehr Drucker, Buchhändler, Boten und Fernsprechbeamte, sondern Nachrichteningenieure. Für sie geht durch Telefondrähte, Leitungen und Verstärker das Träger-Signal von Ideen, die sie nicht kennen und um die sie sich nicht kümmern; aber sie müssen sich mit Problemen der Überlastung von Wellenlängen, der Auslastung von Fernsprechnetzen auseinandersetzen oder noch konkreter mit den Gebühren für Telegramme; für sie wird der quantitative Aspekt der Information selbstverständlich. [...] Die modernen Techniken haben nacheinander den Metteur, der früher ein unbedeutender Mitarbeiter im Druckereibetrieb war, den Cutter, der oft der eigentliche Filmregisseur ist, und den Toningenieur beim Rundfunk oder bei der Schallplattenaufnahme kreiert und an den ihnen zukommenden Platz als Künstler gestellt. [...] Auf solcher Grundlage muss eine neue Ästhetik entstehen; sie untersucht zunächst systematisch die Materialität der Kommunikation und nicht ihre Idealität, die den Gegenstand der klassischen Ästhetik ausgemacht hat, [...]” Auch dem Informationsbegriff gelingt es also offensichtlich nicht, den alten Dualismus von Idealität und Materialität zu überwinden. Wie das Wort “In-formation” bereits sagt, geht es primär um die Form in den Dingen.8 Auch Information braucht demnach ein Material, das die Form aufnehmen kann. Natürlich ist jedes Material, das wir formen immer selbst schon das Ergebnis einer Objektivierung. Um ein Material gezielt verwenden und bearbeiten zu können, müssen wir seine Eigenschaften und sein Verhalten unter verschiedenen Bedingungen explizit benennen können. Das
17
heißt die bloße Wahrnehmung des Materials reicht nicht aus, wir brauchen zumindest eine differenzierte Vorstellung, einen Plan, wie wir das Material zweckgerichtet handhaben und verändern können. Richard Sennett spricht in diesem Zusammenhang von Materialbewusstsein, das nicht nur der Handwerker haben muss, sondern auch jeder, der mit Symbolen arbeitet. “Ist unser Bewusstsein der Dinge unabhängig von den Dingen selbst? Sind wir uns der Worte in derselben Weise bewusst, wie wir ein inneres Organ durch Tasten erfühlen? Anstatt uns in diesem philosophischen Wald zu verlieren, wollen wir uns lieber auf die Frage konzentrieren, was denn ein Objekt interessant macht. Das ist die eigentliche Domäne für das Bewusstsein des Handwerkers. Sein ganzes Bemühen um qualitativ hochwertige Arbeit hängt letztlich ab von der Neugier auf das bearbeitete Material.”9 Hier nun endlich die Hinwendung zu den Fragen der Praxis. Der Wettstreit zwischen Ding und Bewusstsein kann mit Richard Sennett den Philosophen überlassen werden, für die Praxis ist es fruchtbarer, das Material nicht als Gegenpol des Denkens und der Reflexion zu sehen. Nicht nur für die handwerkliche Praxis, auch für die hier versammelten künstlerischen Arbeiten ist es notwendig, Materielles und Immaterielles als zusammengehörig aufzufassen, als etwas Gleichzeitiges und sich gegenseitig Bedingendes. Weder geht das Denken materiellen Dingen voraus und ist damit deren eigentlicher Ursprung, noch ist das Immaterielle dem Materiellen nachgeordnet und durch dieses vollständig determiniert. Mit Merleau-Ponty ließe sich sagen: “Es gibt nicht nur reines Bewusstsein auf der einen, Sachen auf der anderen Seite. Uns interessiert vor allem das Zwischenreich zwischen dem Bewusstsein und den Sachen.” Die etwas sperrige Kombination Code und Material versucht genau dieses Spannungsfeld mit besonderem Blick auf den Computer und die digitalen Medien zu thematisieren. Ohne Materialbewusstsein kommen weder Naturwissenschaftler noch bildende Künstler aus, aber schon gar nicht diejenigen, die programmierte Artefakte herstellen. Dem Gemenge aus Code und Material ist jeder ausgesetzt, der in einem experimentellen Zugang eigenaktive Objekte baut. Das sind Objekte, die in eine gewählte Umwelt eingebettet werden und dort programmgesteuert agieren. Bei solchen algorithmischen Artefakten geht es gerade nicht um die Überwindung der Materialität, sondern um die Aktualisierung eines überkommenen Materialbegriffs. Die Codierung des Denkens Computercodes sind seltsame Hybridobjekte. Die in den Rechnern operierenden Zeichen haben ihre Wurzeln sowohl in der Mathematik, als auch in der Elektrotechnik. Sie sind Text einerseits und damit als mathematisch-symbolische Beschreibungen zu lesen, andererseits besitzen sie als materielle Signalprozesse im Rechner die Kraft, vom Programmierer vorgedachte symbolische Operationen in reale Aktionen umzusetzen. Die Hardware der Maschine ist aufgrund ihrer Materialität naturgebunden, sie unterliegt den Gesetzen unserer physikalischen Welt und ist in diese eingebettet. Um ihre Arbeit zu leisten verbraucht sie Energie, sie unterliegt Alterungsprozessen und ist anfällig für allerlei Defekte. Gleichzeitig ist sie aber auch in der Lage über ange-
18
schlossene Aktoren in die Welt einzugreifen. Die Codes dagegen sind direkt mit dem menschlichen Denken und der menschlichen Sprache verbunden, sie sind der algorithmischen Rationalität verpflichtet. Die Codes gehorchen nicht mehr physikalischen Gesetzen, sondern logischen. Hierin besteht die Kunst des Ingenieurs. Er bringt das Material so in Form, dass etwas Neues entsteht, dessen Qualitäten nicht mehr auf der Materialebene beschrieben werden können. Im Falle des Computers werden auf Silikonbasis formale Rechenmodelle realisiert. Hier unterliegen wir dann den Grenzen operationalen Symbolgebrauchs, die Physik tritt in den Hintergrund. Nicht die Digitalität ist deshalb das wesentliche Merkmal des Computers, sondern seine formallogische Basis. Schon die Tatsache, dass wir auf symbolischer Grundlage problemlos stetige Vorgänge und Systeme beschreiben und behandeln können, zeigt die Zweitrangigkeit der Digitalität. Fehler, die im Zusammenhang mit Programmcodes auftreten, sind deshalb auch immer Denkfehler und nie Materialfehler im physikalischen Sinn. Denkfehler entstehen immer dann, wenn die Vorstellungen, die sich ein Programmierer vom seinem Code macht, nicht mit den Funktionen übereinstimmen, die der Code tatsächlich berechnet. Entscheidend in diesem Zusammenspiel von Programmierer und Computer ist die strikte Trennung zwischen Interpretation im Sinne der Semiotik und Exekution im Sinne der Berechnung. Es ist immer der Programmierer, der vordenkt und sein Denken in Zeichen fasst, und es ist der Computer, der nachrechnet. Er hat keine Möglichkeit, den Code, den er als Schrittfolge vorgesetzt bekommt, zu interpretieren, er kann ihn nur exekutieren. Sofern die Maschine die Ergebnisse der Berechnung ebenfalls wieder als Zeichen ausgibt, ist es wiederum der menschliche Nutzer, der die berechneten Zeichen interpretiert, nicht die Maschine. Wir können Programmcodes auffassen als entkörperlichte Handlungsketten, die sich über das Zwischenstadium des Zeichensystems in ein Material einprägen müssen, um ihre Wirkung entfalten zu können.10 Im Zuge der Programmierung findet ein Übersetzungsprozess statt, Denkprozesse werden in maschinelle Handlungsprozesse überführt. Der Formalisierung, d. h. der Anwendbarkeit unabhängig von konkreter Einsicht, kommt dabei eine wichtige Verbindungsrolle zu. Formale Methodik will unreflektierte Wiederholbarkeit schaffen, ein Fundament von Voraussetzungen, das zwar immer mit im Spiele ist, aber nicht immer aktualisiert werden muss.11 Codes beschreiben objektiviertes Wissen, das durch Ausführung der einzelnen Anweisungen operativ wird. Programme sind eine Form von Handlungstheorie, die Holling und Kempin12 als implementierte Theorie bezeichnen. Unter einer Implementierung versteht man dabei die Umsetzung eines formalen Verfahrens – also eines Algorithmus – in eine Maschine. Dort kann der Prozess dann vollkommen losgelöst vom Programmierer ablaufen. In diesem Bild sind Codes das Scharnier, das menschliches Denken mit maschineller Handlung verbindet. Die Formalismen der Mathematik und der Naturwissenschaften haben in den Programmcodes der digitalen Maschinen eine neue Qualität erreicht. Formalisierung bedeutet wesentlich Abstraktion von realen Verhältnissen, also ein Zurücktreten, Generalisieren und Reinigen von Unwesentlichem und Zweideutigem. Die unterschiedlichen Modalitäten der Medien lösen sich auf der formalen Ebene der Codes
19
nahezu vollständig auf und finden eine gemeinsame Basis. Die herkömmliche Trennung zwischen Bild, Ton, Bewegung etc. ist nur noch an der Oberfläche intakt. In den Theorien, die für die darunter liegenden Schichten zuständig sind, zum Beispiel die Signalverarbeitung, ist die Strukturgleichheit zwischen Bild und Ton als Arbeitsgrundlage längst etabliert. Im Computer werden die eindeutigen und trennscharfen Formalismen zu realen Operationen, die neue Phänomene erzeugen. Entscheidend ist dabei, dass in den prozessierenden Codes der Abstraktionsprozess rückwärts abläuft. Die Interfaces laden die Rechenergebnisse mit Mehrdeutigkeiten und Unschärfen auf. Es kehrt nun aber nicht das zurück, das im Prozess der Abstraktion und Formalisierung weggeworfen wurde, die Lücken werden mit den Strukturen der Maschine gefüllt. Zwar bleibt die Unterseite der Medien – der Code – streng rational, doch an der Oberfläche – dem Interface – sind die Phänomene nun angereichert mit Unbeabsichtigtem und Nebeneffekten des symbolischen Operierens, die neue Interpretationsspielräume für den Nutzer eröffnen.13 Vernunftform und ästhetische Form gehen auf diese Weise eine untrennbare Verbindung ein. Die Materialität des Codes auf dem Ideenträger Fläche, die Abraham Moles für den Druck beschreibt, spielt auch bei der Code-Entwicklung eine Rolle. Die Frage lautet hier, inwieweit die geschriebenen Codes das Mechanisierungsdenken des Programmierers unterstützen. Die Entwicklung unterschiedlicher Programmiermethodiken – von Anweisungen über Funktionen hin zu prozeduralen, logischen und objektorientierten Programmiersprachen – hat nicht zuletzt mit dieser Lesbar- bzw. Verstehbarkeit des Programmtextes zu tun und der Unterstützung, die diese bereits durch die Formatierung, Anordnung und Verteilung der Zeichen und Textblöcke auf dem materiellen Ideenträger leisten kann. In modernen Software-Werkzeugen wird der Entwicklungsprozess auf vielfältige Weise visuell als auch funktional unterstützt. In einem kooperativen Prozess schreiben die Werkzeuge am Code mit. Auch bei der Programmierung sind die Mächte der Konvention und Gewohnheit nicht zu unterschätzen. “Die allmähliche Verfertigung der Gedanken bei der Fertigung von Software ist an die vorgefundenen Sprachmittel gebunden. [...] In der Praxis beruht die Wahl der Programmiersprache nur selten auf einer zweckrationalen Entscheidung; Tradition, Gewohnheit, Mythen beharren auf ihrem Recht. Stil verweist – in der Kunst wie in der künstlichen Welt formaler Artefakte – auf einen kulturellen Kontext, in dem er geformt wurde.”14 Auf der Ebene des Codes treffen wir beim Programmieren nicht nur rationale Entscheidungen, sondern immer auch ästhetische. Wie stark soll die Linie des Kreises sein, welche Farben werden für Figur und Hintergrund gewählt, wie groß soll der Kreis im Verhältnis zur Gesamtfläche sein, welche Auflösung ist zu wählen? Diese ästhetischen Entscheidungen im Code werden aber auf die Materialität der Realisierung Rücksicht nehmen müssen. Und selbst die algorithmisch-rationalen Entscheidungen innerhalb des gewählten Algorithmus müssen auf die Materialität des Rechners eingehen, und zwar insofern, als möglicherweise Speicherplatz und zeitliches Verhalten Einfluss auf die Wahl haben werden. Codes sind somit ein Verbundwerkstoff, der immaterielle Algorithmen mit den materiellen Interfaces zu so etwas wie informiertem Material vereint.
20
Code als Verbundwerkstoff Wenn wir hier vom Code als Material sprechen, ist ein unmittelbarer Materialbegriff gemeint, der die objektivierbare Seite der Dingwelt anspricht. Die beiden wesentlichen Merkmale jeder Materialität sind Messbarkeit und Veränderbarkeit. Die Messung registriert quantitativ-qualitative Unterscheidungen und ermöglicht auf diese Weise, die Individualität der Dinge in der Welt festzustellen. Die Veränderbarkeit bedeutet, dass wir Material formen und dienstbar machen können. Der Gestalter Gui Bonsiepe verwendet die Heideggerschen Begriffe der Vorhandenheit und Zuhandenheit, um Entwurfsprozesse allgemein als Tätigkeit zu charakterisieren, die das nur Vorhandene in ein Zuhandenes transformiert.15 “Hierzu werden vorhandene (rohe, ungeordnete, unkommunizierbare) Materialien in einem Entwurfs- und Produktionsprozess geformt und strukturiert, um sie so in ein zuhandenes (nutzbares, strukturiertes, bedürfnisorientiertes) Artefakt zu transformieren. Das Material eines Entwurfs kann dabei sowohl physisch-materieller als auch zeichenhafter Natur sein. Die Zuhandenheit eines Artefakts bemisst sich an dem Grad, in dem es effiziente Handlung ermöglicht, wobei Entwerfen neben physikalischer und kognitiver Effizienz vor allem auf soziale und kulturelle Effizienz zielt. Eine Eigenschaft des Entwurfs ist daher, dass in ihm soziale und kulturelle Kontexte gedeutet werden. Das Artefakt als Ergebnis des Entwurfs transportiert diese Deutung dadurch in die Welt, dass es einen bezüglich seiner Verwendung strukturierten Handlungsraum anbietet.”16 So wie sich beispielsweise Grundsätzliches über die Materialeigenschaften von Holz für den Orgelbau sagen lässt – wovon das meiste im Übrigen ganz allgemein für die Verwendung des Holzes als Werkstoff gilt – so lässt sich auch Grundsätzliches über Computercodes als Material künstlerischen Arbeitens sagen. Die Materialwissenschaften interessieren sich nicht in erster Linie für die stoffliche Zusammensetzung von Materialien, sondern vor allem für Bearbeitungs- und Gebrauchseigenschaften. Ein Material, das hervorragende Eigenschaften bei der Herstellung eines Artefakts hat, muss keinesfalls die gleichen Qualitäten im Hinblick auf Langlebigkeit und Pflege besitzen und umgekehrt. Im Herstellungsprozess ist vor allem wichtig, wie sich mit dem verwendeten Material arbeiten lässt, bis hin zu Fragen der Verfügbarkeit und des Preises. Fragen der Alterung und Pflege spielen erst für den Gebrauch und die Lebensdauer eine Rolle. Die Materialität von Ideenträgern, von denen Abraham Moles im obigen Beispiel spricht, hat auch für die Herstellung von Codes Relevanz. Moles erklärt die Bedeutung der Materialität der Ideenträger am Beispiel des Drucks. “Die Presse hat als erste die ästhetischen Konsequenzen aus der Materialität der Ideen gezogen, und zwar mit einer neuen Kunst, deren Konzept nichts mit den traditionellen Techniken zu tun hatte; mit der Kunst der Zusammenstellung von Nachrichten, dem Umbruch (beispielsweise einer Tageszeitung), wo der Künstler in der Anordnung von Kommunikationsfragmenten, die er selbst nicht herstellt, ein ästhetisches Problem löst. Die klare Trennung von Redaktion und Satz, die ästhetische Irrelevanz dessen, was gesetzt wird, macht die Materialität deutlich, und die Entdeckung der anderen Kommunikationsarten bestätigt, dass es sich nicht um eine Zufälligkeit handelt, sondern um eine allgemeine Eigentümlichkeit der Materialität der Ideenkommunikation; alles in allem geht es um nichts anderes als die klassische Wahl des Künstlers
21
zwischen Zusammenstellen und Herstellen: Dirigent und Komponist, Maler und Farbenhersteller, Architekt und Bauunternehmer.”17 In der professionellen SoftwareEntwicklung ist mittlerweile ebenfalls die Differenzierung zwischen Zusammenstellen und Herstellen vollzogen, z. B. zwischen dem Software-Architekten, der konzeptionelle Entscheidungen trifft, und dem reinen Codierer, der die Programme schreibt. Vielfältige neue Berufsbilder entstehen auf diese Weise. Auch in der künstlerischen Praxis finden wir Aufgabenverteilungen, bei denen Künstler für die Umsetzung ihrer Konzepte mit Technikern und Programmierern zusammenarbeiten. Ansonsten ist die Ideenkommunikation mittels formaler Codes noch etwas komplizierter. Programmcodes sind nicht nur ein äußerst präzises Kommunikationsmittel der Informatiker und Programmierer, sondern gleichzeitig schon Instruktion für die Maschine. Die Materialeigenschaften von Codes im Gebrauch sind andere als die der Herstellung, sprich Programmierung. Im Gebrauch verlagern sich die Materialeigenschaften von der Linearität des Codes und seiner zweidimensionalen visuellen Präsentation hin zur Stofflichkeit der Rechner und ihrer Interfaces. Betrachten wir als Beispiel den so genannten warmen Klang als Charakterisierung von Klangqualität und Tonschönheit. Bei klassischen Musikinstrumenten ist dieser unabhängig von den geometrischen Abmessungen des Instruments, dagegen stark abhängig von den inneren Spannungen des Materials und seiner Temperatur. Der warme Klang einer Flöte wird deshalb wesentlich vom verwendeten Holz bestimmt und nicht von ihrer Größe. Derartige Materialerkenntnisse verlagern sich im Bereich der Computermusik weitgehend ins Interface. Dort werden dann Materialeigenschaften diskutiert, zum Beispiel in welchen Frequenzbereichen ein Lautsprecher in so genannte Partialschwingungen aufbricht, d. h. die Membran sich nicht mehr kolbenförmig in jeweils nur eine Richtung bewegt. Aber auch die Materialität der Rechner spielt mit den Codes zusammen und erzeugt die Materialität des Klangs. Dazu zwei weitere Beispiele: Der Staub setzt sich in den Kernspalten der Pfeifen, besonders der kleinen fest und verdirbt so die Güte der Ansprache. Der Staub ist an einem großen Teil aller Heuler und Versager schuld. Wer die Kirche reinigt, soll darum auch gleichzeitig lüften. Die Orgelempore soll darum nie trocken gekehrt, sondern nur feucht aufgenommen werden. Nasser Sand oder nasses Sägemehl tun dabei gute Dienste. Alle acht Jahre müssen von einem gewissenhaften Orgelbauer alle Pfeifen, Böden, Windladen, Wände und Gerüstteile gründlich entstaubt werden. Feuchtigkeit und Trockenheit schaden den Holz- und Lederteilen Ihrer Orgel. Als unmittelbare Folge davon treten Heuler, Durchstecher, Versager und ähnliche Störungen auf. Feuchtigkeit lässt alle Metallteile rosten. Kirchen mit starker Neigung zu Feuchtigkeit müssen oft – an trockenen, nicht zu kalten Tagen – gründlich gelüftet werden, vor allem dann, wenn sie feucht aufgewischt worden sind. Übermäßige Trockenheit ist oft durch die Kirchenheizung verursacht. [...] Bei unmittelbarer Sonnenbestrahlung werfen sich Holzteile der Orgel bis zum Springen. Dagegen hilft ein dichter Fenstervorhang.18 Die vorstehenden Ratschläge für den fachgerechten Umgang mit dem Material stammen aus einem Standardwerk des Orgelbaus. Wir lesen hier von Erfahrungen, wie
22
sich das Material, aus dem das Instrument gefertigt ist, direkt auf seine klanglichen Qualitäten auswirken kann. Ein anderes Beispiel aus der Welt der Programmcodes: Knacken und Knattern im Klang: Wenn die Geschwindigkeit Ihres Rechners nicht ausreicht, um die eingestellte Stimmenzahl bei der eingestellten Abtastrate in Echtzeit zu berechnen, erscheint normalerweise die Überlastwarnung (Processor Overload). Unter Umständen, besonders wenn die Prozessorlastgrenze (Maximum processor usage in %) in den Preferences sehr hoch eingestellt ist, kann es zu Aussetzern im Audiosignal kommen, die sich als Knacken und Knattern bemerkbar machen. Reduzieren Sie die Abtastrate, die Stimmenzahl oder die Komplexität des Ensembles und beobachten Sie die CPULast mit Hilfe der Anzeige in der Toolbar bzw. mit dem System-Monitor.19 In beiden Beispielen meldet sich das Material zu Wort und es werden Anleitungen gegeben, wie die unerwünschten Verhaltensweisen zu beseitigen sind. Damit die Artefakte nicht ihren Dienst versagen, sind sachgemäßer Umgang, Wartung und Pflege des Materials notwendig. Die beiden Zitate verdeutlichen aber auch noch ein weiteres, ganz allgemeines Charakteristikum von Artefakten, nämlich dass die Eigenschaften des Materials im normalen Gebrauch verborgen bleiben und meist nur dort ins Bewusstsein rücken, wo die Artefakte ihren Dienst versagen. Wir sind wieder an die Unterscheidung zwischen Zuhandenheit und Vorhandenheit erinnert, die wir bereits weiter oben als allgemeines Gestaltungsprinzip kennengelernt hatten. Heideggers bizarre Begriffe verweisen auf die Differenz zwischen dem praktischen Umgang des Menschen mit seiner Lebenswelt und der theoretischen Behandlung der Dinge; dem Umkippen eines Artefakts im Moment seiner Funktionsverweigerung, die Materialität der Dinge kommt wieder zum Vorschein. Die Heideggersche Zuhandenheit beschreibt das noch ungebrochene Verhältnis des Nutzers zu den Dingen, den Zustand der unhinterfragten Vertrautheit. Durch die Zerbrechlichkeit der Dinge, durch ihre Funktionsverweigerung, werden sie thematisierungsbedürftig und kommen als Vorhandene zurück ans Licht. Erst Artefakte, die ihren Dienst versagen, verlassen den Raum der unreflektierten Verwendung und zeigen wieder ihre Gesamtnatur. Die Heuler und Durchstecher der Orgel sowie das Knacken und Knattern der Computerlautsprecher sind es, die eine Thematisierung des Materials erforderlich machen. Im Fehlverhalten kommt die Materialität der Instrumente, die durch den gelungenen Entwurf des Gestalters/Entwicklers zum Verschwinden gebracht wurde, wieder zum Vorschein. Dieser Bruch ist ein Phänomen, das in erster Linie dem Nutzer zustößt, für den Konstrukteur existiert er in dieser scharfen Form nicht, da er im Entwurfs- und Herstellungsprozess immer alle Perspektiven simultan mitlaufen lassen muss. Die zweckgerichtete, geschmeidige Verwendbarkeit, die Zuhandenheit, ist nur eine Facette seines Gesamtbildes vom Artefakt. Der gute Handwerker/Künstler/Ingenieur wird sich dadurch auszeichnen, dass er mühelos die Perspektivwechsel vollziehen kann; er kann den Bezugsrahmen seiner Überlegungen wechseln und so entlegene Ursachen für das Fehlverhalten des Systems entdecken; vom Initialisierungsfehler im Code bis zum Wackelkontakt im Kabel. Sobald der Fehler gefunden ist, fügt sich das Bild neu zusammen und die Konsistenz des Systems ist wieder für eine Weile gewährleistet. Durch das Auftreten und die Beseitigung von Fehlern erfahren wir mehr über die
23
Natur unserer Computersysteme, als sich dem Nutzer im materiallosen zuhandenen Gebrauch zeigt. In welcher Weise spielen nun aber im zweiten Beispiel Material und Code zusammen, um das Knacken und Knattern im Audiosignal zu erzeugen? Zumal Code alleine keinen Eigenklang besitzt. “Was ist der Eigenklang digitaler Medien? Ein Klang des digitalen Materials selbst existiert nicht, es gibt kein physisches Material, das mit dem digitalen Code prinzipiell verbunden wäre, so auch keinen mit ihm verbundenen Klang. Im Gegenteil, digitale Codierung ist gerade eine Codierung der wechselbaren Verabredung. Welche physische Gestalt ein digitales Zeichen annimmt, ist lediglich eine Übereinkunft der an der Codierung und Decodierung Beteiligten. Digitaler Code ist nicht durch irgendeine Materialität charakterisiert, sondern einzig durch Zählbarkeit und Indexierung.”20 Diese Analyse ist absolut treffend, Code zeichnet sich durch die wechselbare Verabredung aus und ist nicht einem bestimmten Material verpflichtet. Doch um lesbar und archivierbar zu sein, muss er einem Material aufgeprägt werden. Damit der Code prozessiert werden kann, muss es darüber hinaus eine materielle Konfiguration geben – einen Prozessor – der in der Lage ist, den Code zu lesen und auszuführen. Die Übereinkunft zwischen Code und Material, die für ein Zusammenkommen beider notwendig ist, wird von den Systementwicklern getroffen. Beide – Code und Hardware – werden bereits im Entwurf füreinander gedacht und es kommt in der Ausführung nur zusammen, was schon immer füreinander bestimmt war. Die Hardware des Rechners ist so konzipiert, dass bestimmte Befehle und Klassen von Befehlsfolgen (Programme) durch das Material realisiert sind. Dies ist der Funktionalismus der Informatik: Der konkrete Code bestimmt die funktionalen Zustände der Maschine. Da diese funktionalen Zustände in einem materiellen System realisiert sind und auf einen bestimmten Input mit einem bestimmten Output reagieren, schreiben sie sich im Material auf der Basis des Codes selbst fort. Ebenso müssen die Interfaces dafür vorbereitet sein, definierte Bit-Ströme aufzunehmen und diese in analoges Materialverhalten umzusetzen. Die erlaubten Formen dieser Ströme sind vordefiniert. So wie Codes keinen Eigenklang haben, besitzen umgekehrt die stofflichen Rechner und Interfaces keine vom Code unabhängigen Klangeigenschaften. Erst das informierte Material als Verbindung von Stoff und Algorithmus zeigt Klangeigenschaften. Wenn wir Material vor allem anhand seiner Gebrauchsqualität charakterisieren, dann ist im Falle digitaler Medien der Code nur eine Komponente eines Verbundwerkstoffs, die andere ist die Stofflichkeit des Rechners und seiner angeschlossenen Sensoren und Aktoren. Wir müssen zum Beispiel Codeparameter ändern (etwa die Abtastrate reduzieren) um die Prozessorauslastung zu verringern und so Knacken und Knattern zu vermeiden etc. Wir ändern den Code und erhalten ein anderes physikalisches Verhalten. Der Code zur Steuerung eines Motors, der an Gummischnüren hängende Kugeln zur Schwingung anregt, kann nicht losgelöst von den physikalischen Eigenschaften der Schnüre, des Gewichts der Kugeln und den Motoreigenschaften betrachtet werden (siehe das Projekt Connect von Andreas Muxel im vorliegenden Band). Aus diesem Grund erübrigt sich die Diskussion über Material und Materialeigenschaften
24
im Zusammenhang mit digitalen Medien nicht, sie verteilt sich über Code, Interfaces und Hardware. Arbeit am Code heißt, das Materialverhalten des Gesamtsystems im Auge zu haben und dieses Verhalten durch den Code zu steuern. Zusammenfassend können wir sagen: Die Tatsache, dass Code keinen Eigenklang (Eigenfarbe, Eigenbewegung etc.) besitzt, heißt nicht, dass wir bei der Codierung nicht Materialeigenschaften unserer Artefakte im Code mitdenken und berücksichtigen müssten. Die Materialeigenschaften digitaler Objekte sind mit dem Code verwachsen. Genauso wichtig, wie die entstehenden neuen Eigenschaften, ist der sich aus dem Verbund von Code und Material neu formierende Eigensinn. In jedem Material stecken mehr Informationen, als wir uns im explizit bewusst sind. Wir müssen im täglichen Umgang mit den Dingen also davon ausgehen, nicht alle relevanten Informationen zu kennen und deshalb immer damit rechnen, dass selbst lang vertraute Dinge im ungeeigneten Moment ihren Dienst versagen. Jede manuelle Tätigkeit erfordert folglich die permanente Auseinandersetzung mit den Grenzen der Vorhersagbarkeit. Der Eigensinn des neuen Verbundwerkstoffs aus Code und Material lässt sich aber nicht durch reines Nachdenken über die digitalen Objekte ergründen, sondern nur durch praktische Arbeit und einfühlende Beobachtung. Beschwerlich ist das Unterfangen, weil sich in den algorithmischen Artefakten zwei Kulturen treffen. Einmal die rationalistische Tradition, die in den Programmcodes eine Art (vorläufiges) Plateau erreicht zu haben scheint, und die ästhetische Tradition mit ihrer ganz eigenen in der künstlerischen Praxis wie in der philosophischen Reflexion verwurzelten Entwicklungsgeschichte. Anspruchsvolle digitale Artefakte herzustellen heißt, beide Traditionen zu berücksichtigen und permanent Übersetzungsarbeit in beide Richtungen zu leisten.
25
1 Günther Anders, Die Antiquiertheit des Materialismus, in: Die Antiquiertheit des Menschen, Bd. 2, 3. Auflage in der Beck’schen Reihe, München 2002, S. 37 2 Vgl. Antonia Wunderlich, Der Philosoph im Museum, Transcript, Bielefeld 2008 3 Monika Wagner, Material, in: Ästhetische Grundbegriffe. Historisches Wörterbuch in 7 Bänden, Karlheinz Barck u. a. (Hrsg.), Bd. 3, Metzler Stuttgart/Weimar 2001, S. 867 4 Sybille Krämer, Kalküle der Repräsentation, in: Räume des Wissens: Repräsentation, Codierung, Spur, Hans-Jörg Rheinberger, Michael Hagner, Bettina Wahrig-Schmidt (Hrsg.), Akademie Verlag, Berlin 1997, S.111 5 Ross Ashby, zitiert nach G. Günther, in: Das Bewusstsein der Maschinen, Agis Verlag, Baden-Baden 1963, S. 117 6 Günther Anders, a.a.O. 7 Abraham A. Moles, Informationstheorie und ästhetische Wahrnehmung, Verlag DuMont Köln, 1971, S. 254-256 8 Vgl. Georg Trogemann, Algorithmen im Alltag, im vorliegenden Band 9 Richard Sennett, Handwerk, Berlin Verlag, Berlin 2008, S. 163 10 Vgl. Algorithmen im Alltag, im vorliegenden Band 11 Vgl. Hans Blumenberg, Wirklichkeiten in denen wir leben, Reclam Verlag, Stuttgart 1999 12 Eggert Holling, Peter Kempin, Identität, Geist und Maschine – Auf dem Weg zur technologischen Gesellschaft, Rowohlt Taschenbuch Verlag, Hamburg 1989 13 Zur doppelten Existenz medialer Inhalte und der Unterscheidung zwischen Oberfläche und Unterfläche siehe auch Frieder Nake, Das Doppelte Bild, in: Bildwelten des Wissens, Horst Bredekamp, Matthias Bruhn, Gabriele Werner (Hrsg.), Akademie-Verlag, Berlin 2006, S. 40-50 14 Jörg Pflüger, Über die Verschiedenheit des maschinellen Sprachbaues, in: Computer als Medium, Norbert Bolz, et. al., Wilhelm Fink Verlag, München 1994, S. 161 15 Guy Bonsiepe, Design – the blind spot of theory or Visuality | Discursivity or Theory - the blind spot of design, Konferenztext für eine Veranstaltung der Jan van Eyck Akademie, Maastricht 1997 16 Timo Meisel, Design und Medienwandel – Vom Medium Computer zur Theorie des Informationsdesign, Magisterarbeit im Fach angewandte Kulturwissenschaften, Universität Lüneburg 2004 17 Ebenda 18 Hans Klotz, Das Buch von der Orgel, Bärenreiter, 13. Auflage, Kassel 2004, S. 120f 19 Aus dem Troubleshooting-Anhang eines Benutzerhandbuches für das Synthesizer- und Audioverarbeitungssystem REAKTOR, Version 3 20 Rolf Großmann, Spiegelbild, Spiegel, leerer Spiegel. Zur Mediensituation der Clicks & Cuts, in: Soundcultures. Über elektronische und digitale Musik, Kleiner, M. S./Szepanski, A. (Hrsg.), Suhrkamp Verlag, Frankfurt a. M. 2003, S. 59
26
Andreas Muxel, Martin Nawrath, Lasse Scherffig, Georg Trogemann
Experimente
Es gilt zu verstehen, dass die Dinge uns haben, nicht wir die Dinge. Merleau-Ponty Im Folgenden sollen die im Eingangsbeitrag Code und Material theoretisch behandelten Abhängigkeiten zwischen Programmen und materiellen Objekten näher an der Praxis betrachtet werden. Diese Praxis ist eine wichtige Grundlage der künstlerischen Positionen, die dieser Band versammelt. An der Kunsthochschule für Medien Köln findet sie ihren Ort im Lab3, dem Labor für experimentelle Informatik. Im Zentrum der Lehre steht hier die Frage, wie Studierende in Seminaren an den künstlerischen Umgang mit rechnenden und handelnden Objekten herangeführt werden können. Dabei steht nicht die Vermittlung avancierter Programmierkenntnisse im Vordergrund oder eine fundierte und breit angelegte Materialbetrachtung, sondern die praktische Auseinandersetzung mit der Verschränkung von Code und Material, die erst in ihrer Wechselwirkung interessante Verhaltensmuster eigenaktiver Dinge erzeugen. Den technischen Ausgangspunkt der Lehre bilden einfache und preiswerte elektronische Sensoren und Aktoren, die mit Hilfe kleiner Codebeispiele angesteuert werden. Für die Entwicklung der Programme kommen derzeit hardware-offene Systeme zum Einsatz, die mittels der Arduino-Software programmiert werden und im fortgeschrittenen Stadium als eigenaktive Dinge untereinander, sowie mit anderen Softwaresystemen kommunizieren können. Neben der Vermittlung einfacher Programmierkenntnisse und handwerklicher Fertigkeiten im Umgang mit Material stehen Laborarbeit und die Konzeption und Konstruktion eigener Experimente im Vordergrund.
29
Arduino-Board
Arduino und der SensorAktor-Shield Arduino Arduino 1 ist eine Open-Source-Prototyping-Plattform. Sie besteht aus dem ArduinoBoard und der gleichnamigen offenen Software zur Programmierung der Atmel AVRMikrocontroller, die auf dem Board verwendet werden.2 Nachdem ein Programm am Computer erstellt wurde, kann es über ein USB-Kabel auf den Mikrocontroller geladen werden. Der Mikrocontroller speichert das Programm bis es wieder überschrieben wird und führt es selbstständig aus. Dadurch ist es möglich, eigenaktive Objekte zu entwerfen, die über Sensoren ihre Umwelt ertasten und über entsprechende Aktoren auf diese auch wieder zurückwirken können. Das Arduino-Board verfügt im Wesentlichen über folgende Schnittstellen, die als Pins bezeichnet werden: digitale Eingabe (z. B. Taster) digitale Ausgabe (z. B. LED an/aus) analoge Eingabe (z. B. Messung von Lautstärke oder Helligkeit über Sensor) analoge Ausgabe (z. B. Lichtdimmer oder Steuerung der Leistung eines Motors)
30
int ledPin = 13; void setup() { pinMode(ledPin, OUTPUT); } void loop() { digitalWrite(ledPin, HIGH); delay(1000); digitalWrite(ledPin, LOW); delay(1000); }
// LED connected to Pin 13
// define ledPin as output
// // // //
turn wait turn wait
LED for LED for
on a second off a second
“Blinking LED”
Entsprechend stellt die Software folgende elementare Grundfunktionen bereit: digitalRead(pin) digitalWrite(pin, value) analogRead(pin) analogWrite(pin, value) Aus technischer Sicht erfolgt die analoge Ein- und Ausgabe ebenfalls digital. An den Eingängen des Boards werden Messungen über einen Analog/Digitalwandler (A/D-Wandler) durch Sampling in für den Prozessor verständliche numerische Daten übersetzt. Die analoge Ausgabe beruht dagegen auf dem Prinzip der Pulsweitenmodulation, ein Verfahren, welches das Sampling umkehrt. Beide Verfahren werden hier noch genauer zu betrachten sein. Die Arduino-Software beruht auf der Programmiersprache C. Arduino-Programme folgen einer einfachen Grundstruktur: Zu Beginn des Programmablaufs wird einmalig die Funktion setup() ausgeführt, um Variablen zu initialisieren, Pins für die Ein- oder
31
Ausgabe vorzubereiten oder externe Programmbibliotheken einzubinden. Der eigentliche Programmablauf entsteht im Anschluss daran im wiederholten Abarbeiten der Funktion loop(), in der die Kontrollstrukturen der Programmlogik und damit ihr Verhalten definiert werden. Der Code “Blinking LED” zeigt ein einfaches Beispiel für solches Verhalten: Er regelt das wiederholte An- und Ausschalten einer LED an einem digitalen Ausgang. Dieses Programm hat für die Arbeit mit Arduino in etwa den Status des Programms “Hello, world!” in der klassischen Programmierung: Es ist für viele Anfänger das erste selbstgeschriebene lauffähige Programm und liefert zugleich eine einfache und leicht auf ihre Richtigkeit zu überprüfende Ausgabe. Neben Arduino gibt es auch andere Systeme zur Arbeit mit Mikrocontrollern. Da diese aber meist für den professionellen Einsatz, beispielsweise in der Industrie, konzipiert sind, besitzen sie eine hohe Hemmschwelle für Neueinsteiger. Arduino richtet sich hingegen vor allem an Künstler und Gestalter. Dies spiegelt sich bereits im Aufbau des Boards, in dem eine klare Trennung und Benennung der Ein- und Ausgabepins vorgenommen wird, sowie in der auf Wesentliches reduzierten Programmierumgebung. Zudem besitzt Arduino eine große Netz-Community. In Blogs und Foren findet ein reger Austausch von hard- und softwarespezifischem Wissen statt. Diese Basis ermöglicht es, rasch in die Arbeit einzusteigen und hierbei auf bestehenden Ansätzen aufzubauen. SensorAktor-Shield Das im Lab3 entwickelte SensorAktor-Shield3 ist eine Erweiterung für das ArduinoBoard. Ziel ist die Erweiterung der Ein- und Ausgabefähigkeiten des Boards über funktionale Teile wie Schalter und Verstärker, die eine direkte Verbindung zu stark energieverbrauchenden Bauteilen wie Gleichstrommotoren, Schrittmotoren, Zugmagneten oder Halogenlampen sowie zu Sensoren herstellen. Statt diese funktionalen Bauteile über Laboraufbauten und zusätzliche Schaltkreise zu betreiben, beinhaltet die Hardware des Shields die meisten gebräuchlichen Technologien. Über entsprechende Steckverbindungen auf dem SensorAktor-Shield können Sensoren oder Aktoren ohne zusätzliches Löten angeschlossen werden. Zudem besitzt das Shield bereits drei LEDs, drei Taster und einen Drehregler. Mit ihnen ist es möglich, erste Experimente ohne das Anbringen weiterer Bauteile durchzuführen. Für die Arbeit mit dem SensorAktorShield werden auch Codebeispiele zur Verfügung gestellt4, welche eine einfache Ansteuerung der Aktoren-Schnittstellen auf dem Shield ermöglichen und so Servo-, Gleichstrom- und Schrittmotoren direkt zugänglich machen. Kompliziertere Abläufe werden hierbei in externe Programmbibliotheken verpackt. Im Beispiel zur Steuerung eines Gleichstrommotors übernimmt die Programmbibliothek MotorL293 das Vorbereiten des Mikrocontrollers für die Steuerung des verwendeten Motors. Die in der Bibliothek verpackte Programmlogik leistet so beispielsweise der Festlegung der Motorleistung. Ein Ablauf, der hinter dem Aufruf der Funktion setPower() verborgen bleibt.
32
SensorAktor-Shield
Das Verpacken komplexer Programmabläufe in Bibliotheken bildet dabei das Gegenstück zu den vorbereiteten Schaltkreisen und Anschlüssen des SensorAktor-Shields. Erst der vorbereitete Code im Zusammenspiel mit den passenden Schaltungen erlaubt einen direkten Einstieg in die Arbeit mit Sensoren und Aktoren. Codebeispiele und Schaltungen dienen zusammen als Elemente, die nach dem Baukastenprinzip für eigene Experimente zusammengefügt werden können. Sensoren, Codes und Aktoren in der künstlerischen Praxis Verschwindet der Computer? Seit den 1990er Jahren spricht man vom Verschwinden des Computers.5 Forscher und Entwickler wie Bill Gates, Mark Weiser und Donald Norman haben den “unsichtbaren Computer”6 ausgerufen, der winzig und ubiquitär,7 also allgegenwärtig und gar nicht mehr wahrnehmbar ist. Computer werden nach dieser Vision zunehmend immateriell. Zunächst rücken mit dem Verschwinden des Computers statt der rein technischen Probleme endlich andere in den Blick. Zum Beispiel werden inzwischen für viele
33
#include <SensorAktor.h> #include <MotorL293.h> MotorL293 myMotor; int potiValue = 0;
// create instance for motor // poti value
void setup(){ // attach pins to motor (motor pin1, // motor pin2, pwm pin motor) myMotor.attach(motor1_1, motor1_2, pwmMotor1); // set direction (0=left, 1=right) myMotor.setDirection(0); } void loop(){ // read poti (value 0-1023) potiValue = analogRead(poti); // scale poti value (value 0-255) potiValue = map(potiValue, 0 , 1023, 0, 255); // set speed of motor myMotor.setPower(potiValue); } Steuerung eines Gleichstrommotors
Informatiker die Anwendungen wichtiger als Algorithmen und leichte Handhabbarkeit wichtiger als Rechenleistung. Im künstlerischen Kontext macht diese Vision aber den Blick für etwas anderes frei: Wenn von Medienkünstlern statt interaktiver Inhalte für Bildschirme, Projektionen, Mäuse und Tatstaturen plötzlich handelnde Objekte und reaktive Umgebungen entworfen werden, so macht dies nur deutlich, dass die Arbeit mit Computern sich noch nie im Entwerfen digitaler medialer Inhalte erschöpfte. Sie umfasste vielmehr von Anfang an immer auch eine materielle Dimension der Information. Diese materielle Dimension beschränkte sich zwar oft auf die standardisierten Schnittstellen der WIMP-Ära,8 trotzdem war sie stets als Dispositiv wirksam und musste in der künstlerischen Arbeit mitgedacht werden. Es brauchte immer schon irgendein Material auf dem Schriftzeichen und Bilder erscheinen und in dem Handlungen ihre Wirkung entfalten. Dieses Material war für die Kunst im Unterschied zur Informatik von Anfang an wichtig. Mit der Verwendung kleiner Computer, die als Rechner im Hintergrund ihrer Umgebung zu verschwinden scheinen, tritt die materielle Dimension der Arbeit mit Information nun noch stärker in den Vordergrund.
34
void MotorL293::setPower(int power){ if(pwmPin == 9){ sbi(TCCR1A, COM1A1); // connect // channel OCR1A = power; // set pwm } else{ sbi(TCCR1A, COM1B1); // connect // channel OCR1B = power; // set pwm } }
pwm to timer 1, A duty
pwm to timer 1, B duty
setPower( )
Auch die Atmel AVR-Mikrocontroller im Herzen der Arduino-Boards sind Computer. Sie werden programmiert, rechnen digital und können dementsprechend nicht viel mehr, als an ihren Eingängen anliegende Spannungen digitalisieren und an ihren Ausgängen Spannungen an- und ausschalten. Um von den digital schaltenden Anschlüssen der Controller zum Handeln von Objekten zu kommen, bedarf es eines langen Weges, auf dem gerade die materielle Dimension digitalen Rechnens in den Vordergrund rückt. Zwar befreit der SensorAktor-Shield mit seinen Schaltungen und Anschlussmöglichkeiten die Studierenden von vielen grundlegenden elektrotechnischen Problemen, an seinen Rändern aber stehen Sensoren und Aktoren, die ihre eigentliche Wirkung erst in Wechselwirkung mit ihrer unmittelbaren Umgebung entfalten. Dementsprechend bedeutet das Entwerfen mit dem SensorAktor-Shield weniger Programmieren als vielmehr Basteln und Experimentieren. Eine Einführung in den künstlerischen Umgang mit rechnenden und handelnden Objekten umfasst daher wenig Code. Die Programme sind meist kurz und oft schnell geschrieben. Mit Hilfe von Mikrocontrollern handelnde Objekte zu konstruieren braucht dagegen viel Zeit. Die Trennung zwischen Code und Material wird in diesem
35
Prozess zunehmend durchlässig. Dies wird deutlich, wenn man die als experimentelle Skizzen entstandenen Objekte betrachtet, die Studierende im Rahmen solcher Einführungen herstellen: In der Auseinandersetzung mit programmierter Bewegung, Reiz-Reaktionssystemen und Systemen mit Gedächtnis. Programmierte Bewegung Computer sind symbolverarbeitende Maschinen und auch der sie steuernde Programmcode ist immer symbolisch. Als geschriebener Text ist Code immer nur eine formale Beschreibung. Er kann von einem Computer zwar ausgeführt werden, das führt aber nie direkt zu einer Veränderung der realen Umwelt. So lässt sich durch den Aufruf einer Funktion zwar einem Schrittmotor die Anzahl von Schritten zuweisen, um die er sich bewegen soll, bei Ablauf des Programms auf einem Mikrocontroller wird dieser Aufruf aber zu keiner sichtbaren Veränderung führen, wenn der Mikrocontroller nicht mit einem Motor verbunden ist. Programme werden also erst im Zusammenschluss mit dem entsprechenden Material wirksam, und mehr noch: Unabhängig von dem gesteuerten Material haben sie keinen Sinn. Umgekehrt gilt auch für das Material Ähnliches: Motoren, wie sie in der Arbeit mit Mikrocontrollern zum Einsatz kommen, lassen sich oft nicht wie klassische Motoren steuern. So bedarf etwa ein Schrittmotor explizit einer informatischen Steuerung. Als Material ist er bereits im Zusammenhang mit den Codes, die ihn steuern, entworfen worden und nur mit ihnen kann er sinnvoll eingesetzt werden. Dabei mag die jeweilige Programmiersprache und Hardware-Plattform, die diese Steuerung übernimmt, zwar austauschbar sein - die digitalen Schaltmuster, die seiner Steuerung zu Grunde liegen, sind es aber nicht. Mit Hilfe dieser Schaltmuster kann ein Schrittmotor dank der im Motor verbauten Magnetspulen um Schritte einer festen Winkelgröße gedreht werden. Auf diese Weise kann in mehreren Schritten jeder gewünschte Drehwinkel angefahren werden, wenn er ein Vielfaches des minimalen Drehwinkels ist. Das Ansteuern eines solchen Schrittmotors durch den Mikrocontroller erfolgt über das digitale Schalten der Pins, die mit den entsprechenden Schaltern (im Beispiel S1 bis S4) verbunden sind. Der Code eines Programms, um beispielsweise eine volle Drehung in vier Teilschritte zu zerlegen, schaltet stets einen der vier Schalter ein, die anderen aus. Damit ist jeweils genau einer der Elektromagneten des Motors eingeschaltet, was eine kurze Drehbewegung zur Folge hat. Durch das wiederholte abwechselnde Schalten der vier Magnetspulen werden diese kurzen Bewegungen zu einer schrittweise ausgeführten Drehung beliebiger Länge. Um sich zu drehen muss der Motor nach diesem Muster geschaltet werden und erst in Verschränkung des entsprechenden Codes mit dem Aktor funktionieren beide. Im Baukasten des SensorAktor-Shields wird von diesem Schaltvorgang so weit abstrahiert, dass er für die Programmierenden nicht sichtbar werden muss. Im Hintergrund ist er aber immer Voraussetzung für die programmierte Bewegung eines Schrittmotors. Dieses Ineinandergreifen von Schaltmustern und den davon geschalteten Aktoren bildet den Ausgangspunkt für künstlerische Experimente. Im Experiment Jellyfish
36
Magnetspule
S1 S2
S
Achse
N
S3 S4
+ – Schrittmotor
entsteht so zum Beispiel aus der programmierbaren Bewegung eines Schrittmotors eine künstliche Qualle: Als Konstruktion aus Draht und Folie hängt die Qualle an einem Gummiband, dass auf die Welle des Schrittmotors gewickelt ist. Die Bewegung des Motors lässt die Konstruktion auf und ab schwingen und die Qualle scheint durch die Luft zu schwimmen. Dieses komplexe Verhalten ist zu nur kleinen Teilen Resultat der programmierten Bewegung des Schrittmotors, zu großen Teilen hängt es von den verwendeten Materialien und ihrer spezifischen Kombination ab: Folie, Draht und Gummiband bestimmen nicht nur die Erscheinung der Qualle, während ihr Verhalten im Code auf dem Mikrocontroller zu finden wäre. Das Programm schreibt dem Motor zwar eine Drehgeschwindigkeit vor, mit welcher Geschwindigkeit sich die Qualle aber tatsächlich bewegt, hängt letztlich genauso vom Durchmesser der Welle ab. Auch kann eine Umkehrung der Bewegungsrichtung der Qualle Resultat eines Programmbefehls sein - oder dadurch verursacht werden, dass das Gummiband vollständig abgewickelt wurde und beim Weiterdrehen in dieselbe Richtung nunmehr aufgewickelt wird. Für den Beobachter ist nicht zu unterscheiden, wie die Umkehrung der Bewegungsrichtung zu Stande kam, durch einen Programmbefehl oder durch die Eigenschaften der Materialien und ihrer Kombination.
37
Jellyfish
Die gesamte organisch wirkende Bewegung der Qualle entsteht also erst aus dem Zusammenspiel von Code und Material: Der Code steuert die Bewegung des Motors, aber erst deren Umsetzung über die Welle auf das Gummiband und die spezifische Trägheit von Gummiband und Folie (der Figur der Qualle), verursacht durch Gewicht und Luftwiderstand, vervollständigt diese Bewegung - auf eine Weise, die wiederum für und mit genau dem verwendeten Code entstanden ist. Die künstliche Qualle ist Folge einer Auseinandersetzung mit Code, Gummibändern, Folien, Draht und Wellen verschiedener Größe. Diese Auseinandersetzung kann und muss an jeder dieser Stellen angreifen und sie als Parameter eines Experimentalsystems betrachten und manipulieren. Ihr Ergebnis ist immer das Zusammenspiel einer Konfiguration aus Programmcode und Material. Auch im Integration Animal wird, ähnlich dem Jellyfish, maschinelle Exaktheit in organisch wirkende Bewegung umgesetzt: Die Bewegungen eines Servomotors, der vorgegebene Winkelpositionen anfährt und so noch stark die Diskretheit digitaler Steuerung widerspiegelt, wird über die Unwucht einer gefalteten Folie zur wenig exakten Bewegung eines Fells, das über diese Folie gespannt ist.
38
Reiz-Reaktionssysteme Die Fähigkeit von Computern in unserer Welt wirksam zu sein, lässt sich immer auf die grundlegende Fähigkeit reduzieren, Zeichenketten zu manipulieren. Eingaben und Ausgaben symbolischer Maschinen sind Ausgangspunkt und Ergebnis der Manipulation von Zeichenketten und daher ebenfalls symbolisch. Computer, die nicht auf symbolische Eingaben (etwa in Form von Text) mit ebenso symbolischen Ausgaben reagieren sollen, benötigen Sensoren und Aktoren. Erstere transformieren über einen Messvorgang einen Ausschnitt der nicht-symbolischen Umwelt in symbolische Daten, letztere leisten die Umkehrung davon: Sie transformieren symbolische Ereignisse in nicht-symbolische Handlungen oder Darstellungen.9 Der Transformationsprozess einer nicht-symbolischen Umwelt, über die symbolische Verarbeitung im Inneren des Mikrocontrollers hin zum Rückwirken auf diese Umwelt mittels Effektoren bildet oft den Kern der Arbeit mit eigenaktiven Objekten. Es entstehen Reiz-Reaktionssysteme. Die Grundfunktionen in der Arbeit mit Arduino, insbesondere analogRead und analogWrite, liefern die Bausteine dieses Transformationsprozesses. Geeignete Sensoren und Schaltungen wandeln den zu messenden Teil der Umwelt in elektrische Spannungen um, diese können von den A/D-Wandlern des Mikrocontrollers in symbolische Zahlen übersetzt werden. Ein Vorgang, der durch Aufruf der Funktion analogRead realisiert wird. Dieser Funktionsaufruf liefert eine Zahl zurück, die beispielsweise in einer Variable gespeichert und weiterverwendet werden kann. Sie repräsentiert dabei die Spannung, die am entsprechenden Eingang des Mikrocontrollers anliegt. Technisch wird dies durch Abtasten oder Sampling realisiert: Die sich kontinuierlich ändernde Eingangsspannung wird in einzelne diskrete Messungen zerlegt. Die A/D-Wandler der Atmel-Mikrocontroller realisieren dieses Abtasten mit einer Genauigkeit von 10 Bit. Die Zahl, die die Messung zu einem bestimmten Zeitpunkt repräsentiert, kann daher im Bereich von 0 bis 1023 liegen, und damit 1024 mögliche Werte annehmen. Das Erzeugen der Reaktion besteht entweder im digitalen Ein- oder Ausschalten eines Ausgangs, durch den Befehl digitalWrite, oder es besteht in dem als Pulsweitenmodulation bezeichneten schnellen, wiederholten An- und Ausschalten von Spannungen; eine Aufgabe, die in der Arduino-Software zu einem weiteren einfachen Aufruf einer der Grundfunktionen wird: Die Funktion analogWrite sorgt dafür, dass an einem Ausgangspin schnell zwischen 0 und 5 Volt umgeschaltet wird. Damit aus diesem diskreten Schalten wieder eine kontinuierliche Veränderung werden kann, bedarf es einer Dämpfung: Der so geschaltete Aktor muss träge sein. Wird auf diese Art etwa der Magnet eines Lautsprechers geschaltet, entsteht durch die Trägheit des Lautsprechers aus diskreten Schaltvorgängen ein kontinuierlicher Ton. Wird stattdessen eine LED ein- und ausgeschaltet, macht erst die menschliche Wahrnehmung aus der “Blinking LED” eine gedimmte: Ist die Frequenz des Ein- und Ausschaltens hoch genug, verschmelzen die einzelnen Reize zu einem einzigen.10 Je nachdem, wie das Verhältnis der Phasen eingeschalteter und ausgeschalteter LED zueinander sind, wird die LED dabei als heller oder dunkler wahrgenommen. Das Erzeugen kontinuierlicher analoger Spannungen zwischen 0 und 5 Volt basiert so auf dem gedämpften schnellen
39
Schalten zwischen diesen beiden Werten, wobei das Verhältnis der An- und AusPhasen zueinander variiert wird. Pulsweitenmodulation funktioniert so als Umkehrung des Samplings, da sie symbolische in nicht-symbolische Realität zurückführt. Die Dämpfung, die sie benötigt, ist dabei nicht mehr Teil des Computers, sondern findet sich nachgelagert im Material des Aktors oder erst in der Wahrnehmung. Die LEDs des SensorAktor-Shields können so durch einen Aufruf von analogWrite auf eine von 256 möglichen Helligkeitsstufen gedimmt werden, wobei die Anzahl von 256 möglichen Stufen aus der Fähigkeit der Arduino-Software und des Mikrocontrollers resultiert, die zeitlichen Kontrollen des Ein- und Ausschaltens zu organisieren. Auf Grund der unterschiedlichen Wertebereiche beider Zahlen muss man, um von der Zahl, die den Reiz repräsentiert, zu der Zahl zu kommen, die die Reaktion darauf bestimmt, die erste auf die zweite abbilden. Dieses Abbilden findet nunmehr innerhalb der symbolischen Maschine statt. Im einfachsten Fall kann dies durch lineares Umrechnen der 1024 möglichen Sensorwerte auf die 256 möglichen Ausgaben geschehen. Lineares Umrechnen ist häufig Teil von Reiz-Reaktionssystemen, weshalb die Arduino-Software hierfür den Befehl map bereit hält. In der Praxis wird dieses Mapping aber meist nur im Zusammenhang mit den spezifischen Sensoren, Aktoren und ihrer Umwelt zu bestimmen sein. Funktionen wie digitalRead, analogRead, digitalWrite oder analogWrite verwalten nämlich ausschließlich die Ein- und Ausgaben des Mikrocontrollers und sind blind für die Frage, was für Sensoren und Aktoren hinter den Eingabe- und Ausgabepins stehen. Das hat zur Folge, dass der Code zum Lesen vieler unterschiedlicher Sensoren identisch ist, genau wie der zur Steuerung unterschiedlicher Aktoren. Objekte mit MikrocontrollerSteuerung lassen sich daher durch Austausch von Sensoren oder Aktoren verändern oder vollständig umwandeln, ohne ihre Programmierung anzutasten. Ihr Verhalten lässt sich in der Regel nicht ohne eine Berücksichtigung von Code und Material beschreiben. Lediglich sehr einfache Programme, etwa zum Dimmen einer LED über einen Drehregler (der technisch zum Beispiel durch ein Potentiometer realisiert sein kann), lassen sich so unabhängig vom Anwendungskontext schreiben. Und selbst dieses einfache Beispiel hat in der Wahrnehmung unerwartete Folgen: Die lineare Abbildung der Stellung des Drehreglers auf die Helligkeit der LED führt zur Wahrnehmung einer nichtlinearen Veränderung ihrer Helligkeit - weil die menschliche Wahrnehmung hier nichtlinear reagiert und eine Helligkeitsschwankung bei geringer Helligkeit anders interpretiert als eine gleich große Schwankung bei größerer Helligkeit. Selbst wenn weder Code noch Sensoren, Aktoren oder deren materielle Kopplung an die Umwelt verändert werden, hängt die erlebte Wirkung solcher Reiz-Reaktionssysteme immer noch von ihrem Gebrauch ab. Ist im obigen Beispiel kein Potentiometer an den verwendeten Pin des SensorAktor-Shields angeschlossen, sondern ein Helligkeitssensor, wird die Umgebungshelligkeit auf die Helligkeit der LED übertragen. Verändert man den Code nun so, dass kein lineares Mapping mehr verwendet
40
Integration Animal
wird, sondern eine Fallunterscheidung, die bestimmt, bei welcher Umgebungshelligkeit welche der drei LEDs des Shields eingeschaltet werden soll, so entsteht ein Objekt, dass die Umgebungshelligkeit nach Art einer dreistufigen Skala abbildet. Dasselbe Programm wirkt aber radikal anders, sobald der Helligkeitssensor von Hand auf die jeweils leuchtende LED gerichtet wird: Das Licht der LED trifft auf den Sensor, der gemessene Wert ändert sich und - vorausgesetzt die Umgebungshelligkeit ist günstig - sorgt dafür, dass die programmierte Schwelle überschritten und eine andere LED eingeschaltet wird. Unter geeigneten Bedingungen entsteht so ein reaktives Objekt, dessen Licht dem Helligkeitssensor auszuweichen scheint, sobald er sich nähert. Arbeiten, die sehr ähnliche Reiz-Reaktionssysteme implementieren, sind beispielsweise das SARoskop oder Sensobotanics (siehe auch die Beiträge im vorliegenden Buch). Und beide zeigen auch sehr deutlich, dass solche einfachen Übersetzungen erst im Wechselspiel mit ihrer Umgebung und ihrem Gebrauchskontext ihre Wirkung entfalten. Daher muss das Programm des SARoskop sowohl auf die elektromagnetische Strahlung der Umgebung als auch auf die komplexe Mechanik der Skulptur
41
void loop(){ sensorValue = analogRead(poti); sensorValue = map(sensorValue, 0 , 1023, 0, 255); analogWrite(led1,sensorValue); } Dimmen einer LED
abgestimmt werden. Und in Sensobotanics besteht die eigentliche Entwicklungsarbeit nicht im Entwurf des programmierten Reiz-Reaktionssystems, sondern im Zusammenbringen dieses Systems mit einem Computerspiel, einer Pflanzenlampe und einer lichtempfindlichen Pflanze in einer Schleife wechselseitiger Kontrolle. Systeme mit Gedächtnis Abstrakt betrachtet sind Reiz-Reaktionssysteme triviale Maschinen. Da die Abbildung zwischen Reiz und Reaktion nicht variabel ist, ist das Verhalten des Systems vorhersehbar: Ein bestimmter Reiz wird immer die gleiche Reaktion zur Folge haben. Zwar zeigen die obigen Beispiele deutlich, dass triviale Maschinen, dank ihrer Einbettung in einen materiellen Kontext, keineswegs nur Objekte steuern können, deren Verhalten als trivial erlebt wird, Maschinen aber, die im technischen Sinne nichttrivial sind, benötigen ein Gedächtnis.11 Aus der Sicht eines Programmierers ist das Gedächtnis eines eigenaktiven Objektes zunächst der Speicher des Mikrocontrollers. Hier können einmal gelesene Sensorwerte gespeichert werden, etwa um sie zu vergleichen und damit Veränderungen
42
void loop(){ sensorValue = analogRead(poti); if (poti < 341) { digitalWrite(led1, HIGH); digitalWrite(led2, LOW); digitalWrite(led3, LOW); } else if (poti < 682) { digitalWrite(led1, LOW); digitalWrite(led2, HIGH); digitalWrite(led3, LOW); } else { digitalWrite(led1, LOW); digitalWrite(led2, LOW); digitalWrite(led3, HIGH); } } Helligkeitsmessung auf dreistufiger Skala
detektieren zu können. Hier können auch Zustandsvariablen festlegen, welche Reaktion auf einen Reiz unter den momentanen Bedingungen die richtige ist und so dafür sorgen, dass der gleiche Reiz nicht immer zur gleichen Reaktion führt. Eine brennende Kerze ist eine nichttriviale Maschine: Wird sie ausgepustet, erlischt die Flamme, wird sie daraufhin erneut ausgepustet, gibt es keine Flamme mehr, die erlöschen könnte. Im Gegenzug lässt sich die Kerze nur anzünden, nachdem sie ausgepustet worden ist. Kurz: Das Verhalten einer Kerze hängt von ihrer Geschichte ab. In einem einfachen Experiment wird die Kerzenflamme zum zufälligen Flackern der roten und grünen LED des SensorAktor-Shields. Ein zurechtgeschnittenes Blatt Papier umgibt beide LEDs und dank der Mischung ihres farbigen Lichtes leuchtet es gelb. Um diese Flamme auszupusten bedarf es eines Mikrofons, das an den Vorverstärker des SensorAktor-Shield angeschlossen wird. Durch den Vergleich des am Mikrofoneingang gemessenen Wertes mit einer vorgegebenen Schwelle lässt sich abfragen, ob in das Mikrofon gepustet wird.12 Das Programm muss nun das Flackern der Kerze dauerhaft abschalten. Dazu bedarf es einer Zustandsvariable, die angibt, ob die Kerze brennt oder nicht und die das Gesamtverhalten des Programm-Loops organisiert.
43
int state = 1; void loop() { if (state==1) { int red = random(255); int green = random(255); analogWrite(led1, red); analogWrite(led2, green); int val = analogRead(mic); Serial.println(val); if (val < 100) { state = 0; } else if (state==0) { if (digitalRead(s1)==LOW) { state = 1; } } } } Brennende Kerze
Diese Variable ist zugleich dafür verantwortlich, dass ein Knopfdruck bei brennender Kerze zu keiner Reaktion führt, aber die ausgepustete Kerze wieder entzündet, wenn sie zuvor ausgepustet wurde. Das Ergebnis ist ein Objekt, dass eine Geschichte hat: Ist die Kerze an, kann sie ausgepustet aber nicht geschaltet werden. Ist sie aus, kann sie eingeschaltet werden, reagiert aber nicht auf Pusten. Die Installation Connect benutzt eine aufwändigere Variante solcher Zustandsvariablen: Eine Reihe von Zuständen organisiert welche Reaktion unter welchen Bedingungen gewählt wird, wobei von jedem Zustand des Systems aus nur zu bestimmten anderen Zuständen gewechselt werden kann. Ein solches System aus Zuständen und Übergangsregeln liegt vielen komplexeren Systemen aus Sensoren und Aktoren zu Grunde und wird in der Informatik als “endlicher Automat” bezeichnet. Tatsächlich scheinen endliche Automaten nur für den äußeren Beobachter eine Geschichte zu haben - intern können sie zwar unterschiedliche Zustände annehmen, die einzelnen Zustände kennen aber ihre jeweilige Vorgeschichte nicht. Folgerichtig erlauben endliche Automaten zwar komplexere Übersetzungen zwischen Reizen und
44
Paper Sensor
Reaktionen als dies Reiz-Reaktionssysteme ohne interne Zustände erlauben, sie sind aber nicht in der Lage, jede beliebige Form von Verhalten zu modellieren. In der theoretischen Informatik bilden sie daher eine Klasse von Systemen geringerer Möglichkeiten, als etwa Turing-Maschinen. Letztere verfügen zusätzlich zu Zuständen und Übergangsregeln vor allem über die Möglichkeit, einen beliebig großen Speicher zu lesen und zu beschreiben. In der Praxis zeigt sich jedoch, dass sich das Gedächtnis eigenaktiver Objekte nicht mehr nur im Speicher des Mikrocontrollers lokalisieren lässt. So gut wie immer besitzt das Material dieser Objekte ein eigenes Gedächtnis, das mit dem des Mikrocontrollers interagiert. Die Physik der aufgehängten Module des SARoskop, die Pflanze und das Computerspiel in Sensobotanics oder die Physik der Gummibänder und Kugeln in Connect beeinflussen alle die Wirkung der verbauten Aktoren abhängig von ihrem aktuellen Zustand. Dieses Verwischen der Grenzen zwischen dem Gedächtnis des Materials und dem Speicher des Controllers radikalisiert ein weiteres studentisches Experiment:
45
In Paper Sensor wird der SensorAktor-Shield als reines Reiz-Reaktionssystem verwendet, das als einfaches Musikinstrument Sensorwerte auf Geräuschmuster abbildet. Die Sensoren aber können während ihres Gebrauchs verändert werden: Es sind Zeichnungen auf Papier, aufgetragen mit leitender Farbe. Durch das Berühren mit Fingern und leitenden Gegenständen, aber auch durch das Fortführen der Zeichnung lässt sich das Instrument zugleich spielen und verändern. Jedes so bemalte Blatt bildet damit den analogen Teil des Programms eines Instrumentes. Man kann die Blätter entfernen, aufbewahren und zurückholen, womit sie zum Teil des Speichers dieser hybriden Programme werden. Hintergrund Die hier skizzierten experimentellen Auseinandersetzungen mit Code und Material basieren auf der Arbeit in der Lehre im Lab3, insbesondere innerhalb des Blockseminares SensorAktor im Februar 2009 an der Kunsthochschule für Medien Köln. Die besprochenen Experimente sind im Einzelnen: Jellyfish (Keiko Takahashi), Integration Animal (Daphne Keramidas, Tine Tillmann), Paper Sensor (Dino Korati, Jens Standke).
46
1 http://www.arduino.cc 2 Viele gute Einführungen in die Programmierung mit Arduino lassen sich im Internet finden. Der Arduino-Playground ist hier ein guter Ausgangspunkt: http://www.arduino.cc/playground/ 3 auf der Lab3-Website: http://interface.khm.de/index.php/lab/sensoraktor-shield/ 4 http://interface.khm.de/ index.php/lab/sensoraktor-basics/ 5 Bill Gates, The Disappearing Computer, Microsoft Press Pass, http://www.microsoft.com/presspass/ofnote/11-02worldin2003.mspx (zuletzt abgerufen am 30.03.2010) 6 Donald Norman, The Invisible Computer, MIT Press, Cambridge 1998 7 Mark Weiser, The Computer for the 21st Century, in Scientific American, Vol. 265, Nr. 3, 1991, S. 94-102 8 WIMP wird meist als Abkürzung für Windos, Icons, Menus, Pointers verwendet und bezeichnet die klassische Form der Computernutzung mittels Tastatur, Maus, Bildschirm und einem virtuellen Desktop. 9 Vergleiche hierzu Georg Trogemann und Jochen Viehoff, Code@Art, Eine elementare Einführung in die Programmierung als künstlerische Praktik, Springer, Wien 2005, S. 112-113 10 Beim Menschen beträgt diese Flimmerfusionsfrequenz je nach Helligkeit der Lichtquelle 10-70 Hz. Sie sorgt dafür, dass dem Betrachter die unbewegten Einzelbilder eines Films als Bewegtbild erscheinen. 11 Zu trivialen und nichttrivialen Maschinen vergleiche Heinz von Foerster, Wissen und Gewissen, Versuch einer Brücke, Suhrkamp, Frankfurt am Main 1993, S. 245-252 12 Das einfache Vergleichen des verstärkten Signals aus dem Mikrofon mit einem Schwellenwert ist natürlich keine vollwertige Detektion der Lautstärke oder gar eines charakteristischen Pustgeräuschs. Im Kontext des Experiments reicht das Verfahren aber aus, um auf ein direktes Pusten in das Mikrofon in der Regel reagieren zu können.
47
48
Ralf Baecker
Rechnender Raum
Rechnender Raum ist ein kontemplatives geschlossenes System, basierend auf einem zellularen Automaten. Die filigrane Konstruktion besteht aus Holzstäben, Schnüren, Hebeln, Gewichten und elektrischen Schaltungen. Rechnender Raum ist eine digitale Symbolverarbeitungsmaschine, jedoch ist die übliche Anordnung von Prozess (innen) und Ausgabe (aussen) invertiert. Der prozessierende Teil ist nach Aussen verlagert und im Zentrum der Maschine befindet sich die Ausgabe, ein aus Gummibändern gespanntes 3D-Gitter das durch Schnüre von Aussen bewegt wird. Die Maschine besteht aus einem horizontalen und einem vertikalen Kreislauf (Kopplungen). Aus diesen Kreisläufen ergibt sich die Form eines Torus. Durch einen initialen Impuls an einem der Hebel in Gang gesetzt, breitet sich dieser Impuls in der gesamten Maschine aus. Aufgrund der Kopplungen arbeitet die Maschine in einer Endlosschleife und durchläuft dabei endlos ihren möglichen Zustandsraum. Dieser Prozess wird von der Verklanglichung des Zustandes jeder einzelnen Zelle begleitet.
49
Ralf Baecker, Rechnender Raum, 2007, Detail
Das Grundprinzip der Mechanik beruht auf der Idee, Information durch Schnüre zu übermitteln. Die Zustände gezogen/nicht gezogen bilden die binären Symbole 0 und 1 ab. Die Logik ist gravitationsgebunden, d. h. der Signalfluss verläuft immer von oben nach unten und wird durch Gewichte verstärkt. Alle weiteren booleschen Operationen (nicht/und/oder) werden durch eine entsprechende Verknüpfung durch Ösen, Hebel und Gewichte realisiert. Ein logisches “nicht” (Inverter) kann z. B. durch einen mittig gelagerten Hebel (Wippe) realisiert werden. Wird die eine Seite des Hebels nach oben (logische 1) gezogen bewegt sich der Hebel auf der gegenüberliegenden Seite nach unten (logische 0). Da Übertragung und Operation sehr direkt funktionieren, müssen zur Entschleunigung Verzögerungsmodule, bestehend aus einem Sensor (Schalter), Timer (Microcontroller) und Aktor (Servo), eingebaut werden.
50
1 0
G1
G1
G2 = G1/3
1 0
Logisches Und
Diese Module entkoppeln den direkten Informationsfluss und sonifizieren den Zustand einer Zelle mit Hilfe kleiner Piezo-Lautsprecher. Aus diesen Elementen (Signalträger, Operationen und Verzögerungsmodule) ist der Rechnende Raum, ein 1-dimensionaler zellularer Automat (Regel 110), gebaut. Die Konzepte zu zellularen Automaten wurden von Stanislaw Ulam und John von Neumann für ihre Forschung an Kristallwachstum und selbst-replizierenden Systemen in den 40er Jahren entwickelt. Der Begriff “Rechnender Raum” stammt von Konrad Zuse. In seinem gleichnamigen Buch von 1969 schlägt er vor, die physikalischen Gesetze des Universums als diskret und darüber hinaus als Ausgabe einer deterministischen Berechnung eines gigantischen zellularen Automaten zu
51
1 0
1 0
Logisches Oder
betrachten: “Es geschah bei dem Gedanken der Kausalität, dass mir plötzlich der Gedanke auftauchte, den Kosmos als eine gigantische Rechenmaschine aufzufassen.” Die Maschine besitzt 27 Zellen, die aus jeweils 12 logischen Operatoren und einem Signalverzögerer zusammengesetzt sind. Jede Zelle des Automaten ist autonom, d. h. nicht zentral gesteuert und steht nur mit ihren Nachbarzellen in Verbindung. Werden Änderungen in der Nachbarschaft registriert, berechnet sie anhand einer einfachen Regel ihren neuen Zustand und gibt ihn über das Verzögererungsmodul verstärkt an ihre Nachbarzellen weiter. Durch das Zusammenspiel der einzelnen Zellen erzeugt die Maschine ein komplexes Verhalten. Der Rechnende Raum arbeitet parallel und besitzt keinen zentralen Takt. Die Maschine findet nach einigen Zyklen ihren eigenen Arbeitsrhythmus.
52
Ralf Baecker, Rechnender Raum, 2007, Detail
Rechnender Raum, 2007 Schnüre, Holzstäbe, Gewichte, Elektronik, Aluminium 300 x 300 x 250 cm
53
54
Micha Thies
txtstruct txtstruct ist die Untersuchung einer sprachlichen Struktur und meiner subjektiven Bewegungen innerhalb dieser. Aus der maschinellen und somit strikt formalen Analyse eines gegebenen Textes wird nach vordefinierten Zeichenregeln eine sich selbst organisierende Karte durch den Rechner erstellt. Die Texte, aus denen die Karten gezeichnet werden, sind jeweils meine Beschreibungen des Analysevorganges und des hinterlegten Sprachmodelles, so dass der Rechner sich selbst zu untersuchen hat. Als Nebenprodukt zum Experiment entsteht eine visualisierte Statistik, die allein durch ihre Form Aussagen über die Inhalte erlaubt, die sonst so nicht ersichtlich wären. Der Algorithmus Der ursprüngliche Text wird bei der Analyse auf die reinen Bedeutungen (also den gemeinten Sinn oder die Begriffsbilder hinter den Wörtern) reduziert, welche in einem hierarchischem Sprachmodell angeordnet und miteinander verbunden sind. Die mehrfache Benutzung eines bezeichneten Sinnes erzeugt dabei nur einen Punkt auf der Karte. Ein Beispiel: Enthält der zu analysierende Text mehrere Aussagen zur Kunst, wird nur einmal der Knotenpunkt Kunst mit seinem abgeleitetem Bedeutungsstamm (im Englischen) dargestellt: entity > abstraction > psychological feature > event > act > activity > creation > art Ist später im Text die Rede von Malerei (also einem Untergebiet der Kunst), wird der bestehende Stamm nur noch um den Punkt Malerei ergänzt. Bei einer weiteren Erwähnung des Sinnes Politik wird der Stamm von nun an activity auf politics verzweigen. entity > abstraction > psychological feature > event > act > activity > politics Statistisch haben wir aber bisher nur eine Information über die benutzten Inhalte, nicht aber über ihre serielle Abfolge. Meine subjektiven Bewegungen in dieser
55
56
57
58
Sinnstruktur werden nun also durch die die Knotenpunkte verbindenden Kurven dargestellt. Folgt man den gerundeten Linien, welche die Bäume miteinander verbinden, so lässt sich der ursprüngliche Text auch wieder lesen. Stößt man beim Verfolgen der Kurven auf einen Kreis der mit einem Adjektiv oder Adverb gefüllt ist, so stellt dieses eine Wertung der Verbindung der hier verknüpften Bedeutungen dar. Der Text bleibt somit zwar weiterhin lesbar, wird aber von seiner ursprünglich vorliegenden Form als reine Buchstaben- oder Zahlenfolge in eine andere, semasiologische Form überführt. Redundanzen in der Bedeutung werden weiterhin simpelst komprimiert, die analysierte Datenstruktur ist um ein weites kleiner als der Eingabetext, wenn man die Größe der hinterlegten Datenbank mit den hinterlegten Bedeutungen nicht mitberücksichtigt. Eine Interpretation der Form Durch die kreisförmige Anordnung der Verb- und Nomenbäume befinden sich somit rund um die Kartenmitte die Quellen der Bedeutungen. Je weiter man sich von der Mitte entfernt, desto präziser und konkreter werden die Beschreibungen und die Inhalte des Textes. Ein wissenschaftlicher Text wird demzufolge meistens überdurchschnittlich lange Arme oder Tentakeln gegenüber einem Artikel aus der Boulevardzeitung haben. Je mehr gerundete Linien diese Arme verbinden, desto mehr gewertete Verbindungen gibt es zwischen den bezeichneten Bedeutungen. Ein Text zur Medienkunst hätte vermutlich viele Verknüpfungen zwischen Medien und Kunst - wenn auch indirekt über andere Sinnfolgen/Konzepte, abhängig vom Argumentationsstrang. Dennoch bleibt dieser Umweg durch die Selbstorganisation der Karte ersichtlich. Das absolute Zentrum der Karte bleibt in der Darstellung leer, so dass in der Mitte ein freier Platz entsteht, welches das Grundkonzept aller weiterer Bedeutungen darstellt. Wie dieser Grundgedanke gefüllt wird, überlasse ich der Position des Betrachters, weswegen ich den eigentlichen Bezeichner Entität beim Zeichnen weglasse. Für mich ist es das Loch in der Sprache, dass uns an dem kompletten Verständnis der Systems scheitern lässt - das Feedback in unserem Gehirn, wenn wir über Sprache mit Wörtern nachdenken. An einem Punkt gibt es kein Stopp mehr für die Analyse, man ist in einer Endlosschleife gefangen, die man nur abbrechen, aber nicht lösen kann. Eingabetext für die Erstellung der Karten - Eine Beschreibung der Motivation für die Arbeit. - Eine Beschreibung der benutzten Algorithmen für die maschinelle, auf Statistik beruhende Bedeutungsanalyse, diese enthält auch eine Erklärung der Sprachstruktur. - Eine Aufführung der benutzten Regeln, die zur entstehenden Visualisierung führen. Die analysierten Texte beschreiben somit die Herkunft, das grundsätzliche System und die Algorithmen der Maschine. Es entsteht eine Selbstbezüglichkeit, ohne dass dem Rechner bewusst wird, dass er eine Beschreibung seiner selbst zu dekodieren hat.
59
60
61
62
txtstruct, 2007 3-teilig Prints auf wasserfeste Folie je 208 x 208 cm
63
Versuchsaufbau Rats are able to navigate in virtual environments, Universität Tübingen, 2002
64
Lasse Scherffig
Feedback Vom Unding zur Sache
Ein Spiel Im Winter des Jahres 1941 spielen Norbert Wiener und Jonathan Bigelow ein frühes Videospiel: “Auf eine Laborwand wurde mittels eines Scheinwerfers ein intensiver weißer Lichtstrahl geworfen, der eine leichte, jedoch unregelmäßige Vor- und Rückbewegung ausführte und alle 15 Sekunden von einer Wand zur anderen schwenkte.”1 Der Spieler lenkt einen zweiten, farbigen Lichtstrahl und hat die Aufgabe, damit den weißen zu treffen. Der Joystick, der dazu benutzt wird, ist ein Kontrollhebel, der sich mit Absicht nur schwer bedienen lässt und eine mechanische Verzögerung der Umsetzung zwischen Kontrollhebel und Licht erhöht den Schwierigkeitsgrad zusätzlich. Es geht in diesem Spiel nicht etwa darum zu gewinnen: Die Wand, auf die projiziert wird, befindet sich nicht im heimischen Wohnzimmer - sie ist eine Laborwand. Folgerichtig ist das Ziel des Spiels, Daten zu produzieren.
65
Flugabwehrtechnologie zur Zeit Wieners
Wiener, ein Mathematiker der heute vor allem als Erfinder der Kybernetik bekannt ist, und der Ingenieur Bigelow benötigen diese Daten, um eine neue elektronische Steuerung für Flugabwehrgeschütze zu entwickeln. Sie soll das Geschütz und seine Bediener in die Lage versetzen, Granaten dorthin zu schießen, wo sich ein anvisiertes Flugzeug in der Zukunft befinden wird. Denn feindliche Flugzeuge sind zu dieser Zeit in der Regel so schnell und so weit entfernt, dass zwischen Abschuss der Granate und dem Treffen ihres Ziels 20 bis 30 Sekunden vergehen: “Accordingly, it is extremely important to shoot the missile [was hier eher Geschoss als Rakete bedeutet] not at the target, but in such a way that missile and target may come together in space at some time in the future.”2 Wiener und Bigelow arbeiten also an einem Instrument, das die Bewegungen eines Flugzeugs vorhersagen kann. Wiener nennt dieses Instrument Anti-Aircraft Predictor. Die Rückkopplung, die durch Projektion und Steuerhebel zwischen Spieler und Spiel errichtet wird, soll ein Verhalten erzeugen, das, als Samples abgetastet und als statistische Zeitreihe aufgefasst, den Daten ähnelt, die aus der automatischen Erfassung des Verhaltens eines Flugzeugs stammen, das ein Ziel anfliegt und dabei der Flugabwehr ausweicht. Um dieses komplexe Zusammenspiel aus zielgerichtetem Angriff und Ausweichbewegung zu simulieren, übernimmt der Spieler die Rolle des feindlichen Piloten, das Spielgerät die seines Flugzeugs. Daten echter Flugzeuge haben die Wissenschaftler zunächst nicht.
66
Um das Verhalten eines feindlichen Flugzeugs vorherzusagen, wollen Wiener und Bigelow sich also nicht auf eine reine Simulation von Flugphysik und Aerodynamik stützen, denn sie halten es für wichtig, dass das Flugzeug am Himmel nicht nur eine Maschine ist, sondern ein System, das neben dem Flugzeug eben auch dessen Piloten umfasst. Sie sind daher der Überzeugung, dass das Verhalten des Piloten in die Vorhersage einbezogen werden muss und weiter, dass es sich dabei um eine besondere Art Verhalten handelt: Es ist Verhalten mit einem Ziel. Als solches, glauben Wiener und Bigelow, basiert es auf dem kontinuierlichen In-Beziehung-Setzen von Handlungen und den daraus resultierenden Umweltveränderungen - und damit auf Rückkopplung bzw. Feedback. Ihre Lösung stützt sich daher erstens darauf, das System zu beobachten und sein bisheriges Verhalten mit dem gegenwärtigen und dem für die Zukunft erwarteten zu korrelieren.3 Zweitens kommen sie im Verlauf der Arbeit zu der Lösung, keinen Mechanismus zu entwerfen, der direkt versucht, optimale Lösungen zu berechnen und der so das Verhalten von Flugzeug und Piloten auf eine allgemeingültige Formel bringt. Stattdessen konstruieren sie ein System, das schrittweise seine eigenen Vorhersagefehler minimiert und damit selber mit Feedback arbeitet. Wiener schlägt mit diesem Ansatz einen Weg ein, der sich von anderen Ansätzen seiner Zeit abhebt: Nicht die Simulation und Voraussage dessen, was ein Flugzeug physikalisch ausmacht, stehen im Vordergrund, sondern das Verhalten seines Piloten.4 Dieser Ansatz stellt sich als unbrauchbar heraus: Im Vergleichstest mit Daten, die jetzt von tatsächlichen Flugzeugen stammen, liefert der Anti-Aircraft Predictor 1942 kaum bessere Ergebnisse als eine andere Steuerung, die keinen Wert auf das Verhalten der Piloten legt. Damit ist das Projekt gescheitert. Im Kontext Wieners weiterer Forschung wird der Anti-Aircraft Predictor aber dennoch sehr wichtig: Er illustriert überzeugend die Mächtigkeit von Kontrolle durch Feedback. Er zeigt weiter, dass diese Form der Kontrolle Grundlage einer allgemeinen Wissenschaft des zielgerichteten Verhaltens sein kann, für die es keine Rolle spielt, ob das beschriebene Verhalten das eines Lebewesens oder einer Maschine ist. Für Wiener ist das Prinzip des Feedback dabei so fundamental, dass er für die Wissenschaft des Steuerns und Regelns durch Feedback eigens den Neologismus Kybernetik einführt.5 Der Anti-Aircraft Predictor verleiht dieser Kybernetik ihre Glaubwürdigkeit und wird ihre Rezeptionsgeschichte nachhaltig prägen. Während die Arbeit am Anti-Aircraft Predictor also eine eindrucksvolle Erzählung liefert, die das Potential dieser neuen Wissenschaft andeutet, hat Feedbacksteuerung in der Praxis der Ingenieure bereits zu Kriegsbeginn eine lange Geschichte. Am berühmtesten ist hier wohl die automatische Regelung der Drehzahl von Dampfmaschinen durch Fliehkraftregler, die bereits von James Watt eingesetzt und von Clerk Maxwell 1868 unter dem Titel On Governors dokumentiert wurde. Der Ausdruck Kybernetik greift diese Tradition auf, indem er auf die griechische Wurzel des Wortes governor zurückgreift. Zugleich radikalisiert Wiener in der Kybernetik den Einsatz von Feedback, indem er ihn zu einem allgemeinen Prinzip erklärt und ins Zentrum einer wissenschaftlichen Disziplin stellt.
67
Regelungstechnik: Feedback takes control Die unmittelbare Vorgeschichte dieser Idee liegt in den 1920er Jahren, in denen feedback control in der Regelungstechnik zeitgleich als Lösung verschiedener elektrotechnischer Probleme auftaucht - Probleme, die immer im Zusammenhang mit dem Widerstand des Materials stehen. Um Telefongespräche transkontinental von einer Küste der Vereinigten Staaten zur anderen zu übertragen, benötigt man effiziente Verstärker für gesprochene Sprache. Diese Verstärkung wurde lange Zeit von Vakuumröhren übernommen, die als repeater amplifier in die Telefonleitungen geschaltet wurden. Die Röhren hatten aber den Nachteil, Signale nichtlinear zu verstärken und dadurch die übertragene Sprache zu verrauschen - eine Eigenschaft, die in der Materialität der Vakuumröhren begründet ist und die nicht ohne weiteres umgangen werden kann. In den Bell Laboratories des amerikanischen Telefonmonopolisten AT&T arbeiten Ingenieure wie Harold Stephen Black während der gesamten 1920er Jahre an dem Problem, die nichtlineare Verstärkung der Vakuumröhren in den Griff zu bekommen.6 Black kommt früh zu einer einfachen Lösung: Er baut eine Schaltung, in der Einund Ausgangssignal eines Verstärkers miteinander verglichen werden, um dessen nichtlineare Verzerrung zu isolieren. Diese wird von einem zweiten Verstärker verstärkt und dann vom Ausgangssignal abgezogen. Ergebnis ist eine saubere Verstärkung ohne die unerwünschten nichtlinearen Komponenten. Diese einfache Lösung markiert bereits eine Vorgehensweise, die die Regelungstechnik in den folgenden Jahren bestimmen soll: Die Ausgabe eines technischen Systems, etwa das verstärkte und verrauschte Signal eines Verstärkers, wird wieder in das System hineingegeben. Dieses feeding back schließt einen Feedback-Loop, eine Rückkopplungsschleife, weshalb die Regelungstechnik bei solchen Schaltungen bis heute von closed loop control spricht. Schaltungen wie der repeater amplifier, die als reine feed forward Schaltungen blind gegenüber den Ergebnissen der eigenen Arbeit sind, arbeiten dagegen im open loop. Blacks einfache feedbackbasierte Lösung ist theoretisch optimal, praktisch funktioniert sie aber nur bedingt. In der Schaltung müssen zwei Verstärker präzise und ohne Schwankungen ihrer Leistung zusammenarbeiten. Das funktioniert nur so lange, wie die materiellen Bedingungen beider Verstärker sich nicht ändern. Ändern sich zum Beispiel der Heizstrom oder die Batteriespannung einer der Vakuumröhren, versagt die Schaltung. Erst Jahre später löst Black dieses Problem allgemein, indem er den electronic negative feedback amplifier entwirft. Dieser besteht nur aus einem einzigen Röhrenverstärker und einer Feedbackschaltung. Diese fügt einen Teil des verstärkten und verrauschten Signals dem Eingangssignal in umgekehrter Phase wieder hinzu. Zwar ist dadurch die Verstärkerleistung insgesamt geringer als die des verwendeten feed forward Röhrenverstärkers, dafür lässt sich aber mathematisch zeigen, dass diese geringere Leistung jetzt ausschließlich von der Feedbackschaltung abhängig ist. Verändert sich die Verstärkung der Vakuumröhre, wird dies automatisch durch die Schaltung kompensiert. Black entkoppelt so durch den Einsatz negativen Feedbacks die Funktion des Verstär-
68
y table movement
y
y
⬍
⬍
P1
x
⬍
P2
x
x
f 1( x )
f 2( x )
A
B
P3
f1( x ) f 2( x ) dx
C
Der Product Integraph: Während der Tisch sich nach links bewegt, werden zwei Funktionen (A und B) jeweils mittels eines Potentiometers nachvollzogen. Ein Wattstundenmeter ermittelt das Integral ihres Produktes, ein Plotter zeichnet die resultierende Kurve (C).
kers von seiner Implementierung. War Feedback in der Elektrotechnik bisher vor allem als verstärkendes, positives Feedback und damit als mögliche Fehlerquelle aufgetaucht, setzt Black nun negatives Feedback als Kontrollmechanismus ein. Damit ist er zwar nicht der erste - auch Watts Fliehkraftregler arbeitete mit negativem Feedback - und, wie wir sehen werden, auch nicht der einzige, er gehört aber zu den ersten, die Wert darauf legen, Feedback als eigenständige Methode einzusetzen und mathematisch zu reflektieren. Als Methode ermöglicht es den Ingenieuren ganz allgemein die Widerstände ihres Materials - wie etwa die nichtlineare Verstärkung einer Vakuumröhre - in den Griff zu bekommen: Black erlaubt es konkret eine geringere Leistung eines Verstärkers zu Gunsten einer linearen Verstärkung in Kauf zu nehmen. So wird die Kopplung zwischen der Signalverstärkung in den Telefonleitungen und ihrer materiellen Basis gelockert. Zur gleichen Zeit versucht man am Electrical Engineering Department des MIT ganz ähnliche Probleme in den Griff zu bekommen.7 Unter der Leitung von Vannevar Bush und eben Norbert Wiener arbeitet ein Team von Ingenieuren wie Harold Hazen daran, einzelne Stromquellen zu Stromnetzen zu verschalten - und die Dynamik dieser Netze dabei unter Kontrolle zu halten. Feedback taucht hier zunächst nicht direkt als Lösung auf, denn statt Netze zu bauen verlegt man sich schnell darauf, sie als Differentialgleichungen zu simulieren. Diese Forschung führt in die Entwicklung von Analogrechnern, wie dem berühmten
69
Differential Analyzer, und steht bald vor Problemen, die zunächst nichts mit denen der Signalverstärkung in Telefonleitungen zu tun zu haben scheinen: Die Differentialgleichungen tauchen hier als Kurven auf, die von Hand nachgezeichnet, elektrisch oder mechanisch verrechnet und ebenso mechanisch von einem Plotter als Kurve wieder ausgegeben werden. Dieses “kinetically acting out”8 der Berechnung hängt immer wieder vom akkuraten Verfolgen von Signalen ab. Während sich etwa im Analogrechner Product Integraph ein Tisch, auf dem sich die Ein- und Ausgabekurven befinden, motorgetrieben horizontal bewegt, müssen zwei Bediener die y-Position ihrer jeweiligen Eingabekurve (siehe Abbildung) an einem Potentiometer, das als vertikaler Regler dient, einstellen. Ein einfacher Wattstundenmeter misst den Stromverbrauch, der sich durch die Veränderung der Potentiometer ständig ändert. Seine Rotation entspricht daraufhin dem Integral des Produktes der verfolgten Funktionen. Diese Rotation muss nun akkurat auf die Bewegung eines Motors umgesetzt werden, der das Ergebnis zeichnet. Damit wird beim Product Integraph vor allem der automatische Abgleich zwischen der Drehung des Wattstundenmeters und dem zeichnenden Motor zum Problem. Obwohl also am Electrical Engineering Department an Energietechnik und nicht Kommunikationselektronik geforscht wird, stößt die Arbeit hiermit an das selbe Problem, das schon Black beschäftigte - nur gilt es hier statt der Kurve der übertragenen Sprache, mathematische Funktionen als mechanische Bewegung zu verfolgen: “The problem is, of course, directly analogous to the amplifier problem solved by Black. In Black's case the rapidly varying signal to be followed was derived from speech or other sounds, in Hazen's case from the position of mechanical components.”9 Und auch hier fällt zwar einerseits die Berechnung von Integralen mit ihrer sehr materiellen elektronischen oder mechanischen Realisierung zusammen - der vom Wattstundenmeter gemessene Verbrauch ist im Product Integraph das Integral des Produktes zweier Funktionen - andererseits gilt es auch hier eben dieses Material in den Griff zu bekommen. In einem mechanischen Integrator der Universität Manchester können die Oszillationen, die durch positives Feedback in der Mechanik des Gerätes entstehen, noch durch den Einsatz von Vaseline behoben bzw. gedämpft werden.10 Generelle Lösungen basieren wenn es um die Verfolgung der Position mechanischer Teile geht, genau wie in Blacks Verstärkern für übertragene Sprache, auf Feedback. Auch die Motoren in Analogrechnern werden gesteuert, indem der Fehler ihrer Ausgabe in ihre Eingabe einbezogen wird, und damit Aktivität und Umweltveränderung miteinander in Beziehung gesetzt werden - solche feedback-gesteuerten Motoren werden von nun an als Servomechanismen bezeichnet. Der Arbeitsgruppe um Bush und Wiener ist Blacks Arbeit dabei nicht direkt bekannt, findet sie doch hinter den verschlossenen Türen einer Privatfirma statt. Trotzdem entstehen hier, wie auch an anderen Stellen, sehr ähnliche Lösungen für Probleme, die erst auf sehr abstrakter Ebene ähnlich scheinen. Kommunikationselektronik und Hochenergietechnik bereiten so, zunächst unabhängig voneinander, mit dem Einsatz von Feedback eine allgemeine Methode vor, die es Schritt für Schritt erlaubt Funktionalität von Materialität zu entkoppeln. Dabei erlaubt es Feedback den Ingenieuren, so könnte man sagen, sich vom Material zu entfernen, um es aus dem Abstand in den Griff zu bekommen. Klimax
70
dieser Entwicklung ist die Konstruktion von Maschinen, die als symbolische Maschinen vollständig unabhängig von ihrem Material beschrieben werden können und die damit die Entkopplung von Funktion und Material radikalisieren. Die heutigen Computer sind solche Maschinen. Zu ihren Voraussetzungen gehört also nicht nur die Entwicklung einer mathematisch motivierten theoretischen Informatik durch Forscher wie Alan Turing, sondern auch die Schaffung von ingenieurwissenschaftlichen Methoden, wie den gezielten Einsatz von Feedback. Die Strategie, durch Rückkopplung Abstand von den materiellen Bedingungen einer Schaltung zu gewinnen, entsteht sowohl am MIT als auch in den Bell Laboratories, gewissermaßen im Dialog mit dem Material. Obwohl die Forschung an beiden Orten rückblickend vor allem der Entwicklung einer mathematischen Informationstheorie diente, ist persönliche Erfahrung mit Technologie deshalb Voraussetzung für die Mitarbeit in der Entwicklung von Analogrechnern und später auch dem Anti-Aircraft Predictor: “Keiner, der nicht bereits ein Gefühl für Technik hatte, und sei es nur, daß er in seiner Freizeit Rundfunkgeräte baute, konnte auf ein Engagement [bei Wiener] hoffen”, schreibt Peter Galison dazu.11 Die Arbeit mit Feedback in technischen Systemen setzt also voraus, dass man sich auf ihr Material einzulassen bereit ist. Die Maschinen, die in dieser Arbeit entstehen, setzen daher weder ein bekanntes und mathematisch beschriebenes Wissen als implementierte Theorie im Material um, noch entstehen sie als reine Ingenieurleistung unabhängig von mathematischen Beschreibungen. Hazen selbst beschreibt, wie er durch das “Herumspielen” mit Schaltkreisen überraschend zu Lösungen kommt, deren allgemeine Anwendbarkeit von Bush mathematisch gezeigt wird und die schließlich zum Bau des Product Integraph führen.12 Black und Hazen reflektieren die so entstehenden Lösungen anschließend theoretisch und sorgen mit ihren Veröffentlichungen dafür, dass der Einsatz von Feedback eine eigenständige Methode wird. Bereits Black legt in der Patentanmeldung des electronic negative feedback amplifier Wert auf die klare Unterscheidung von positivem und negativem Feedback und den Einsatz des letzteren zu Regelungszwecken. Und 1934, im gleichen Jahr, in dem Harold Hazen seine Forschung schließlich öffentlich macht, veröffentlicht er auch zwei Texte, die die vergangenen zehn Jahre Arbeit des Electrical Engineering Department an Servomechanismen zusammenfassen. Sie systematisieren die langjährige Auseinandersetzung mit rechnendem Material und den Strategien es in den Griff zu bekommen und spielen eine entscheidende Rolle für die Errichtung eines theoretischen Bezugsrahmens für die Arbeit mit Rückkopplung in der Regelungstechnik. Hazen kann sich bei der Einrichtung dieses Rahmens zwar auf zahlreiche bereits veröffentlichte Anwendungen von Feedbacksteuerung für Schiff- und Luftfahrt stützen, die Terminologie der Regelungstechnik ist hier aber noch keineswegs gefestigt und Begriffe wie open und closed loop müssen genauso wie das Konzept der Fehlerkorrektur durch Feedback erst eingeführt werden: “Hazen still felt it necessary to explain in detail in the introduction the difference between open and closed loop control
71
systems, and also to give a definition of a servomechanism which he described as a power-amplifying device in which the amplifier element driving the output is actuated by the difference between the input to the servo and its output.”13 Im Folgenden setzt sich diese Definition durch und Peter Galison kann über die1940er Jahre schreiben: “Für die meisten Wissenschaftler der Zeit [...] war ein Servomechanismus durch die Einbeziehung von Feedback definiert.”14 In diesem Klima, in dem aus dem “Herumspielen” der Ingenieure und dessen mathematischer Reflektion Feedback zur zentralen Methode der Regelungstechnik wird, liegt auch dessen militärische Anwendung für Feuerleitung und Flugabwehr auf der Hand. Bereits 1939 schickt die Navy Offiziere zur Schulung an das Electrical Engineering Department und es wundert wenig, dass Wiener und Bigelow den Anti-Aircraft Predictor ganz selbstverständlich als Servomechanismus entwerfen. Es wundert ebensowenig, dass Wiener beginnt, das Prinzip Feedback auch im zielgerichteten Verhalten von Lebewesen am Werk zu sehen. Während der 1930er Jahre ist er regelmäßig bei dem Physiologen und Mediziner Arturo Rosenblueth zu Gast und beide werden gute Freunde. Zusammen spekulieren sie über Feedback und Verhalten und Rosenblueth liefert Wiener die Beispiele, die auf Feedback im menschlichen Handeln hinweisen. Oszillationen, wie sie in Manchester mittels Vaseline unterdrückt wurden, sind ein häufiges Problem in Feedbackmechnismen, in denen sie oft durch hunting verursacht werden:15 Beim hunting schießt der Servomechanismus in einer Richtung über sein Ziel hinaus, reagiert in die Gegenrichtung und verfehlt das Ziel erneut, wieder und wieder. Auf der Suche nach einer physiologischen Entsprechung für das hunting fragt Wiener Rosenblueth nach einem Krankheitsbild “in which the patient, in trying to perform some voluntary act like picking up a pencil, overshoots the mark, and goes into an uncontrollable oscillation.” Das Krankheitsbild existiert. Es ist Folge einer Schädigung des Kleinhirns und trägt den Namen purpose tremor. Für Wiener ist der generelle Zusammenhang von purpose als zielgerichtetem Verhalten und Feedback damit eindeutig. Der Entwurf einer Feedbackschaltung, die nicht nur das Material des Luftkriegs, sondern auch die beteiligten Piloten in den Griff kriegen soll, ist die logische Konsequenz dieses Zusammenhangs. Folgerichtig bezeichnet Wiener den Anti-Aircraft Predictor und das Spiel, das ihn mit Testdaten versorgen soll, als eine der “genauesten mechanischen Vorrichtungen, die im Hinblick auf physiologisches Verhalten je entwickelt wurde.”16 Warren Weaver spricht nach einer Demonstration des Apparats gar von einem Wunder, wenn auch einem, das vielleicht unbrauchbar ist: “Weaver thought it was a miracle but was it a useful miracle?”17 Obwohl sich diese Wundermaschine wirklich als nicht useful genug für den Krieg herausstellen wird, sind ihre Vorhersagen für kurze Intervalle tatsächlich sehr genau: “Im Bereich einer Sekunde ist das Verhalten ihres Instruments wirklich unheimlich” kommentiert George Robert Stibitz von den Bell Laboratories.18 Undinge Fünfzig Jahre nach dieser unheimlichen Maschine von Wiener und Bigelow stellt Vilém Flusser ein allgemeines Misstrauen fest: Wir misstrauen den alternativen
72
Welten, die aus den Computern aufzutauchen beginnen, schreibt er 1991, zur Zeit des Hypes um die virtuelle Realität. Wir halten diese Welten für “digitalen Schein”.19 Den Grund für dieses Misstrauen macht er im Ursprung dieser Welten aus: Sie sind von uns gemacht. Obwohl wir von Datenräumen sprechen, sind sie keineswegs als Daten im Wortsinne zu verstehen, denn dare heißt geben. Als Gemachtes sind sie aber nicht gegeben, sondern Fakten, nach dem lateinischen facere. Diese Umkehrung der Begrifflichkeiten von Daten und Fakten geht in einer weiteren Umkehrung Flussers auf: der Umkehrung von abstrakt und konkret. Abstraktion, argumentiert Flusser, bedeutete lange, etwas von den gegebenen Dingen der Welt - also den Daten - abzuziehen. Waren diese Dinge der Ausgangspunkt der Abstraktion, so war ihr Ziel, zu deren Formen oder Information - zu den “Undingen” zu gelangen. Abstraktion war, so Flusser, eine Bewegung weg vom Ding und hin zum Unding.20 “Die Absicht der Abstraktion war, die Dinge der Umwelt aus dem Abstand in den Griff zu bekommen.” Unter Verweis auf Hard- und Software prophezeit Flusser nun, die Umwelt der harten Dinge würde von einer “weichen, gespenstisch werdenden Umwelt der Undinge” verdrängt. In Folge dessen ginge es nicht länger darum, die Dinge in den Griff zu bekommen. “Wir können und wollen uns im Leben nicht mehr an die Dinge halten: sie sind nicht mehr das Konkrete. Daher kann Abstrahieren nicht mehr weg vom Ding bedeuten.” Der Grund dafür liegt für Flusser sozusagen auf der Hand: “Informationen [...] lassen sich nicht mit Fingern greifen. Im buchstäblichen Sinn dieses Wortes sind sie unbegreiflich. [...] An die Dinge können wir uns nicht mehr halten, und bei den Informationen wissen wir nicht, wie uns an sie halten. Wir sind haltlos geworden.” Abstraktion wird vor diesem Hintergrund zu ihrem Gegenteil: Weil nicht mehr Daten, sondern Fakten, nicht mehr die gegebenen Dinge, sondern die gemachten Undinge das Konkrete unserer Lebenswelt bestimmen, bedeutet Abstraktion in Zukunft nicht mehr “weg vom Ding” und hin zu den Informationen oder Undingen, sie muss stattdessen vom Unding ausgehen und “zurück zur Sache”. Die “Sache”, die Ergebnis dieser umgekehrten Abstraktion sein soll, ist dabei etwas anderes als Dinge oder Undinge: Sachen im Sinne Flussers sind soziale Entitäten und Teil einer gesellschaftlichen Übereinkunft. Sie existieren nur, weil wir uns mit anderen darüber geeinigt haben. Die neue Umwelt der Undinge, von der die umgekehrte Abstraktion auszugehen hat, ist nach Flussers Vorstellung ganz der Idee eines körperlosen Cyberspace verhaftet: “An diesem neuen Leben ist die Atrophie der Hände bemerkenswert. Der an Dingen uninteressierte künftige Mensch wird keine Hände mehr benötigen, denn er wird nichts mehr behandeln müssen. [...] Übrig bleiben von den Händen die Fingerspitzen.” Ganz ähnlich hatte bereits 1964 der Anthropologe André Leroi-Gourhan argumentiert. Sein Buch “Hand und Wort”21 rekonstruiert den modernen Menschen als Folge der Befreiung der Hand im aufrechten Gang und der damit einhergehenden Veränderung von Skelett, Gebiss und Kortex. Am Ende dieser Entwicklung steht der
73
Mensch, so Leroi-Gourhan, ohne die Möglichkeit da, “sich zu befreien, ohne zugleich einen Artwechsel durchzumachen.”22 In jedem Fall würde eine weitere Veränderung voraussetzen, dass Hand, Gebiss und aufrechter Gang in ihrer heutigen Form verloren gingen: “Eine zahnlose Menschheit, die in liegender Stellung lebte, und das, was von ihrem vorderen Glied geblieben ist, dazu benützte, auf Knöpfe zu drücken, ist nicht völlig unvorstellbar”, schreibt er. Der Mensch in der Welt der Undinge ist nach diesem Bild ein Mensch, der nicht handelt, sondern schaltet. Dieser körperlose, schaltende Mensch ist keine Erfindung von Flusser oder Leroi-Gourhan. Er ist ein Bild, das sich aufdrängt, wenn man einem Computernutzer bei der Computernutzung zusieht. Genau dieses Bild sehen Allen Newell und Herbert A. Simon bereits in den frühen 1950er Jahren - als sie die ersten Computernutzer auf die ersten Computer vorbereiten. Während des Trainings des Personals für das erste interaktive Rechnersystem, das die Forschungslabore verlässt und zur Luftüberwachung eingesetzt wird, stellen sie fest, dass das Personal am Rechner sich verhält wie der Rechner: Die operator des SAGE nehmen Informationen auf und fällen Entscheidungen. Rechner und Mensch werden daher von Newell und Simon zu gemeinsamen Vertretern einer Spezies erklärt: Beide sind informationsverarbeitende Systeme.23 Mit dieser “Informationsverarbeitungshypothese” ist die Kognitionswissenschaft als Wissenschaft solcher Systeme geboren. Mit ihr wird der schaltende Mensch nachhaltig festgeschrieben und später zur nichthintergehbaren Voraussetzung einer neuen Wissenschaft der Computernutzung - der Human-Computer Interaction. Newell selber führt diesen Menschen als “neuen Menschen” in die Informatik ein: “There is emerging a psychology of cognitive behavior that will permit calculation of behavior in new situations and with new humans” schreibt er in einem Memo für das berühmte Xerox PARC Forschungszentrum, an dem die Computermaus erfunden wurde.24 Die Human-Computer Interaction fasst von nun an die Benutzer von Computern als an diese Computer angeschlossene Kontrollregler auf: Es sind feed forward Schaltungen, die im open loop Informationen durch die Augen aufnehmen, verarbeiten und über die Fingerspitzen ausgeben. Von Ping Pong zur Legible City Wahrscheinlich ohne etwas davon zu ahnen, wiederholt die Künstlerin Valie Export 1968 das Experiment von Wiener und Bigelow. Es ist das Jahr in dem Ralph H. Baer das weltweit erste Patent für ein Videospiel anmeldet. Grundlage des Patents ist die Brown Box, ein Prototyp des Videospielklassikers Pong.25 Und auch Exports Arbeit ist ein Tischtennispiel: Sie heißt “Ping Pong. Ein Spielfilm, ein Film zum Spielen”, (siehe Abbildung). In ihr wird ein Lichtpunkt von einem Filmprojektor auf eine Leinwand geworfen. Vor der Leinwand steht eine Tischtennisplatte mit Schläger und Ball. Aufgabe des Betrachters ist es, den Lichtpunkt mit dem Ball zu treffen. Obwohl hier eine Leinwand die Laborwand ersetzt, der Joystick zum Schläger und der farbige Lichtstrahl zum Tischtennisball wird, entsteht dennoch eine Installation, die verblüffend an das erinnert, was fast 30 Jahre zuvor als Datenquelle für den Anti-Aircraft Predictor konstruiert worden war. Passend dazu stellt auch Export ihre Arbeit in den Kontext von Physiologie und Verhaltensforschung: “reiz und reaktion. die ästhetik des konven-
74
Valie Export, Ping Pong, 1968
tionellen films ist eine physiologie des verhaltens, seine kommunikationsweise ein ereignis der perzeption. ping pong expliziert das herrschaftsverhältnis zwischen produzent (regisseur, leinwand) und konsument (zuschauer). was hier das auge dem hirn erzählt, ist anlass zu motorischen reflexen und reaktionen. ping pong macht die ideologischen verhältnisse sichtbar. zuschauer und leinwand sind partner eines spiels, dessen regeln der regisseur diktiert”.26 Während ihre Arbeit also parallel zur Entwicklung der ersten kommerziellen Computerspiele entsteht - Baers Arbeit an der Brown Box beginnt in den frühen 1960er Jahren, wird aber erst 1972 durch den Automaten Pong und die Heimvideospiel-Konsole Odyssey öffentlich - und während sie die Entwicklung der interaktiven Medienkunst in den 1980er und 1990er Jahren zu antizipieren scheint, nimmt Exports Kritik an den Herrschaftsverhältnissen der Filmproduktion zugleich die Kritik an dieser Medienkunst vorweg: Dieter Daniels etwa verortet den Beginn dieser Medienkunst im Aufkommen von Closed-Circuit-Installationen.27 Mit ihnen wird, so sein Argument, ein Paradigmenwechsel eingeleitet: War für Intermedia und Fluxus noch das “Ideal einer Kunst ohne Hierarchie von Betrachter und Schöpfer” entscheidend, wenden sich Closed-Circuit-Installationen und die spätere Medienkunst von diesem Ideal wieder ab. In Installationen wie Bruce Naumans Live Taped Video Corridor wird der Betrachter, so Daniels, “durch die Irritation über seine An- oder Abwesenheit im Videobild eher zum Versuchsobjekt anstatt zum Mitspieler.” Die Arbeit steht damit paradigmatisch für eine Medienkunst, “die statt zur kreativen Partizipation genau
75
zum Gegenteil führt: einer radikalen Konditionierung des Betrachters durch das Werk, das ihn auf seine eigene Körper-Bild-Erfahrung zurückwirft.” - eine Medienkunst der Verhaltensforschung. Ein mittlerweile als kanonisch geltendes Werk dieser Medienkunst ist The Legible City von Jeffrey Shaw: Der Betrachter sitzt auf einem Home-Trainer und kann durch Treten der realen Pedale eine Fahrt durch eine simulierte und projizierte Stadt aus Buchstaben unternehmen. Die Installation erinnert nicht nur oberflächlich an Versuchsaufbauten der psychologischen Forschung, wie dem Fahrradsimulator des Max-PlanckInstituts für biologische Kybernetik in Tübingen28 - Versuchsaufbauten, von denen ebenfalls in Tübingen gezeigt wurde, dass sie auch als “Tretmühle” für Experimente mit Ratten in virtuellen Labyrinthen verwendbar sind.29 Vor diesem Hintergrund wundert es wenig, wenn die Kritik an solcher Medienkunst als Kritik an den Experimentalsystemen der Verhaltensforschung erscheint. So schreibt Florian Cramer über The Legible City: “Shaw erkennt weder den Illusionscharakter seiner Arbeit, noch ihre Struktur eines künstlichen behavioristischen Systems, in dem Körper und Technik in ein prekäres Verhältnis wechselseitiger Kontrolle treten. Es ist die Maschine, die hierbei gewinnt, weil sie den Aktionsrahmen vorgibt und vom Fahrradfahrer nicht umprogrammiert werden kann.”30 Cramer misstraut The Legible City, so scheint es, aus zwei Gründen: Weil sie erstens eine gemachte Illusion liefert, ist sie Fakt und “digitaler Schein” in Flussers Sinne. Weil sie zweitens einen Aktionsrahmen vorgibt, ist sie - obwohl eingebettet in “ein System wechselseitiger Kontrolle” - letztlich unkontrollierbar. So wie Export Zuschauer und Leinwand als Partner eines Spiels sieht, dessen Regeln der Regisseur bestimmt, sieht Cramer Fahrradfahrer und Projektion hier als Teil eines Spiels, dessen Regeln der Programmierer diktiert. Diese Kritik trifft im Kern genauso auf The Legible City wie auch auf Pong, Ping Pong oder den Anti-Aircraft Predictor zu. Sie ist als generelle Kritik des Ortes zu verstehen, an dem die Undinge in Erscheinung und Aktion treten: Sie ist eine Kritik am Interface oder der Schnittstelle. Undinge in Aktion: Schnittstellen Tatsächlich sind wir, wenn wir es mit Undingen zu tun haben, weit weniger haltlos, als Flusser das beschreibt. Informationen, obwohl ihrem Wesen nach immateriell und unbegreiflich, treten uns schon immer in der materiellen und ganz buchstäblich greifbaren Form ihrer Schnittstelle entgegen. Klassisch geschieht dies, wenn die Hardware eines Computers Informationen als Spuren im Material hinterlässt - sie in Lochkarten stanzt oder auf Papier druckt, sie mittels Elektronenstrahl auf Braunsche Röhren zeichnet oder in die Vibration eines Lautsprechers übersetzt. Nötig wurden solche Schnittstellen, als durch die Radikalisierung der Entkopplung von Funktion und Material in den heutigen Computern, die digitalen Informationen fast vollständig von ihrer materiellen Basis gelöst wurden. Diese Entkopplung macht die ständige Rücktransformation von Information ins Materielle und damit Wahrnehmbare notwendig. Obwohl diese Transformation traditio-
76
Versuchsaufbau Rats are able to navigate in virtual environments
nell mittels Druckern, Monitoren oder Lautsprechern erfolgt, ist die Zahl der Möglichkeiten Spuren zu hinterlassen mittlerweile explodiert und man sollte vielleicht allgemeiner formulieren: Schnittstellen lassen Informationen kausal wirksam werden, Undinge treten also an der Schnittstelle in Aktion. Diese Wirksamkeit kann sich von Spuren auf Papier bis hin zum Verhalten eigenaktiver Dinge erstrecken. Der Umgang mit Informationen findet daher immer in zwei Materialdimensionen statt: Einerseits befinden sie sich immateriell und unsichtbar innerhalb von Computern, andererseits existieren sie immer in Verschränkung mit den Teilen der Computer, die sie materialisieren und wirksam werden lassen.31 Die Form der Materialisation an Schnittstellen ist dabei aber nicht im Wesen der Informationen selber begründet, dem semiotischen Konzept des Symbols entsprechend ist sie beliebig: Es besteht kein natürlicher Zusammenhang zwischen Undingen und der Form, in der sie in Erscheinung treten. Jede Darstellung von Information ist zwangsläufig illusionistischer, digitaler Schein. Dieser Schein ist allerdings auch manipulierbar - weil Schnittstellen nicht nur rematerialisieren, was an flüchtiger Information im Inneren symbolischer Maschinen vorliegt, sondern auch Nutzereingaben (oder Umwelt) de-materialisieren. Sie verwandeln Handlungen in Entscheidungen und damit Informationen - und erfordern daher zumindest das Drücken von Knöpfen. Zwar waren und sind diese Schnittstellen oft so, dass sie das Bild einer “zahnlose[n] Menschheit, die in liegender Stellung lebte, und das, was von ihrem vorderen Glied
77
geblieben ist, dazu benützte, auf Knöpfe zu drücken” nahe legen. Dieses Bild ignoriert aber zum einen, dass “greifbare” Schnittstellen32 zwar erst seit den späten 1990er Jahren unter diesem Begriff verhandelt werden, tatsächlich aber keine Erfindung der 1990er Jahre sind, sondern dass vielmehr die erste grafische Schnittstelle eines Digitalrechners überhaupt über eine Light-Gun verfügte. Am SAGE System ließen sich bereits um 1950 Undinge in ihrer symbolischen - also zwangsläufig illusionistischen Darstellung mit einem Lichtgriffel greifen und begreifen.33 Zum anderen ignoriert dieses Bild, dass auch die klassischen Schnittstellen, die das Bild einer zahnlosen Menschheit heraufbeschwören, durchaus behandelt wurden und werden. Die Hände und der gesamte Körper verschwinden also vorerst nicht in einem körperlosen Cyberspace. Grund dafür sind aber weniger die neuen verkörperten Interaktionen von Schnittstellen wie der Wii, sondern die Tatsache, dass er nie im Verschwinden begriffen war. Durch Denkmodelle wie dem der Kognitionswissenschaften ist er lediglich übersehen worden. Das oft übersehene Behandeln der Schnittstellen, wird sich hier aber als Schlüssel zu den Fragen danach erweisen, was die Undinge gespenstisch und den Anti-Aircraft Predictor unheimlich macht und wie Flussers umgekehrte Abstraktion verlaufen könnte, dank der die Undinge wieder in den Griff zu bekommen sind. (Eigen-)Verhalten: Wie Objekte und Sachen entstehen Wiener selbst liefert einen wertvollen Hinweis darauf, was das Unheimliche am AntiAircraft Predictor ausmacht: “Der halb scherzhafte Aberglaube an den bösen Geist unter den Fliegern stammte wahrscheinlich, wie alles andere auch, daher, daß sie eine Maschine mit vielen eingebauten Rückkopplungsschleifen bedienten, die als freundlich oder feindlich interpretiert werden konnten. Die Flügel eines Flugzeugs sind zum Beispiel absichtlich so gebaut, daß sie das Flugzeug stabilisieren, und diese Stabilisierung, die ja eine Rückkopplung ist, kann leicht als eine Persönlichkeit empfunden werden, gegen die man sich stemmen muß, wenn das Flugzeug zu ungewöhnlichen Manövern gezwungen ist.”34 Das Unheimliche am Anti-Aircraft Predictor wäre damit, fasst man es als einen solchen bösen Geist auf, nicht, wie etwa Peter Galison vermutet, dessen Fähigkeit der Vorhersage, sondern vielmehr die Feedbackschleife, die er zwischen Pilot und Mechanismus aufbaut. Das gleiche träfe auf The Legible City und im Kern auf jede Schnittstelle zu. Nach Cramer gewinnen solche Mechanismen das Spiel, weil sie in einer Schleife wechselseitig ausgeübter Kontrolle stattfinden. Genau diese Schleife ist es, die die Kybernetik definiert: Die berühmten Macy-Konferenzen, bei denen die wichtigsten Vertreter von Kybernetik und früher Informatik (aber auch von Sozialwissenschaften und Biologie) zusammen kamen, wurden erst spät in Cybernetics umbenannt, nachdem sie jahrelang den Namen Circular Causal and Feedback Mechanisms in Biological and Social Systems trugen. In rückgekoppelten Systemen wird Kausalität grundsätzlich zirkulär, da sich innerhalb einer Schleife der closed loop control keine Ursache dingfest machen lässt. So lässt sich zum Beispiel nicht sagen, ob ein ausweichendes Flugzeug im Zielanflug das Verhalten eines Flugabwehrgeschützes verursacht, oder
78
ob seine Flugbahn durch dessen Feuer erst erzeugt wird. In solchen Fällen ist lediglich dann von außen eine Wirkung sichtbar, wenn sich innerhalb der Schleife stabile Gleichgewichtszustände bilden - etwa wenn der Electronic Negative Feedback Amplifier die Nichtlinearitäten und Schwankungen einer Vakuumröhre ausgleicht und dadurch eine stabile lineare Verstärkung erzeugt. Während bereits Wiener und Bigelow der Überzeugung sind, dass Feedback und zirkuläre Kausalität Grundlage einer neuen Verhaltensforschung sein müssen, sollen diese Konzepte in der Nachkriegszeit noch einmal an Bedeutung gewinnen - und schließlich nicht nur in der modernen Regelungstechnik sondern auch im philosophischen Konstruktivismus und der Systemtheorie aufgehen. Für Heinz von Foerster markiert der Blick auf zirkuläre Organisation gar den Übergang zu einer neuen Epistemologie: von einer im Sinne der open loop control offenen Epistemologie externer Beobachter hin zu einer geschlossenen der closed loops, die den Beobachter in die Beobachtung einbezieht. Diese Idee ist als “Kybernetik zweiter Ordnung” berühmt geworden. Vor dem Hintergrund einer solchen geschlossenen Epistemologie verschiebt sich das Konzept der Kognition entscheidend: Nach der Informationsverarbeitungshypothese von Newell und Simon besteht Kognition im wesentlichen aus zwei Prozessen, die in linearer Folge hintereinander geschaltet sind: Erstens nehmen wir wahr. Mit Hilfe der Sinne gelangen wir von den Dingen der Umwelt, dem Input, zu ihren Formen. Mit anderen Worten: Durch herkömmliche Abstraktion im Sinne Flussers entnehmen wir der Umwelt Informationen und verarbeiten sie. Zweitens handeln wir. Wir treffen auf Grund dieser Wahlmöglichkeiten Entscheidungen, die sich als Output manifestieren, wenn wir beispielsweise einen Knopf drücken. Ein zirkuläres Modell verknüpft Wahrnehmen und Handeln dagegen rekursiv mit sich selbst: Der Mathematiker Henri Poincaré hatte bereits um 1900 gezeigt, dass Bewegung notwendige und hinreichende Voraussetzung für die Wahrnehmung von Raum ist und dass damit “die Konstruktion von Wahrnehmung vom Prozeß der Veränderung der eigenen Sinneswahrnehmungen durch die Bewegung des Körpers und von der Korrelierung dieser Veränderung der Sinneswahrnehmung mit den willkürlichen Bewegungen abhängig ist.”35 Wenn Handlungen so unmittelbar am Wahrnehmungsprozess beteiligt sind, lassen sich beide nicht mehr vernünftig voneinander trennen und fallen in einen einzigen Akt sensomotorischer Koordination zusammen. Auf den Punkt gebracht bedeutet das: “Wahrnehmen ist Handeln”36. Und wird so unter dem scheinbaren Oxymoron active perception seit kurzer Zeit auch innerhalb der Kognitionswissenschaft diskutiert.37 Was einem Beobachter von außen als Handlungen eines Subjektes erscheint, ist also untrennbar mit dessen nicht beobachtbarer sensomotorischer Koordination verknüpft. In Anlehnung an eine Arbeit des Psychologen Jean Piaget, fasst von Foerster diesen Zusammenhang aus objektivem Verhalten und subjektiver Koordination als rekursive Funktion in einem mathematischen Kalkül zusammen.38 Dieses Kalkül formalisiert die Idee, dass jede beobachtbare Handlung Folge der vorangegangenen Koordination
79
COORD
COORD
COORD
COORD
obso
obsn
Wahrnehmbare Handlung (obs) und sensomotorische Koordination (COORD) miteinander verkettet.
ist - und die wiederum Folge der vorangegangenen Handlung (siehe Abbildung links). Durch die Verwendung eines mathematischen Formalismus kann von Foerster nun aber allgemeine Aussagen über die Dynamik der Abfolge von Handlungen und Koordinationen machen: Wird die Berechnung einer rekursiven Folge unendlich lang fortgesetzt, können stabilen Werte entstehen. Errechnet ein rekursiver Ausdruck so zunächst nur jeden Wert als Folge des vorherigen, errechnet er im Fall eines solchen stabilen Werts diesen als Folge seiner selbst - und ist damit selbstreferentiell oder selbstdefinierend geworden. Werte die in diesem Sinn selbstdefinierend sind, nennt von Foerster Eigenwerte (andere Ausdrücke sind dynamisches Gleichgewicht, Grenzzyklus oder Attraktor) und zeigt unter anderem, dass Eigenwerte diskret sind, sich in einem zirkulären Prozess selbst bestimmen oder hervorbringen und dabei Geschlossenheit erzeugen (siehe Abbildung rechts). Ein griffiges Beispiel für solche Selbstreferentialität ist der Satz “This sentence has ... letters.” Zwei Eigenwerte machen ihn zu einer wahren Aussage: “thirty-one” und “thirty-three.” Dabei ist egal, welches Zahlwort man anfangs in den Satz einsetzt. Zählt man, wie viele Buchstaben der Satz enthält und setzt man diese Zahl rekursiv in den Satz ein, landet man unweigerlich irgendwann bei einem dieser beiden Eigenwerte - die sich somit selbst hervorbringen.39 Die Eigenwerte eines rekursiven Kalküls der Mathematik lassen sich nun wieder auf das ursprüngliche Problem von Handlung und Koordination übertragen: Als Teil
80
COORD
Obs i
Eigenwerte erzeugen topologisch Geschlossenheit. “Und dies ist gleichbedeutend mit der Schlange, die sich in den Schwanz beißt.”
einer Umwelt, die ein Stück weit bestimmt, was in ihr machbar ist, wird ein Subjekt seine Handlungen immer wieder neu auf diese Umwelt einrichten, bis es irgendwann stabiles Verhalten erzeugen kann. Dieser Prozess wird einem Beobachter so erscheinen, als ob das Subjekt lerne “ein Objekt erfolgreich zu handhaben”, argumentiert von Foerster. Paradoxerweise ist dieses Objekt aber nur als Verhalten des Subjektes zu beobachten. Objekte entsprechen damit den sich in ihrer Behandlung selbstbestimmenden Eigenwerten der wiederholten sensomotorischen Koordination. Sie werden, so von Foerster, zu “greifbaren Symbolen für (Eigen-)Verhalten” und verlieren ihre Objektivität: “Ontologisch können Eigenwerte und Objekte nicht unterschieden werden; und so ist es auch unmöglich, vom ontogenetischen Standpunkt zwischen stabilem Verhalten eines Subjektes und der Manifestation des Begreifens eines Objekts durch dieses Subjekt zu unterscheiden. In beiden Fällen sind Objekte ausschließlich in die Erfahrung der eigenen sensomotorischen Koordinationen eines Subjektes eingeschlossen, d. h. Objekte sind durchweg subjektiv!”40 Wenn Flusser eine neue Abstraktion von den Undingen zu den Sachen fordert, meint er damit explizit, dass es nicht darum gehen kann zu irgendwelchen gegebenen, ursprünglichen Dingen zurückzukehren. Die Sachen, die Ziel der Abstraktion sein sollen, versteht er, wie erwähnt, als Teil einer Übereinkunft: “Gibt das Ding vor, objektiv da zu sein, so gibt die Sache zu, daß sie eine Stelle ist, wo menschliche Absichten zusammenstossen.”41 Flussers Sachen erhalten ihre Objektivität also erst durch einen kommunikativen Kontext, und nur die Übereinkunft mit anderen bestimmt, dass und
81
S1
Obs i
Obs j
S2
Ein atomarer sozialer Kontext in dem “eine Schlange in den Schwanz der anderen Schlange beißt, so als ob es ihr eigener wäre.”
wie diese Sachen existieren. Dementsprechend muss die Abstraktion vom Unding zur Sache die Undinge in einen sozialen Kontext einbetten: “Der Weg der neuen Abstraktion führt weg von der Information und hin zum anderen.” Ganz ähnlich geht auch von Foerster mit dem Problem um, dass in seinem Modell Objekte in die Erfahrung von Subjekten eingeschlossen sind: Verknüpft man zwei Subjekte so, dass ihre Handlungen Eingang in die Wahrnehmung des jeweils anderen finden, erhält man einen “atomaren sozialen Kontext”, in dem wiederum Eigenwerte entstehen können, “wenn das Eigenverhalten eines Beteiligten (rekursiv) das Eigenverhalten eines anderen generiert [...]; wenn Kognition ihre eigene Kognition durch die Kognition eines anderen errechnet”.42 Wenn zwei Subjekte durch ihre Aktivität also stabile sensomotorische Koordination im jeweils anderen erzeugen, können die in die Handlung eingeschlossenen Objekte intersubjektiv existieren und erhalten eine gewisse Objektivität. Die so objektivierten Objekte bei von Foerster entsprechen damit den Sachen im Sinne Flussers. Es sind Objekte in Übereinkunft mit dem anderen. Sieht man hinter dem Unheimlichen am Anti-Aircraft Predictor Wieners bösen Geist der Rückkopplung am Werk, erscheint die Kritik an der Schnittstelle, wie sie von Export, Daniels oder Cramer geäußert wurde, in einem neuen Licht. Für diese Kritik sind Schnittstellen vor allem eines: Systeme, die einen Rahmen für Handlungen errichten, für den Handelnden letztlich aber unkontrollierbar bleiben. Wie der AntiAircraft Predictor, der das eingangs beschriebene Spiel zumindest im Bereich einer
82
Sekunde gewinnt, scheinen sie generell das Spiel innerhalb dieses Handlungsrahmens zu gewinnen. Als böse Geister, gegen die man sich stemmen muss, sind sie ebenso unheimlich. Auch Flussers Misstrauen gegenüber den gespenstischen Undingen hängt vielleicht weniger stark mit dem Illusionscharakter des digitalen Scheins zusammen, als mit der Angst auf der Seite derer zu stehen, die von den Undingen kontrolliert werden: Flusser spricht hier von einer “Spaltung der Gesellschaft in wenige Programmierer [...] und viele Programmierte.”43 Schnittstellen sind dann weniger unheimlich, weil sie die gemachten und gespenstischen Informationen wirksam werden lassen, sondern vielmehr, weil sie uns in einer Feedback-Schleife zirkulärer Kausalität die Kontrolle zu nehmen scheinen - und uns zum Partner eines Spiels machen, dessen Regeln ein Programmierer bestimmt. Gleichzeitig ist zirkuläre Kausalität aber Voraussetzung für die neue Abstraktion zurück zur Sache, die Flusser verlangt. Wenn wir uns an Schnittstellen halten können, dann, weil sie uns etwas entgegensetzen. Der Feedback-Loop, den sie errichten und der durch ihre Benutzung aufrecht erhalten wird, entspricht der rekursiven Behandlung der Umwelt, die Objekte erst hervorbringt. An Schnittstellen treten die flüchtigen und immateriellen Informationen also nicht nur in Aktion, sie werden sozusagen auch in Aktion getreten. Dass die virtuellen Welten gemacht sind, bedeutet dann nicht so sehr, dass hinter ihnen ein Programmierer als Hersteller zu finden ist, vor allem bedeutet es, dass sie sich subjektiv in ihrer Behandlung, also im Machen, erst manifestieren. Gerade dass hier ein konditionierender Handlungsrahmen aufgespannt wird, ist dann Voraussetzung dafür, dass Undinge über das Eigenverhalten, das am Ort ihrer ständigen Re- und Dematerialisierung entsteht, zu Objekten und schließlich Sachen werden können. Tatsächlich sind für von Foerster die Eigenwerte eines rekursiven Kalküls nichts anderes als Abstraktionen: “Da gewöhnlich eine große Menge von Ausgangsbedingungen auf einen einzigen Gleichgewichtszustand [also: Eigenwert] abgebildet wird, läßt sich dieser Gleichgewichtszustand als eine dynamische Repräsentation einer Menge von Ereignissen auffassen, und in einem multistabilen System kann daher jeder Zyklus als eine Abstraktion dieser Ereignisse gesehen werden.”44 Flussers umgekehrte Abstraktion, die ja von den Undingen ausgeht und zurück zur Sache führt, lässt sich so im Handeln verankern: Sie beginnt mit der rückgekoppelten Behandlung von Undingen an der Schnittstelle. So wie Feedback es den Ingenieuren erlaubt, Abstand vom Material zu gewinnen, erlaubt hier die Rückkopplung zwischen Undingen und ihren Benutzern die neue Abstraktion: die Undinge aus dem Abstand in den Griff bekommen. Als Ivan Sutherland 1968 das erste Head-Mounted Display konstruiert und testet, bemerkt er, dass die Benutzer des Systems ganz von alleine die Positionen im Raum einnehmen, die für das richtige Sehen der simulierten 3D-Umgebung notwendig sind: “Users naturally moved to positions appropriate for the particular views they desired.”45 Das Gerät stellt eine simulierte Welt dreidimensional auf einer Datenbrille dar. Der Benutzer kann sich mit der Brille bewegen und so verschiedene Positionen
83
und Blickrichtungen einnehmen, wobei sich die Darstellung der virtuellen Umgebung an die Bewegung anpasst. Der Realismus dieser so rückgekoppelten Darstellungsform ist augenscheinlich nicht nur eine Frage der korrekten stereoskopischen Darstellung, sondern Folge des entstehenden Verhaltens - ein Verhalten, bei dem Seh- und Handlungsgewohnheiten operativ in die Bilderzeugung einfließen. Dies wird auch dann deutlich, wenn man in der Installation Sensobotanics einer Pflanze beim Spielen von Far Cry zusieht. Ist der First-Person Shooter Far Cry eigentlich berühmt für die fotorealistische Darstellung der Spielwelt - insbesondere ihrer Flora, so bricht dieser Realismus zusammen, sobald die elektrische Aktivität der Pflanze das Spielgeschehen kontrolliert. Ohne dass menschliche Seh- und Handlungsgewohnheiten wirksam werden, erzeugt die Rückkopplung von Spiel und Pflanze Eingaben in das Spiel, die repetitiv und wenig appropriate sind, und die dessen Ausgaben ins Unrealistische kippen lassen. Undinge werden demzufolge durch ihre Behandlung an Schnittstellen zu Objekten - und das auch dann, wenn es um so etwas Konkretes wie die realistische Darstellung virtuellen Raumes geht. Da Rückkopplung Voraussetzung für das Begreifen der Undinge ist, denen wir ansonsten haltlos gegenüber stünden, wundert es nicht, dass das oben genannte erste interaktive Rechnersystem von den ebenfalls oben genannten Experten für Feedback konstruiert wurde: Der Prototyp des SAGE enstammt dem Servomechanics Lab des MIT, dessen Arbeit in der des Electrical Engineering Department begründet liegt. Wir informieren Maschinen also nicht nur, damit sie, wie Flusser es beschreibt, als produzierende Maschinen eine Flut von Dingen ausspeien - eine Flut, die die Dinge schließlich zugunsten der Undinge entwertet -, wir informieren Maschinen auch, damit sie uns als eigenaktive Dinge etwas entgegensetzen. Deshalb erst können wir uns an die Undinge halten. Schnittstellen bringen folglich nicht nur Handlungen hervor, die sie letztlich kontrollieren. Im Sinne zirkulärer Kausalität sind diese Handlungen auch Ursache der Schnittstellen. Die Handlungen, die wir mit Undingen ausführen, werden durch die Informatik traditionell mit dem Fachausdruck “Interaktion” bezeichnet. Im Verständnis der Informatik ermöglichen Schnittstellen Interaktion. Im Verständnis einer Kritik der Schnittstelle als konditionierender Handlungsrahmen erzeugen sie diese. Vor dem Hintergrund einer Kybernetik der Schnittstelle gilt davon auch die Umkehrung: Interaktion erzeugt Schnittstellen. Von den Undingen zurück zur Sache kommt man also ganz ähnlich, wie die Ingenieure der Bell Laboratories und des MIT ihr Material in den Griff bekommen konnten: Man muss sich auf sie einlassen und mit beiden Materialdimensionen symbolischer Maschinen in den Dialog treten: damit herumspielen, sie reflektieren und das kommunizieren.
84
1 Peter Galison, Die Ontologie des Feindes: Norbert Wiener und die Vision der Kybernetik, in: Räume des Wissens: Repräsentation, Codierung, Spur, Hans-Jörg Rheinberger, Michael Hagner, Bettina Wahrig-Schmidt (Hrsg.), Akademie Verlag, Berlin 1997, S. 291 2 Norbert Wiener, Cybernetics: or Control and Communication in the Animal and the Machine, 2nd edition, MIT Press, Cambridge 1961, S. 5 3 Zu den mathematischen Details des Systems vergl. Stuart Bennett, A History of Control Engineering 1930-1955, Peter Peregrinus Ltd, Hitchin 1993, S. 170-181 4 Vergleiche der Ansätze von Wiener und einem Team der Bell Laboratories finden sich in Axel Roch und Bernhard Siegert, Maschinen, die Maschinen verfolgen: Über Claude E. Shannons und Norbert Wieners Flugabwehrsysteme, in: Konfigurationen: Zwischen Kunst und Medien, Sigrid Schade, G C. Tholen (Hrsg.), Fink, München 1999, S. 219-230 5 Wiener a.a.O., S. 11 6 Zu Blacks Arbeit in den Bell Laboratories vergl. Bennett a.a.O., S. 70-96 7 Zur Arbeit am Electrical Engineering Department vergl. Bennett a.a.O., S. 97-114 8 Claus Pias zitiert hier Larry Owen: “Und seine Berechnungen bestehen, wie Owen so treffend schreibt, genauer gesagt darin (to) kinetically act out the mathematical equation”, Claus Pias, Computer Spiel Welten, Dissertation, Bauhaus-Universität, Weimar 2000, S. 45 9 Benett a.a.O., S. 101 10 Benett a.a.O., S. 103 11 Galison a.a.O., S. 288 12 Vergl. hierzu Bennett a.a.O., S. 100 13 Bennett a.a.O., S. 108 14 Galison a.a.O. S. 289, Hervorhebung im Original 15 Zum Hunting vergl. Wiener a.a.O., S. 7-8 16 Zitiert nach Galison a.a.O., S. 297 17 Bennett a.a.O., S. 179 18 Galison a.a.O., S. 296 19 Zum digitalen Schein vergl. Vilém Flusser, Medienkultur, Fischer, Frankfurt am Main 2002, S. 202-215 20 Zu Dingen, Undingen und Sachen vergl. Flusser a.a.O., S. 185-189 21 André Leroi-Gourhan, Hand und Wort: Die Evolution von Technik, Sprache und Kunst, Suhrkamp, Frankfurt am Main 2000 22 Vergl. hierzu Leroi-Gourhan a.a.O., S. 167-168 23 Vergleiche zum Beispiel: Allen Newell, Information Processing: A new Technique for the Behavioral Sciences, Dissertation, Carnegie Institute of Technology, Pittsburgh 1956 24 Zitiert nach Stuart Card und Thomas Moran, User Technology: From Pointing to Pondering, in: Proceedings of the ACM Conference on the History of Personal Workstations, 1986, S. 183 25 Zu Pong und Ping Pong vergl. Andreas Lange: Pong Mythos, Förderverein für Jugend und Sozialarbeit e.V., Berlin 2006 26 Zitiert nach Lange a.a.O., S. 24, konsequente Kleinschreibung im Original 27 Vergl. hierzu Dieter Daniels, Strategien der Interaktivität, in: Medien Kunst Interaktion. Die 80er und 90er Jahre in Deutschland, Rudolf Frieling und Dieter Daniels (Hrsg.), Springer, Wien, New York 2000, S. 142-170 28 Vergl. Max-PlanckInstitut für für biologische Kybernetik http://www.kyb.tuebingen.mpg.de/projects.html?prj=101 29 Christian Hölscher et al., Rats are able to navigate in virtual environments, Journal of Experimental Biology, Vol. 208, 2005, S. 561-569 30 Zitat Cramer in einem Auszug seiner Dissertation auf der Mailingliste Rohrpost. Siehe RohrpostArchiv unter: http://osdir.com/ml/culture.internet.rohrpost/2006-07/msg00039.html 31 Vergl. hierzu Georg Trogemann und Jochen Viehoff, Code@Art: Eine elementare Einführung in die Programmierung als künstlerische Praktik, Springer, Wien 2005, S. 484-485 32 Die Informatik spricht hier von Tangible oder Graspable User Interfaces 33 Für Details vergl. Robert Everett, Whirlwind, in: A History of Computing in the Twentieth Century, J. Howlett, Gian Carlo Rota und Nicholas Metropolis (Hrsg.), Orlando, Academic Press, 1980 34 Zitiert nach Galison a.a.O., S. 300 35 Heinz von Foerster, Wissen und Gewissen, Versuch einer Brücke, Suhrkamp, Frankfurt am Main 1993, S. 275-276 36 von Foerster a.a.O., S. 28 37 Vergl. hierzu J. Kevin O’Regan, Alva Noe, A Sensorimotor Account of Vision and Visual Consciousness, Behavioral and Brain Sciences, Vol. 24, 2001, S. 939-1031 38 Vergl. hierzu und zum Folgenden vor allem von Foerster a.a.O., S. 103-115 39 Weitere Beispiele siehe von Foerster a.a.O., S. 111-114 und 276-281 40 von Foerster a.a.O., S. 109-110 41 Flusser a.a.O., S 189 42 von Foerster a.a.O., S. 110 43 Flusser a.a.O., S. 207 44 von Foerster a.a.O., S. 167 45 Ivan E. Sutherland, A Head-Mounted Three-Dimensional Display, ACM, New York 1968
85
Abbildungen S. 64 Versuchsaufbau Rats are able to navigate in virtual environments, Lehrstuhl für kognitive Neurowissenschaften, Universität Tübingen, 2002 S. 66 Flugabwehrtechnologie zur Zeit Wieners, aus Stuart Bennett, A History of Control Engineering 1930-1955, Peter Peregrinus Ltd, Hitchin 1993, S. 118 S. 69 Product Integraph, adaptiert von Stuart Bennett a.a.O., S. 100 S. 75 Valie Export, Ping Pong, Ein Film zum Spielen - Ein Spielfilm, 1968, Foto (s/w), © VALIE EXPORT, Courtesy Charim Galerie, Wien S. 77 Versuchsaufbau Rats are able to navigate in virtual environments S. 80 Wahrnehmbare Handlung (obs) und sensomotorische Koordination (COORD), adaptiert von Heinz von Foerster, Wissen und Gewissen, Versuch einer Brücke, Suhrkamp, Frankfurt am Main 1993, S. 106 S. 81 Diagramm adaptiert von Heinz von Foerster a.a.O., S. 108 S. 82 Diagramm adaptiert von Heinz von Foerster a.a.O., S. 110-111 Dank an Dr. Hansjuergen Dahmen, Lehrstuhl für Kognitive Neurowissenschaften, Universität Tübingen, für die Bereitstellung der Fotografien des Versuchsaufbaus Rats are able to navigate in virtual environments und an Generali Foundation Wien und Valie Export.
86
88
Thomas Hawranke
Sensobotanics
Das virtuelle Licht einer Dschungellandschaft, berechnet durch die Spiele-Engine eines Ego-Shooters, steuert das tatsächliche Licht eines Raumes, und beeinflusst hierdurch das in diesem Raum befindliche spielende Element, eine Pflanze. Die Stimulation der Pflanze in Form einer Folge botanischer Reaktionen (aktiver Photosynthese) wird gemessen und als Daten an die Steuerung des Ego-Shooters zurücküberführt, so dass sich eine Feedbackschleife ergibt. Als Sensor für die pflanzliche Reaktion dient eine Art Pflanzen-EKG, welches geringste Spannungsveränderungen innerhalb des Organismus wahrnimmt. Um Veränderungen innerhalb der pflanzlichen Reaktionen und Zeit für den Betrachter wahrnehmbar zu machen, werden Spiele-Echtzeit und pflanzliche Echtzeit durch Zeitdehnung und -stauchung angeglichen. Ein Tag-Nacht-Zyklus dauert nur eine Minute.
89
Die Installation stellt somit eine Verbindung zwischen der real erlebten Zeit der Botanik mit dem auf Reaktionsschnelligkeit ausgelegten Zeitkonzept des Computerspieles her. Die Zeit- und Wahrnehmungsräume der beiden Akteure verschmelzen ineinander und ermöglichen eine Re-Lokalisierung. Für die Betrachter entwickelt sich so nicht nur eine neue Wahrnehmungsebene, sondern auch eine Verknüpfung von Ort und Zeit. Der Ego-Shooter befindet sich in einer Art Austausch von Licht und Zeit, die organische Reaktion der Pflanze ist hier der einzige Faktor der Informationsübertragung und gleichzeitig Steuerung des Spieles. Zeit dient als wichtigste Komponente der Arbeit Sensobotanics. Ihre Wahrnehmung ist abhängig von dem Gebiet, auf welches sie projiziert wird. In bestimmten Bereichen wird Echtzeit mit Schnelligkeit oder Beschleunigung gleichgesetzt. Bei Computerspielen bezeichnet man hiermit beispielsweise hochaufgelöste Grafiken bei einer konstant flüssigen Bildrate. Simulationen in Echtzeit liegen aufwendige mathematische
90
Thomas Hawranke, Sensobotanics, 2008, Versuchsaufbau
Berechnungen zu Grunde, die sich an unserer Zeitachse orientieren. Unser Verständnis von Echtzeit wird auf den Prozess des Apparates übertragen. Im Vergleich hierzu erscheint die Echtzeit von Pflanzen als äußerst langsam. Versucht man nun die botanische und die Computerspiel-Echtzeit anzugleichen, muss die Zeit komprimiert bzw. beschleunigt werden. Nur mit Hilfe dieser Angleichungen können beide Zeitebenen miteinander kommunizieren. Die Wahrnehmung der Pflanze wird durch eine Art Biosensorik ermöglicht. Bei der Photosynthese wandern elektrische Potentiale von den Wurzeln durch die Stängel bis in die Blätterspitzen und zurück. Dieses Wandern der Potentiale kann durch Sensoren erfasst werden. Die Stimulation der Pflanze wird hier durch Licht erzeugt. Innerhalb des Egoshooters ist der Tag/Nacht-Zyklus extrem beschleunigt. Das virtuelle Licht des Spiels wird ebenfalls gemessen und auf das reale Raumlicht übertragen. Hierdurch ist die Angleichung der beiden Zeitachsen gewährleistet. Die Pflanze reagiert somit auf das virtuelle/reale Licht, ihre Reaktionen werden wiederum auf die Steuerung des
91
Thomas Hawranke, Sensobotanics, 2008, Installationsansicht
Spiels übertragen. Es entsteht ein Feedback-Loop, der beide Ebenen miteinander verbindet. Für die Arbeit ist die Wahl der Pflanze äußerst wichtig. Jede Spezies zeigt ein spezifisches Verhalten, das an die Umstände der Lebensumgebung angepasst ist. Die in dieser Arbeit verwendete Pflanze ist eine Marantha, die eine hohe Empfindlichkeit für Licht aufweist. In den Dämmerungsstunden zieht sie ihre Blätter an den Stiel heran und öffnet diese Abwehrhaltung erst wieder, wenn die Sonne aufgeht. Diese Reaktion auf Licht spiegelt die tatsächliche Helligkeit wieder. Sind in den Wintermonaten die Nächte länger, so gleicht die Marantha ihren Zyklus an die tatsächlichen Begebenheiten an. Das Anlegen der Blätter an den Stiel geschieht sehr schnell und bereits wenige Minuten in absoluter Dunkelheit reichen, um den Prozess der Abwehr vollständig abzuschließen.
92
Sensobotanics, 2008 reaktive botanische Simulation Marantha, Sensoren, Lampe, Computer
93
Ludwig Zeller, zweite Version des CubeBrowser, 2007/2008
94
Ludwig Zeller
CubeBrowser
CubeBrowser ist die Designstudie für einen sechsseitigen Bildschirmwürfel, mit dessen Hilfe online durch öffentliche Fotodatenbanken wie flickr.com navigiert werden kann. Die Kontrolle wird dabei ausschließlich durch das manuelle Agieren mit dem Würfel realisiert, der es ermöglicht auf spielerische Weise anhand von Schlagwörtern (Tags) vernetzte Bildersammlungen zu erforschen.
95
Bevor die digitale Fotografie aufkam, waren Aufnahmen immer an materielle Objekte, z. B. Fotopapier, gebunden. Man war beim Erforschen seiner Fotosammlungen nicht wie heute auf einen Monitor angewiesen, sondern konnte seine Fotos anfassen, auf dem Boden verteilen und kinderleicht weitergeben. Diese intuitive Handhabung mit den Vorzügen einer digitalen Verarbeitung zu verbinden, ist Ziel des Projektes. CubeBrowser läuft unabhängig von Schreibtisch und Computer, von denen Netzmedien heutzutage für gewöhnlich aufgerufen werden. Er ist weiterhin auch nicht an einen Bildschirm gebunden, der durch Maus, Tastatur oder Fernbedienung gesteuert wird, was aufgrund von überfrachteter Funktionalität schwierig zu erlernen wäre. Den CubeBrowser zu steuern ist genauso einfach, wie einen Würfel im Raum zu drehen, und das ermöglicht eine angenehmere Art der Interaktion sowie eine höhere Zugänglichkeit für Nutzer jeden Alters. Der zweiseitige Würfel CubeBrowser ist ein vor allem durch zwei Facetten gekennzeichnetes Projekt: Zum einen handelt es sich um angewandtes Interaktionsdesign, welches ein alternatives Ein- und Ausgabegerät als Datenbank-Schnittstelle vorschlägt. Es gibt heute eine überwältigende und stetig wachsende Menge an Daten im Netz. Insbesondere Mediendatenbanken wie Flickr, welche mit dem CubeBrowser erforscht werden können, wachsen so schnell, dass es schwierig ist die Datenflut noch zu bewältigen. Dieses Projekt ermöglicht einen neuartigen und intuitiven Zugang zu diesem Bilderschatz. Darüber hinaus ist CubeBrowser jedoch auch als eine Art künstlerischer Kommentar auf den zeitgenössischen Rückzug in die immersiv-virtuellen Erlebniswelten der Unterhaltungselektronik zu verstehen. Das Bereisen und Erforschen weit entfernter Welten mit dem Fokus der Entdeckung und Befriedigung der individuellen Bedürfnisse des Reisenden, ähnelt in wesentlichen Charakteristika den Topoi der Romantik. CubeBrowser als Interface Diese Interfacestudie bedient sich zweierlei Typen sogenannter verteilter Kognition, welche kognitive Prozesse beschreiben, die mutmaßlich nicht nur innerhalb eines einzelnen Gehirns stattfinden, sondern sich z. B. als verkörperte Kognition auf den ganzen Körper und externe Artefakte bzw. als sozial-verteilte Kognition auf andere Individuen erstrecken. Diese beiden Kognitionsarten werden durch den CubeBrowser verbunden. Der CubeBrowser ist ein Frontend für die von Yahoo! betriebene Online-Bilderbörse Flickr. Diese Datenbank versammelt Mediendaten und hat somit ein grundsätzliches Problem: Bilder sind in der Praxis nach wie vor nicht automatisch indizierbar und können somit nicht nach deren Inhalt durchsucht werden. Abhilfe schafft hier die Annotation durch sogenannte Metadaten, welche zusätzliche Infos zu den einzelnen Datensätzen in strukturierter Form z. B. als Text hinterlegen. Im Fall von Flickr sind dies insbesondere die Tags, Schlagwörter, die von einer Vielzahl von Benutzern eingegeben werden. Tagging erzeugt so eine semantische Konnotation durch eine sozialverteilte, kognitive Leistung aus persönlichem Antrieb.
96
Tags werden zum Material
Doch obwohl diese Metadaten überwiegend aus intrinsischer Motivation heraus erstellt werden, ergibt sich durch deren Veröffentlichung ein kollektiver Vorteil. Alle eingegebenen Schlagwörter zusammen ergeben eine wesentlich dichtere und meist vollständigere Beschreibung als dies eine einzelne Person leisten könnte. Wie James Surowiecki mit seiner “Wisdom of Crowds”1 bereits darlegte, kann man aus einer Vielzahl unterschiedlicher Sichtweisen und unter bestimmten Bedingungen einen zentralen, gemeinsamen Nenner ermitteln, der mit hoher Wahrscheinlichkeit eine treffende Aussage besitzt. Durch diese Metadaten werden die Mediendaten strukturiert und Anwendungen wie die Suche nach Bildinhalt und Assoziation werden ermöglicht. CubeBrowser nutzt diese Metadaten zur Navigation durch die Flickr-Bilddatenbank. Ausgehend von einem Start-Tag werden entsprechende Bilder gesucht und auf der horizontalen Achse des Würfels angeordnet. Da in der Regel wesentlich mehr als nur ein Tag vergeben ist, bietet sich von da an für jedes Bild die Möglichkeit zu anderen, ebenfalls bildbeschreibenden Tags und somit zu anderen Bilderergebnissen durch eine Drehung nach oben zu wechseln. Hierbei greift der CubeBrowser auf die von
97
Flickr gewichteten Clustering-Funktionen zurück und gewährleistet dadurch eine recht hohe semantische Integrität zwischen Bildern und assoziierten Tags. Diese sozial-verteilte Kognition erzeugt einen Mehrwert, der ansonsten blinde Daten umstrukturiert und somit nutzbar macht. Dieser kollaborative Prozess wird durch das Zusammenspiel aus den technischen Artefakten des Internets, also Modem, Kabel, Computer, und den weltweiten Nutzern ermöglicht. Dies erlaubt eine ständige Überarbeitung der Inhalte, seien es nun Medien- oder deren Metadaten. “Während Archive in der Vergangenheit institutionell wie legal Datenbanken gegenüber dem öffentlichen Zugriff einer Gegenwart versiegelt haben, off-line, so kommt eine Datenbank on-line nicht zum Abschluß, sondern ist einer ständigen Evaluation unterworfen.”2 So wird aus dem traditionell toten Archivkonzept eine lebendige Datenbank. Nutzer werden zu Autoren auf verschiedenen Ebenen: durch das Bereitstellen von Inhalten, durch Verschlagwortung oder einfach als Besucher. All diese Handlungen stellen prinzipiell wertvolle, kognitive Leistungen dar, die die Datenbank aktiv formen können. “Man wird begreifen müssen, daß es sich bei den Nutzerbewegungen um eine Schrift handelt, auch wenn diese Schrift gegenwärtig flüchtig ist und sofort wieder verschwindet; und es wird sich herausstellen, daß die Nutzerbewegungen Investitionen in das Netz darstellen, gleichrangig mit den Informationsangeboten selbst.”3
98
Diese Investitionen gleichen einer Bauanleitung für eine kognitive Architektur. Durch die Konstruktion dieser Architektur, d. h. durch die Verwendung der vom Nutzer erzeugten Metadaten, wird das Datenmaterial zu ausführbarem Code. Ein durchschreitbares Daten-Netzwerk wird erzeugt. Durch die verschiedenen Eingabehandlungen wie Drehen und Schütteln wählt der Nutzer seinen Pfad durch die assoziativen Pfade der Datenbank. Diese Interaktion kann auch als globales Element gesehen werden. Auf der anderen Seite kann der CubeBrowser als eine Schnittstelle zwischen einem Menschen und einer Datenbank bezeichnet werden, als Verbindung zwischen verkörperter und sozial-verteilter Kognition: ein kognitiver Adapter. Die Inhalte der Datenbank werden unter Verwendung der kollaborativ erstellten Metadaten in semantisch konsistenten Anordnungen auf dem Würfel präsentiert. Der Nutzer nimmt diese Datenbankausgabe auf dem Würfel visuell auf und entscheidet anschließend durch Aktionen wie Drehen oder Schütteln, in welche Richtung er sich assoziativ bewegen möchte. Der CubeBrowser nimmt diese Entscheidung durch Sensoren auf und lädt entsprechend weitere Teile der Datenbank nach, welche wiederum dem Nutzer präsentiert werden. Der Interaktionskreis ist somit geschlossen. Da die Ausgabe der Datenbank am gleichen Ort und als dasselbe Objekt dargestellt ist, an der die Steuerung eingegeben wird, erhält der Nutzer den Eindruck, dass er auch tatsächlich einen Ausschnitt der Datenbank in den Händen hält und er diesen Bereich verschieben kann. Zusätzlich untermauert wird dies z. B. durch die Tatsache, dass eine Drehnavigation in umgekehrter Reihenfolge immer zum entsprechenden Ausgangspunkt zurückführt. Innerhalb der Forschung zur Mensch-Maschine Interaktion wird dies als verkörperte Interaktion bezeichnet: Datenmodelle bekommen eine physische Repräsention, welche im Idealfall möglichst dem eigentlichen Wesen der Inhalte entspricht. Dies ermöglicht u. a. sogenannte epistemische Handlungen, also Interaktionen, welche nicht direkt der Erfüllung eines Ziels geschuldet sind, sondern zum Zwecke der spielerischen Erforschung eines Objekts oder Systems ausgeführt werden. Ein gutes Beispiel hierfür wäre ein kleines Kind, das einen beklebten Fotowürfel durch Hin- und Herdrehen erforscht. Übertragen auf den CubeBrowser ist dies das Drehen des Bildschirmwürfels zum Entdecken der riesigen Flickr-Fotosammlung: eine treffende Analogie wird genutzt, um Interaktion spielerisch und intuitiv zu gestalten. Zur verkörperten Interaktion gibt es zahlreiche weitere Forschungsbeiträge aus Kognitionswissenschaft, Psychologie und Philosophie. Zur abschließenden Betrachtung des CubeBrowser als Interfacestudie, soll hier noch kurz das Konzept des Tacit Knowing (“Stummes Wissen”) von Michael Polanyi vorgestellt werden. Der polnische Psychologe erläutert diese Idee am Beispiel eines Blinden im Umgang mit seinem Stock, welchen er als Geh- bzw. Sehhilfe einsetzt. Der Blinde ist darauf angewiesen den Boden vor ihm mit dem Stock zu ertasten, um mögliche Hindernisse im Gehen rechtzeitig zu erkennen. Dabei verortet er den mechanischen Druck der entdeckten Objekte nicht etwa auf seinen Fingern, sondern fühlt das Hindernis in einiger Entfernung. Der Körper wird durch den Einsatz des Werkzeugs kognitiv erweitert.4
99
Im übertragenen Sinn ist dieses Konzept auch für den CubeBrowser gültig. Durch den intuitiven Umgang mit dem Würfel, der zum spontanen, epistemischen Erforschen einlädt, wird die zuvor durch kollektive Anstrengung strukturierte Datenbank durchschritten. Dabei wird der Bildschirmwürfel zum Blindenstock für die Ertastung eines ursprünglich nicht verorteten Datenraums: sozial-verteilte Kognition trifft verkörperte Interaktion. CubeBrowser im Kunstbezug Der CubeBrowser als Artefakt, in einigen Grundgedanken der Romantik entsprechend und somit möglicherweise ein interaktives Werk der sogenannten neuen Romantik, kann als romantisches Interface bezeichnet werden. Die Künstler der Romantik vereint zum einen die Suche nach dem Paradiesischen, Schönen und Märchenhaften, welche das Alltägliche hinter sich lassen möchten.5 Darüberhinaus teilen sie sich “die Sehnsucht nach Intimität und Geborgenheit vor der Unendlichkeit und Unbehaustheit des auf sich gestellten Subjekts”.6 Werke wie Der Wanderer über dem Nebelmeer von Caspar David Friedrich benutzen die typischen Motive der Nautik und des Reisens und thematisieren somit die Komplexität der Weltwahrnehmung. Das menschliche Individuum erfährt sich in der Konfrontation gegen die Größe der Natur durch einen Prozess des inneren Wachsens selbst. Diese Themengebiete gewinnen als neue Romantik jüngst wieder stärkere Bedeutung in der zeitgenössischen Kunst. Dies könnte als eine Bewegung gegen den Sozial- und Politdiskurs der Postmoderne gewertet werden, “... eine Provokation, die in der bewussten Überschreitung des politisch wie auch ästhetisch Korrekten der vergangenen Jahre liegt”.7 Auch die Rahmenbedingungen für eine Wiederaufnahme des romantischen Diskurses sind günstig: der Aufbruch in das noch unbekannte neue Jahrhundert erzeugt eine ähnliche Unsicherheit wie damals der Beginn der industriellen Revolution.8 Diese Romantisierung ist nicht auf die bildende Kunst allein beschränkt, sondern bezieht sich in einem erweiterten Verständnis des Begriffs auch auf das sogenannte Cocooning, also das heimische Einigeln mit gemütlichen Lifestyle-Interieurs und modernster Unterhaltungselektronik. Der Erfolg fotorealistischer Videospiele und virtueller Umgebungen wie Second Life macht dabei eines klar: Das Ideal der wundervollen, reichhaltigen und prächtigen Naturerfahrung wird durch elektronische Medienillusionen ersetzt. “Für viele ist dies eine befriedigende Flucht - manchmal eine marginale, wie sie uns derzeit viele Lifestyle-Magazine anbieten, welche die neue Romantik in Mode und Interieur als Lebensstil ausrufen, manchmal eine durchaus lebensverändernde, wenn sich etwa eine ganze Generation von Computerspielern in Paralleluniversen von There und Second Life von der Wirklichkeit abschirmt, um in der Fantasiewelt ein besseres Dasein zu finden.”9 Das Alltägliche wird in der neuen Romantik nicht mehr notwendigerweise als einsamer Wanderer in der Natur hinter sich gelassen, sondern im Schutz der eigenen vier Wände. Der CubeBrowser versteht sich ebenfalls als ein Entdeckungsinstrument oder Wanderschaftswerkzeug und bedient somit in gewisser Weise das Wandermotiv der Romantik. Die Bereisung einer Datenbank und somit die Entdeckung eines
100
Cyber-Space ersetzt die Wanderung durch die physische Welt. Die natürliche Reichhaltigkeit wird gegen das Meer der Erlebnisse in der weiten Welt der globalen Daten eingetauscht. Es ist jedoch hervorzuheben, dass dieses künstlerische Format nicht als Bildmedium oder gar Malerei funktioniert, sondern als ein Schnittstelleninstrument innerhalb eines Prozesses: eine dynamische Symbiose aus Nutzer, Artefakt und Datenbank. Es liegt in der Hand des Nutzers, inwieweit und ob er sich Naturassoziationen nähern möchte, somit bestimmt seine Individualität die bildliche Ausgabe. Die Idee des romantischen Interface bezieht sich demzufolge auch nicht auf die von Flickr zahlreich angebotenen Naturmotive, sondern vergleicht auf einer abstrakten Ebene diese individuelle Entdeckungsreise des Datenraums mit dem romantischen Ideal einer Selbstentdeckung und -findung. Der CubeBrowser nimmt Momente subtiler Inspiration durch seine unkomplizierte, taktile Handhabung auf bzw. ermuntert sogar dazu, sich in einem persönlichen Gedankenstrom treiben zu lassen. Diese verkörperte Interaktion adressiert das innere Ich des Nutzers als Schnittstelle für unterbewusste Assoziation. In flüchtigen Momenten der körperlichen Kontrolle formt der Nutzer seine Trajektorie durch die Datenbank: durch Entscheidungen, die aus ihm heraus fließen. Wie ein Blindenstock soll der CubeBrowser in der Wahrnehmung als materielles Interface verschwinden, ist dabei auf die epistemische Handlung reduziert und dient der Entdeckung der Daten als ein Gefährt. Der Bruchteil entdeckt somit das Ganze, das Individuum stöbert im kollektiven, globalen Assoziationsvorrat. Diese Reise durch das Unbekannte gleicht der Reise durch die Fülle der Natur, gleicht einer personalisierten Entdeckung des eigenen Individuums im Kontext eines globalen Bewusstseins. Innerhalb der Romantik war die Entdeckung des Selbst stets als ein Prozess verstanden, der keinen Abschluß und somit kein Ziel kennt: ein Ideal des lebenslangen Irren und Suchen. Der CubeBrowser ist ebenfalls nicht zum zielgerichteten Suchen gedacht, sondern bietet eine Reise ohne Ankunft. “... sich in einem Labyrinth verirren zu lernen ist die Option einer künftigen Kulturtechnik, jenseits der Archive und als Form einer Reise, deren Ziel man erst kennenlernen muß - destinerrance im Sinne Derridas.”10 Das Sich-Verlieren bietet die Chance für eine Überraschung, eine Herausforderung, an der man sich selbst erkennen und somit wachsen kann. Die heutige Datenwelt könnte eine Struktur entwickeln, die die Bedingungen hierfür erfüllt. Der Vergleich mit den Themen der Romantik dient letztlich als eine weitere Analogie, um das Konzept einer Datenreise verständlicher und damit greifbarer zu machen. Durch die Fortentwicklung der Medienillusionen kann dies ein grundlegender Schlüssel für die Schnittstelle zwischen Mensch und Maschine sein.
101
Ludwig Zeller CubeBrowser, 2007/2008 Anfassbare Schnittstelle Entstanden aus einer Gruppenarbeit mit Charlotte Krauß und Andreas Muxel
102
1 James Surowiecki, The Wisdom of Crowds: Why the many are smarter than the few and how collective wisdom shapes business, economies, societies, and nations, Doubleday, New York 2004 2 Wolfgang Ernst, Das Rumoren der Archive: Ordnung aus Unordnung, Merve, Berlin 2002. S. 132 3 Hartmut Winkler, Songlines, Landschaft und Architektur als Modell für den Datenraum, 1994 in: HyperKult. Geschichte, Theorie und Kontext digitaler Medien, M. Warnke, W. Coy, G. Ch. Tholen (Hrsg.), Stroemfeld, Frankfurt 1997, S. 227-239 4 Michael Polanyi The Tacit Dimension, Doubleday, New York 1966, S. 16 5 Max Hollein, in: Wunschwelten. Neue Romantik in der Kunst der Gegenwart, Max Hollein, Martina Weinhart (Hrsg.), Hatje Cantz, Ostfildern 2005, S. 12 6 Martina Weinhart, in: Wunschwelten. Neue Romantik in der Kunst der Gegenwart, Max Hollein, Martina Weinhart (Hrsg.), Hatje Cantz, Ostfildern 2005, S. 25 7 Max Hollein, a.a.O., S. 13 8 Max Hollein. a.a.O., S. 13 9 Max Hollein, a.a.O., S. 12 10 Wolfgang Ernst. a.a.O., S. 132
103
104
Martin Hesselmeier, Karin Lingnau
SARoskop
SARoskop ist eine kinetische Raumskulptur, die elektromagnetische Wellen visualisiert. In einer jeweils raumspezifischen Installation registriert die Arbeit elektromagnetische Felder in ihrer unmittelbaren Umgebung und setzt diese in Bewegung und wechselseitige Schwingungen um. Die gemessenen elektromagnetischen Daten sind für das menschliche Sinnesspektrum so nicht wahrnehmbar. Als reaktive Skulptur setzt SARoskop diese Daten sensibel in eine der Intensität der Wellen entsprechende Bewegung um und macht so den erfaßten Frequenzbereich auch für den Menschen sicht- und hörbar. Der Titel der Arbeit bezieht sich auf den SAR-Wert (SAR = Spezifische Absorptionsrate), der die Größe und Ausmaße der Absorption elektromagnetischer Wellen in biologischer Masse angibt. Die Intensitäten der gemessenen Werte werden als Parameter für den Antrieb der Mechanik genutzt. Die Arbeit formt eine aus modularen Einzelkomponenten bestehende Matrix, die raumgreifend über dünne, stromleitende Stahlseile von der Decke gehangen wird. Zwischen drei und zwölf Einzelmodule bilden ein Netz, das innerhalb eines ausgewählten Frequenzspektrums die Intensität elektromagnetischer Wellen mißt. Die gewonnenen Daten definieren die motorgetriebenen Bewegungen der jeweiligen Einzelmodule, die sich in der Netzkonstruktion potenzieren und rückkoppeln. Im Zusammenspiel der Netzbewegung, Geräuschentwicklung und Informationsdisplays im Kern der Module entsteht ein Gesamtbild organischer Autonomie und ästhetischer Eigenständigkeit. Zusätzlich zu permanent vorhandenen elektromagnetischen Feldern
105
Martin Hesselmeier, Karin Lingnau, SARoskop, 2007/2008, Details
kann der Betrachter mittels Mobiltelefon mit der Skulptur interagieren, beispielsweise durch ein Telefonat die Messung und Bewegungsumsetzung sichtbar beeinflussen. In der Faszination der Rückkopplung reflektiert sich so der im Alltag ansonsten selbstverständliche Umgang mit elektronischen Gegenständen wie Mobilfunkgeräten. Die Sichtbarmachung von Funktion und Datentransfer ist hierbei nicht wertend, sie steigert die Intensität der Erfahrung der Arbeit, die so nicht nur in ästhetisierender Form Wellenspektren, sondern einen lebendigen Kommunikationsprozeß illustriert. Technische Details Der Aufbau der Skulptur basiert auf Einzelobjekten, die autark funktionieren und reagieren, jeweils an ihren Positionen im Raum messend. Ein Objekt besteht aus Platine inkl. Chip bzw. Sensor für die Messung der Frequenzbandbreite, Antennen, Mechanik (wie Servomotor, Zahnräder, Zahnstange), LCD-Display zur Anzeige der jeweiligen Intensitätsstärke, sowie der Halterung in Form einer PVC-Röhre, Führung und Carbonstange, an deren Ende sich jeweils die Aufhängung für die Stahlseilmatrix befindet. Die Software für den Microcontroller auf der Platine wurde als sogenannte state machine programmiert. Es gibt verschiedene Fälle (states), die die gemessene
106
Intensität der Frequenzen in eine Mechanik umsetzen können. Die Messung wird in verschiedene Zeitfenster zerlegt, die größer sind als die Intervalle der verschiedenen Quellen, wie z. B. WLan, Bluetooth oder GSM 800 und GSM 1800. Somit ist es möglich, keine Peaks zu verpassen und eine direkte Umsetzung der Werte zu erzeugen. Der Sensor mißt in einer Frequenzbandbreite von 100 MHz bis 3 GHz. Dieses Frequenzband wird durch die drei auf der Platine angebrachten Antennen (Längen 3 bis 9 cm) auf einen Wert von ca. 900 MHz bis ca. 2400 MHz festgelegt. In diesem Bereich finden sich Quellen wie UMTS, Radar, WLan, Mobiltelefon-Netze, Bluetooth, ISM und weitere. Der Chip liefert die Werte an den Microprozessor, von dort werden sie, wie beschrieben, an die Mechanik weitergegeben. Das Frequenzband, das durch die Objekte gemessen und in Bewegung widergespiegelt wird, umgibt den Menschen tagtäglich und in unsichtbarer Form. Mensch und Umwelt Der Mensch orientiert sich anhand eines sehr spezifischen Frequenzspektrums, das im hörbaren Bereich bei 15 Hz bis 20.000 Hz liegt, im sichtbaren Bereich zwischen 40 nm (ultraviolett) bis 70 nm (infrarot). Die Übertragung der nicht sichtbaren Werte
107
Martin Hesselmeier, Karin Lingnau, SARoskop, 2007/2008, Detail
für den Menschen in einen wahrnehmbaren Bereich gibt einen Hinweis auf die Menge der Informationen und Daten, die sich im persönlichen direkten Umfeld befinden. Da die elektromagnetische Umwelt der Menschen sich in den letzten Jahrzehnten stark verändert hat, ist die Sichtbarmachung dieser veränderten Parameter ein Schritt zur Auseinandersetzung mit Technik und deren Wahrnehmung im alltäglichen Leben. Zu den natürlichen elektromagnetischen Feldern, die auf planetarer Ebene seit jeher bestehen, kommt der zusätzliche Einsatz elektrischer Anlagen und eine entsprechende Stärke von neuen elektromagnetischen Feldern in der unmittelbaren Umwelt des Menschen, z. B. im Wohnbereich, am Arbeitsplatz. Da elektromagnetische Felder im Allgemeinen nicht sinnlich erfaßt werden können, sondern Berechnungen und Messungen zu deren Erfassung erforderlich sind, besteht in der Öffentlichkeit einerseits eine gewisse Verunsicherung bezüglich einer möglichen Schädigung des menschlichen Organismus, aber auch Unwissenheit im Umgang mit den elektromagnetischen Umständen. Als Veranschaulichung einer Art von unsichtbaren Daten dient die Arbeit SARoskop als ein mögliches Mittel zur objektiven Auseinandersetzung und dem Bewußtwerden der eigenen Person in einer von unterschiedlichsten Daten geprägten Umwelt.
108
SARoskop, 2007/2008 PVC-Röhren, Mechanik, Elektronik/Platine, Sensor, Antennen, LCD-Display, Stahlseil, Netzteil Maße variabel (Standard-Aufbau: 12 Objekte in drei Reihen 2,20 m Höhe, 4 m Länge)
109
Ralf Baecker, Nowhere, 2005-2009, Detail
110
Ralf Baecker
Nowhere
Nowhere ist eine entstehende Landschaft. Nowhere empfängt über das Internet einen Datenstrom mit den aktuellen Sucheingaben der Suchmaschine Metager. Die empfangenen Daten werden interpretiert und in eine Topographie übersetzt. Die sich ständig ändernde Topographie wird von einer CNC-Fräse in einen Hartschaumblock übertragen. Die Nutzer der Suchmaschine erodieren mit ihren Suchbewegungen Flüsse, Schluchten und Täler. Suchanfragen, die nur für den Bruchteil einer Sekunde durch das Internet schießen und eine Antwort auf den Bildschirmen der Suchenden generieren, lassen die Maschine eine ständig wachsende Skulptur in den Raum schreiben. Der kontinuierliche Strom unterschiedlicher Suchanfragen bestimmt Form und Rhythmus dieses Prozesses. Nowhere besteht aus der eigentlichen CNC-Maschine und einer Software, die auf einem PC installiert ist. Die Software greift über das Internet auf den aktuellen Datenstrom der Suchmaschine Metager zu. Diese Suchmaschine wird vom Rechenzentrum der Leibniz Universität Hannover betrieben. In Kooperation mit Metager wurde für Nowhere ein Zugang eingerichtet, über den die aktuellen Sucheingaben
111
Ralf Baecker, Nowhere, 2005-2009, Details
(Suchbegriffe und IP-Adresse ohne das 4. Byte, aus Datenschutzgründen) abgerufen werden können. Alle eintreffenden Daten werden in einer Datenbank gespeichert. Mit Hilfe eines Routenverfolgungsprogrammes (Traceroute) wird ermittelt, über welche Knotenpunkte die Anfrage vom Suchenden zur Suchmaschine gelangt ist. Gleichzeitig liefert das Traceroute auch Informationen über die Laufzeiten zwischen den einzelnen Netzknoten. Durch eine gewichtete Zufallsfunktion wird jedem Knotenpunkt, proportional zur Laufzeit und relativ zu seinen Nachbarknoten, eine zweidimensionale Koordinate zugeordnet. Durch das Verbinden der einzelnen Koordinaten ergibt sich ein Pfad, der vom Rechner des Suchenden zur Suchmaschine verläuft. Die Koordinate der Suchmaschine ist fest in der Mitte der Landschaft verortet. Die eigentlichen
112
Suchbegriffe werden als Quellzuflüsse an den Anfang des Pfades gesetzt. Häufigkeit und Buchstabenfolge der eingegebenen Worte prägen Tiefe und Form der Quellzuflüsse. Die Tiefe der Landschaft bildet die Benutzungshäufigkeit der verschiedenen Knotenpunkte im Netz ab. Die Breite der Erosion ist proportional zur Tiefe. Häufig verwendete Netzknoten wie z. B. die Gateways von Internetprovidern lassen tiefe und breite Gräben entstehen. Je näher sich ein Knoten an der Suchmaschine befindet, desto tiefer/breiter ist der Graben. Die maximale Tiefe wird an der Suchmaschine erreicht. Erst nachdem der Pfad für eine Anfrage errechnet wurde,wird dieser in das Material übertragen. Ein Pfad entspricht einer Menge von Punkten, die durch die Maschine entfernt werden müssen.
113
Die Übertragungsdauer hängt von der Anzahl der einzuschreibenden Punkte ab. Für das Übertragen eines Punktes in den Materialblock wird jeweils ein neues Suchwort von Metager abgerufen: Je mehr Anfragen bei Metager eintreffen, desto schneller arbeitet die Maschine. Hierdurch wird die tägliche Nutzungsfrequenz sichtbar. Die Maschine arbeitet somit tagsüber schneller als nachts. Sind alle Punkte eines Pfades in das Material geschrieben, wird eine neue Routenverfolgung für eine Abfrage gestartet. Dieser Prozess wird über den gesamten Ausstellungszeitraum wiederholt. Mit dem Ende der Ausstellung ist die Herstellung eines Reliefs abgeschlossen. Der Ausstellungszeitraum bestimmt so die Entwicklungsstufe der fertigen Skulptur.
114
Ralf Baecker, Nowhere, 2005-2009, Installationsansicht
Nowhere, 2005-2009 Aluminiumprofile, Lagereinheiten, Fräskopf, Motoren, Elektronik, PC, Software 150 x 150 x 180 cm
115
a'i = ai-1 XOR(ai OR ai+1)
"Computers aren't made of matter." [EGAN 1995]
116
Lothar Michael Putzmann
Orakel
Eine Frage zum Problem Berechenbarkeit und Material
Berechenbarkeit ist R e s s o u r c e n - und L o g i k -relativ. [COPELAND/SYLVAN 1999, 2000] — Orthodoxe prinzipielle Berechenbarkeitstheorie/Rekursionstheorie abstrahiert von Ressourcen an Raum und Zeit und ist mit formalen Limitationstheoremen konfrontiert. Praktische Berechenbarkeit andererseits bedeutet die Strukturprobleme der Komplexitätsklassen; eine Widerspenstigkeit des 'Materials' mit einem Pandämonium an Effekten. — Das Verhältnis der beiden ist nicht trivial. TURING selbst formalisierte in SYSTEMS OF LOGIC BASED ON ORDINALS relative Berechenbarkeit als Orakel-Turingmaschinen. [TURING 1939:172-173] — Für zwei Mengen A, B ⊆ N, heißt A Turing-reduzierbar auf B, A ≤T B, wenn es eine Orakelmaschine mit dem Orakel B gibt, welche die charakteristische Funktion von A berechnet. — Unsere Frage an das 'Orakel' ist zuerst jedoch an uns selbst die Aufforderung: Hier graben! 1. 'Orakel-Maschinen' sind Turings eigener Beitrag zu relativer Berechenbarkeit. [TURING 1939] Diese Orakel sind black boxes, die von einer Turingmaschine befragt werden und in einem Schritt zur Lösung gelangen. Das abstrakte (!) Konzept der Orakel-Turingmaschinen wurde im Hinblick auf das Studium von Hierarchien von Entscheidungsproblemen und Komplexitäten entwickelt.
117
Orakel-Maschinen sind wie Turingmaschinen essentiell diskret. Wir bezeichnen Funktionen, deren Argumente ganzzahlig und deren Werte immer 0 oder 1 sind, als 'binärwertige ganzzahlige Funktionen'. Eine Orakel-Maschine erhalten wir, wenn wir eine konventionelle Turingmaschine mit einer (oder mehreren) zusätzlichen primitiven Operation(en) ausstatten, die uns die Werte einer binärwertigen ganzzahligen Funktion zurückgeben. Turing nannte diese zusätzliche(n) Operation(en) 'Orakel'.1 2. Formal definieren wir eine Orakel-Turingmaschine als 4-Tupel M = Q, δ , q0 , F , dabei ist - Q die endliche Zustandsmenge, - δ : Q × {B, 1}2 → Q × {B, 1} × {L, R}2 eine partielle Funktion, die sog. Überführungsfunktion, L die Links- und R die Rechts-Bewegung, - q0 ∈ Q der Initialzustand, - F ⊆ Q die Menge aller Haltezustände. Die Orakelmaschine wird initialisiert durch das Arbeitsband (Eingabe mit endlicher Anzahl von 1, der Rest Leerzeichen), das Orakelband enthält die charakteristische Funktion des Orakels, O — die Turingmaschine mit Lese-/Schreibkopf im Zustand q0 liest die erste nichtleere Zelle auf dem Arbeitsband, der Orakelkopf liest die χ O (0) korrespondierende Zelle auf dem Orakelband. Danach folgt die Operation entsprechend δ : Ist die Turingmaschine gegenwärtig im Zustand q : der Lese-/Schreibkopf liest das Symbol S1, der Orakelkopf liest S2, und wenn δ (q, S1, S2) = (q', S1', D1', D2'), so erreicht die Maschine den Zustand q', der Lese-/Schreibkopf schreibt das Symbol S1' anstelle von S1 und bewegt sich eine Zelle weiter in Richtung D1; und der Orakelkopf eine Zelle Richtung D2. Ist an diesem Punkt q' Element der Menge aller Haltezustände, hält die Maschine, andernfalls wiederholt sich die Prozedur. [HOPCROFT et al. 2002] Ist also ƒ : N → N eine Funktion von natürlichen Zahlen in natürliche Zahlen und O O M eine Turingmaschine mit einem Orakel O, dann 'berechnet' M die Funktion ƒ, O wenn M durch Eingabe von n+1 aufeinanderfolgenden 1-Symbolen und Leerzeichen auf dem Arbeitsband initialisiert wird und mit ƒ(n) 1-Symbolen auf dem Band hält. Ähnliche Definitionen für Funktionen mit mehr als einer Variablen oder partiellen Funktionen sind möglich. 3. Gegeben seien zwei Mengen A, B ⊆ N, A heißt Turing-reduzierbar auf B, A ≤T B, wenn es eine Orakelmaschine mit dem Orakel B gibt, welche die charakteristische Funktion von A berechnet. Nichts Neues passiert, wenn B selbst eine berechenbare Menge ist, A ≤T B bedeutet dann lediglich: A ist berechenbar, — interessant wird es, wenn B nicht-berechenbar ist. Betrachten wir alle Orakel-Algorithmen für das Orakel einer bestimmten Menge A: Wir können eine neue Menge A' konstruieren, die alle Information über die Elementschaft einer auf A Turing-reduzierbaren Menge enthält. (Die Konstruktion ist analog der Konstruktion einer 'Universalen Turingmaschine'.)
118
Wir nennen die Operation 'Sprung' ('jump' vgl. [DAVIS 2008]), denn durch ein Diagonal-Argument à la Cantor ist leicht beweisbar, daß A
Keine Orakel-Maschine löst ihr eigenes Halteproblem. Das Halteproblem für Δ n ist Y in Σ 0,n +1 . [SHOENFIELD 1993], [SOARE 1987] 4. Sind A und B Klassen von Sprachen, so bezeichnet AB die Klasse der Sprachen, die von der Turingmaschine M mit Orakel O akzeptiert werden, wobei L(M) ∈ A und O ∈ B. Typische Klassen sind einelementige Klassen, die Klasse der rekursiv aufzählbaren Sprachen oder Komplexitätsklassen. Die 'Kapazität' der Orakel definiert die Strukturklassen der Komplexitätshierarchie. [PAPADIMITRIOU 1994], [SIPSER 1997], [CHANG et al. 1994], vgl. [BAKER /GILL 1975] — Die Komplexitätsklasse der Entscheidungsprobleme, lösbar durch einen Algorithmus in Klasse A mit einem Orakel für eine Sprache L, heißt AL. Folgende Definition erweitert die Schreibweise AB auf eine Menge von Sprachen B oder eine Komplexitätsklasse B :
AB =
∪A
L ∈B
119
L
Für zwei Komplexitätsklassen A, B und eine Sprache L ∈ B gilt AB = AL, wenn: 1. L ist B-vollständig2 bezüglich einer Reduktion ≤. 2. Die A zugrundeliegende Klasse von Turingmaschinen ist mächtig genug, die Reduktion zu berechnen. Bekanntlich gilt NP ⊆ PNP, jedoch die Frage 'NPNP = PNP = NP = P?' ist offen. Die Annahme einer verneinenden Antwort führt zur Definition der Polynomialzeithierarchie.3 Orakel-Turingmaschinen haben mindestens die Kapazität ihrer Turingmaschine, ihres Orakels und dessen Komplementsprache: A ⊆ AB, B ⊆ AB, coB ⊆ AB, für alle Klassen A und B. AB = A gilt für jede durch eine deterministische Turingmaschine definierte Komplexitätsklasse B und jede Oberklasse A ⊇ B.4 5. Ein Orakel unterliegt keinerlei Beschränkung. Auch Sprachen, die nicht entscheidbar sind, bzw. nicht-berechenbare Funktionen, sind als Orakel möglich.5 Eine solche Maschine wäre ein Hypercomputer.6 Obgleich eine praktische Realisierung außerhalb von Turings Intention in SYSTEMS OF LOGIC BASED ON ORDINALS war, spukt zumindest seit ALAN TURING'S FORGOTTEN IDEAS … [COPELAND/PROUDFOOT 1999] die Frage: Ist eine Orakel-Turingmaschine p r a k t i s c h möglich? Oder: Welche physikalischen Prozesse eigneten sich als Orakel? Diese Fragen sind vollständig offen. — Die Church-Turing-These behauptet, (intuitiv) berechenbare Funktionen ƒ : N → N, sind genau die rekursiven bzw. Turingmaschinen-berechenbaren. Für die Richtigkeit der These spricht: 1. Jede rekursiv berechenbare Funktion ist intuitiv berechenbar. 2. Bisher wurde keine intuitiv berechenbare, aber nicht-rekursive Funktion gefunden. 3. Verschiedene Versuche, den Begriff der Berechenbarkeit zu präzisieren, erwiesen sich als äquivalent zu dem der Rekursivität. (Bemerkenswert ist dabei die Uniformität der Äquivalenzbeweise: Man versucht zu zeigen, wie eine Klasse von partiellen Funktionen mit der Klasse aller rekursiven Funktionen übereinstimmt.) Die These ist allerdings eine mathematische Aussage über Algorithmen und n i c h t über physikalische Computer. Demgegenüber ist die sog. 'physikalische' ChurchTuring-These eine empirische Proposition — [DEUTSCH 1985]: Every finitely realizable physical system can be perfectly simulated by a universal model computing machine operating by finite means.
120
Gibt es nicht-zufällige physikalische Prozesse, darstellbar durch nicht-berechenbare Funktionen? Sind einige physikalische Konstanten nicht berechenbar? Die binäre Repräsentation ihrer Messungen wäre dann Instanz für ein Orakel …7 6. [LESHEM 2006] folgt der als Test für bestimmte einfache Repräsentationen physikalischer Konstanten motivierten Strategie von [COVER 1973].8 In this paper we apply the same decision concept to testing the non-computability of physical constants (and actually to any output of a physical black box) providing us with a sequence of approximations to a real number. We show that given the output of a black box which is assumed to provide us bits of a given non-computable real there is NO decision procedure (deterministic or probabilistic) that makes an infinite sequence of decisions such that any false oracle is detected from a certain point on. The proof is general enough to apply to any physical model of computation. It means that if the Church-Turing thesis is true, than there is no way to experimentally refute the hypothesis that a finitely realizable process provides us a non-computable number. This type of uncertainty requires us to choose between falsifiability of such a physical prediction (which would be the most substantial prediction of a theory claiming that a given physical process is non-computable) and our belief in the given theory. Hence accepting the failure of the physical Church-Turing thesis implies that we need to revise the notion of experimental refutation of physical theories [...]9 7. Beenden wir das Aperçu mit einer Anmerkung: ein Orakel wird zufällig aus der Menge aller möglichen Orakel ausgewählt. (Genauer: ein Zufalls-Orakel wird konstruiert, so daß jede Folge x mit Wahrscheinlichkeit 1/2 in der Sprache des Orakels ist.) Es wurde gezeigt, daß, mit Wahrscheinlichkeit 1, PA ≠ NPA ist, wenn ein Orakel A zufällig ausgewählt wurde. [BENNETT /GILL 1981] Ist eine Frage für fast alle Orakel wahr, so ist sie es auch für ein Zufalls-Orakel. Die Wahl dieser Terminologie wird durch die Tatsache gerechtfertigt, daß ein Zufalls-Orakel Aussagen ausschließlich mit Wahrscheinlichkeit 0 oder 1 bewertet.10 Das gilt einigen als hinreichend für P ≠ NP. — Unglücklicherweise kann eine Aussage wahr sein für ein Zufalls-Orakel und für eine gewöhnliche Turingmaschine zugleich falsch, z. B. ist für fast alle Orakel A, IPA ≠ PSPACEA, wohingegen IP = PSPACE. [CHANG et al. 1994] vgl. [CANETTI et al. 1998]
121
122
123
1 “Let us suppose that we are supplied with some unspecified means of solving number-theoretic problems; a kind of oracle as it were. We shall not go any further into the nature of this oracle apart from saying that it cannot be a machine.” (Reprint in: [DAVIS 2004]:167) 2 Sei K eine Komplexitätsklasse. Eine Sprache L ist K-vollständig, gdw. 1. Jede Sprache L' ∈ K ist auf L reduzierbar, 2. L ∈ K. 3 Die Polynomialzeithierarchie ist die vermutete Struktur von Komplexitätsklassen zwischen NP und PSPACE. Dahinter steht die Frage inwieweit sich die Klassen P, NP, co-NP auf Orakel-Turingmaschinen beziehen lassen. Sie ist also das Ressourcen-relative Gegenstück zur arithmetischen und analytischen Hierarchie: Das Modell der polynomialen (Schrittzahl-)Komplexität identifiziert alle praktisch lösbaren Probleme mit den Problemen der Komplexitätsklasse P, d. h. der Frage nach der Struktur der Klasse P. Für die Klasse der praktisch lösbaren Probleme gibt es nur die dichotome Alternative: a) sie sind alle grundsätzlich Varianten eines einzigen Problems, — die Struktur der Klasse P ist einfach und übersichtlich, b) sie sind von einer Vielgestaltigkeit, die sich jeder Systematik entzieht. Wahrscheinlich gilt für P nicht die Übersichtlichkeit ('Auflistbarkeit'), wie sie die Klassen höherer Komplexität kennzeichnen. Die Komplexitätsklasse NP beinhaltet nach FAGINs Resultat genau die Probleme, die in existentieller Logik 2. Stufe formuliert werden können. [FAGIN 1974] Der Unterschied polynomiale/hyper-polynomiale Komplexität (P → NP, NSPACE, E) wäre dann nicht nur ein quantitativer (Anzahl der möglichen Ordnungen einer Struktur wächst exponentiell mit deren Mächtigkeit) — sondern vielmehr ein grundsätzlicher, d. h. b) implizierte eine Art Unvollständigkeitssatz praktischer Berechenbarkeit ... 4 Die Aussage ist nicht auf nicht-deterministische Komplexitätsklassen verallgemeinerbar. Der Grund ist die notwendige Eigenschaft B = coB der Orakelklasse B. 5 Z. B. die Radó-Funktion, der sog. fleißige Biber: eine Turingmaschine mit zweielementigem Alphabet {0,1} und n Zuständen, die hält und zuvor auf ein leeres (aus Nullen bestehendes) Band die — verglichen mit allen anderen haltenden Turingmaschinen mit ebenfalls n Zuständen — maximale Anzahl kn schreibt. Nur Turingmaschinen, die nicht halten, können mehr Einsen schreiben. — Über die Anzahl kn von Einsen, die eine Turingmaschine mit n Zuständen schreibt, definiert man den Wert der Funktion an der Stelle n: Σ(n) = kn. Die Menge der Werte von Σ(n) ist weder entscheidbar, noch rekursiv aufzählbar, obwohl Σ(n) wohldefiniert ist. Da auch das Komplement dieser Menge nicht rekursiv aufzählbar ist, ist diese Menge ein Beispiel für eine Sprache über der ersten Stufe der arithmetischen Hierarchie. [RADÒ 1962], vgl. [CHAITIN 1987]. 6 Vgl. [DAVIS 2006], [STANNETT 2006]. 7 Nach [DEUTSCH 1985] ist das aussichtslos: Jedes endliche Experiment generiert eine endliche Sequenz von Messwerten mit endlicher Präzision, weshalb das Ergebnis jeden Experiments berechenbar ist. 8 [GOOD 1970], [LENZ 1951], [WYLER 1971]. 9 [LESHEM 2006]:2 10 KOLMOGOROVs Null-Eins-Gesetz, vgl. [ROSENTHAL 2006]:37. Literatur AMBOS-SPIES, K., FEJER, P., (Unveröffentlicht): Degrees of Unsolvability. e-print: http://www.cs.umb.edu/ ~fejer/articles/History_of_Degrees.pdf BAKER,T.P., GILL, J., SOLOVAY, R. (1975): Relativizations of the P =? NP Question. In: SIAM Journal on Computing 4,4: 431-442. BENNETT, Ch.H., GILL, J., (1981): Relative to a Random Oracle A, P^A != NP^A != co-NP^A with Probability 1. SIAM Journal on Computing 10(1): 96-113. CANETTI, R. et al. (1998): The Random Oracle Methodology Revisited, STOC 1998: 209–218. CHAITIN, G. J. (1987): Computing the Busy Beaver Function, In: T. M. Cover, B. Gopinath, Open Problems in Communication and Computation, Springer, 1987: 108-112. CHANG et al. (1994): The Random Oracle Hypothesis is False. Journal of Computer and System Sciences 49 (1): 24–39. COPELAND, J., PROUDFOOT, D. (1999): Alan Turing's forgotten ideas in computer science. Scientific American April 1999. COPELAND, B.J., SYLVAN, R. (1999): Beyond the universal Turing machine. Australasian Journal of Philosophy 77: 46-66. COPELAND, B.J., SYLVAN, R. (2000): Computability is Logic-Relative. In: PRIEST, G., HYDE, D. (eds.): Sociative Logics and their Applications. London, Ashgate: 189-199. COVER, T.M., (1973): On determining the irrationality of the mean of a random variable. Annals of Statistics 1 (5): 862-871. DAVIS, M. (2006): Why there is no such discipline as hypercomputation. Applied Mathematics and
124
Computation, 178, 1,1: 4-7. DAVIS, M. (2008): What is… Turing Reducibility? Notices American Mathematical Society 53, 10: 1218–1219. DEUTSCH, D. (1985): Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer. Proceedings of the Royal Society, Series A, 400: 97-117. EGAN, G. (1995): Permutation City. London: Millennium Orion. FAGIN, R. (1974): Generalized first-order spectra and polynomial-time recognizable sets. In: KARP, R. (ed.) (1974): Complexity of Computation. SIAM-AMS Proceedings 7. Providence, American Mathematical Society: 27-41. GOOD, I.J., (1970): The proton and neuron masses and a conjecture for the gravita2 tional constant. Physical Review Letters 33A: 383-384. HOPCROFT J.E., R. MOTWANI, J.D. ULLMAN, ( 2002): Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Springer. JAPARIDZE, G. (1994): The logic of the arithmetical hierarchy. Annals of Pure and Applied Logic 66: 89-112. LENZ, F., (1951): The ratio of proton and electron masses, Physical Review 82:554. LESHEM, A. (2006): An experimental uncertainty implied by failure of the physical Church-Turing thesis. e-print: arXiv:math:ph/ 060417v1. ODIFREDDI, P. (1989): Classical Recursion Theory. Amsterdam, North-Holland. PAPADIMITRIOU, CH.H. (1994): Computational Complexity. Reading Mass., Addison Wesley Longman. Section 14.3: Oracles: 339 – 343. RADÓ, T. (1962): On noncomputable function., Bell Systems Tech. J. 41, 3: 877-884. ROGERS Jr. H., (1967):Theory of Recursive Functions and Effective Computability. McGraw-Hill, 1967. Nachdruck bei MIT-Press, Cambridge 1987. ROSENTHAL, J. S., (2006): A first look at rigorous probability theory. World Scientific Publishing, Hackensack. SHORE, R.A.; SLAMAN, T.A. (1999): Defining the Turing jump. Math. Res. Lett. 6 (5-6): 711–722. Retrieved 2008-07-13. SHOENFIELD, J., (1993): Recursion theory, Lecture Notes in Logic 1. Springer Verlag. SIPSER, M. (1997): Introduction to the Theory of Computation. Boston, PWS Publishing Company, Section 9, 2: Relativisation: 318-321. SOARE, R., (1987): Recursively enumerable sets and degrees: a study of computable functions and computable generated sets. Springer-Verlag. STANNETT, M., (2006), The case for hypercomputation. Applied Mathematics and Computation, Volume 178, Issue 1, 1: 8-24. TURING, A. (1936/37): On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society 2, 42: 230-265. TURING, A. (1939): Systems of logic based on ordinals, In: Proceedings of the London Mathematical Society 2, 45: 161-228; Reprinted in: DAVIS, M. (ed.) (1965, 2004): The Undecidable. Basic Papers on Undecidable Propositions, Unsolvable Problems And Computable Functions. Raven Press, New York. WYLER, A., (1971): A mathematicians version of the fine structure constant. Physics Today 24: 17-19. Abbildungen S. 116, 122/123 jeweils Ausschnitt aus Zellularautomat Rule 30, 2500 Steps, aus Stephen Wolfram, A New Kind of Science, based on Chapter 2: The Crucial Experiment, Wolfram Media, 2002 http://www.wolframscience.com
125
Andreas Muxel, Connect, 2008, Detail
126
Andreas Muxel
Connect
Die Arbeit Connect besteht aus 13 unabhängigen Modulen. Jedes Modul verfügt über einen Schrittmotor, an dem über eine Gummischnur eine Eisenkugel befestigt ist. Ein Carbonstab mit jeweils einem Ringmagneten an jedem Ende ist der Aktivitätsträger, der für das Bewegungsverhalten der Skulptur verantwortlich ist. Mithilfe der Magneten kann sich der Stab mit den Kugeln verbinden. Zwischen Schnüren und Motoren sind Piezosensoren angebracht. Ist ein Element mit dem Aktivitätsträger verbunden, ermittelt ein Mess- und Steuerprogramm auf einem Mikrocontroller die Eigenfrequenz der Schwingung und regelt den Schrittmotor. Über einen Wickelmechanismus der Schnüre wird das Schwingverhalten der angebrachten Kugel wiederum optimal anregt, ein einfacher Regelkreis ist die Folge. Die Struktur, die durch die Verbindung mit dem Stab entsteht, entspricht der eines Doppelpendels. Das Schwingverhalten reagiert sehr sensibel auf geringste Störungen durch die Umwelt und eine nicht-lineare Bewegung ist die Folge. Wie lange es dauert,
127
Andreas Muxel, Connect, 2008, Installationsansichten
bis diese Bewegung dazu führt, dass der Stab eine Verbindung zwischen zwei Kugeln herstellt, ist nicht vorhersehbar. Ebensowenig kann die Bewegung innerhalb der Skulptur vorhergesehen oder gar berechnet werden. Verbindung und Lösung der Elemente werden nicht über Elektromagnete, sondern ausschließlich über das Bewegungsverhalten der einzelnen Elemente ausgeführt. Existiert eine Verbindung zwischen zwei Einheiten, versuchen beide weiterhin ihre Eigenfrequenz optimal anzuregen. Schwingen die Kugeln disharmonisch zueinander, entstehen hohe Zugkräfte und die magnetische Verbindung reißt an einem der beiden Aufhängepunkte. Das Modul, das nicht mehr verbunden ist, stoppt aufgrund seiner Messergebnisse die Anregung der Eigenfrequenz. Somit ist der Stab auch dafür verantwortlich, an welcher Stelle innerhalb des Konstrukts Bewegung stattfindet.
128
Die Steuereinheit eines Elementes basiert auf der freien Physical Computing Plattform Arduino (www.arduino.cc). Neben einem Mikrocontroller befinden sich auf jeder Platine Elemente für die Regelung des Schrittmotors und die Messung des Piezosensors. Die interne Steuerlogik benötigt Daten über die Verbindungsstadien des Stabes mit den Elementen. Hierzu wird die Schwingung der Eisenkugel über das zuvor beschriebene Verfahren angeregt und anschließend eine Messung am Analogeingang des Mikrocontrollers durchgeführt. Die eigentliche Logik des Programms auf jedem Mikrocontroller basiert auf einfachen Regeln. Das Programm reagiert auf Messungen der Umwelt, z. B. ob ein Element mit dem Stab verbunden ist oder nicht, und läßt somit die physikalische Struktur der Skulptur zu einem Teil der Daten werden.
129
oscillate
measure
isSwinging
hasBar
isNotSwinging
hasNoBar
Connect - ein Roman Andreas Muxels eigenreaktive Skulptur Connect ist möglicherweise das neueste Update von Goethes Wahlverwandtschaften. Der Roman rund um vier Liebende erschien passenderweise erstmals vor exakt 200 Jahren. Es geht um vier Figuren, die - chemischen Elementen gleich - temporäre Verbindungen eingehen und wieder lösen. Diejenigen Figuren, die sich beim Zusammentreffen schnell ergreifen, sind - so argumentiert der Roman verwandt. Wählen können Goethes Figuren aber insofern, als die Regeln der Attraktion, nach denen sie handeln, nicht den traditionellen Gesetzen der Genealogie oder der Ehe entsprechen. Es geht also um Indeterminiertheit der Verbindungen bei gleichzeitig starkem inneren Drang zueinander hin oder voneinander fort.
130
Connect transportiert dieses Spiel ins magneto-digitale Zeitalter: Die Protagonisten von Muxels experimentellem Roman sind dreizehn Kugeln - man ist versucht Platons perfekte, liebend in sich ruhende, vor ihrer Differenzierung in zwei antagonistische Geschlechter glückliche Kugelwesen in ihnen zu sehen -, die in einem strengen kartesischen Raster aufgehängt sind. Ihre Aufhängung ist eine rückkoppelnde Steuereinheit, bestehend aus einem Schrittmotor mit Mikrocontroller, einem Piezo-Element zur Schwingungsmessung sowie einer Gummischnur. Die dreizehn mit Mikrocontrollern ausgestatteten Motoren sind autonom, sie versetzen die Kugeln durch Impulse in Schwingung und steuern ihre Bewegung aus. Und dann gibt es noch den Eindringling, der die schöne Schwingungsordnung stört: Den Stab, der zu Beginn mittels eines einfachen Magneten an einer der Kugeln haftet, sich aber durch ausgelassene Bewegungen an eine weitere Kugel heften kann, bis er wieder abgeschüttelt wird und sich eine neue Verbindung sucht (oder zu Boden fällt). Die Skulptur findet also ihren Ausgang in Abstraktionen: dem Raster, der Linie (die Schnüre, der Stab), der Kugel, dem Programmcode, den Messzuständen. Interesse zieht sie jedoch gerade nicht aufgrund der repräsentierten schönen Ordnung auf sich, sondern weil durch das Schwingen und Verbinden ein spannender Plot entsteht: Wer mit wem? Warum passiert gerade das/nichts? Und wie wird das ganze wohl ausgehen? Das sind typische Fragen an eine Romanhandlung. Eine zweite Parallele zum modernen Roman besteht im generativen Prinzip der Skulptur: Das dem Verhalten der Elemente zugrunde liegende (oder vielmehr: über ihnen schwebende) Programm (und damit meine ich sowohl das Steuerprogramm als auch die Gesamtanlage inklusive ihrer Materialität) ist von vornherein so angelegt, dass es unvorhersehbare Effekte produziert. Viele Schriftsteller berichten, dass sie genau so ein Verhältnis zu ihren Figuren haben: Diese werden zu Beginn des Schreibvorgangs programmatisch und typologisch konzipiert und dann in ein bestimmtes Setting hineingeworfen. Die Romanhandlung entwickelt sich dann jedoch semi-autonom, nimmt häufig Richtungen, die für den Autor nicht vorhersehbar waren. Bevor sie aus dem Ruder läuft oder zum Stillstand kommt (jeder von uns kennt Romane, in denen das passiert) ist ein regulierender und steuernder Zugriff des Autors notwendig, der aber nicht willkürlich, sondern im Sinne der generativen Logik des bisher Entstandenen erfolgt. In diesem aleatorischen Spannungsfeld operiert auch Connect: Es wird ein Programm installiert, das einen Rahmen für das Verhalten der Kugeln und des Stabes schafft, mit dem Ziel, die Zufallsbewegungen beobachtbar zu machen. Damit ist gleichzeitig eine Möglichkeitsbedingung experimenteller Beobachtung - in Wissenschaft und Kunst formuliert: Nur unter der Prämisse eines sehr reduzierten, hoch artifiziellen Settings durch den Experimentator/Künstler lässt sich Abweichung, Störung und Zufall beobachten, wird aus einem Ereignis ein epistemisches Ding (Hans-Jörg Rheinberger) oder ein interessantes Artefakt. Oder ein Roman, der aus technischen Dingen und nicht aus Lettern besteht. Karin Harasser
131
132
Connect, 2008 Elektronik, gemischte Materialien 222 x 222 x 135 cm
133
Anselm Bauer, Ampelparasit, 2008
Parasiten sind Maschinen, die kinetische Energie, die in verschiedenen bereits existierenden Situationen entsteht, wie an Klimaanlagen oder Ampeln, in abstrakte Klang- und Lichtprojektionen transformieren. Das ästhetische Produkt zeigt den Prozess der Transformation sowie die Konstruktion der Parasiten.
134
Anselm Bauer
Parasiten
Der Ampelparasit besteht aus einem Gummiblasebalg, einem Schlauch und einem Luftballon. Installiert an Ampeln, nutzt er den Knopf um den Luftballon aufzublasen. Der Blasebalg ist im Inneren des gelben Gehäuses angebracht, und jeder Fußgänger der den Knopf drückt, pumpt den Luftballon auf.
135
Anselm Bauer, Bordsteinparasit, 2009, Skizze
136
Der Bordsteinparasit besteht aus einem Antrieb, einem Mikrofon, einer Speichereinheit und einem Lautsprecher. Er nimmt die Geräusche eines Straßenabflusses auf und gibt diese wieder. Die elektrischen Elemente bekommen ihre Energie durch ein Wasserrad, das sich dreht, sobald Regen die Bordsteinrinne entlang läuft. Ist die Stromzufuhr groß genug, nimmt das Mikrofon die Klänge des Wassers auf und speichert sie. Der Lautsprecher gibt diese solange wieder, wie der Stromspeicher Energie liefert.
137
Anselm Bauer, Lüftungsparasit, 2008, Installationsansicht
138
Der Lüftungsparasit besteht aus einem Windrad, einem Antriebsriemen, einem Motor und LEDs. Dieses Modell nutzt die Abluft einer Klimaanlage, um diese für eine Projektion umzuwandeln. Ein Antriebsriemen übersetzt die Rotation des Windrades auf den Generator, der LEDs mit Strom versorgt, sobald sich das Rad dreht. Die LEDs projizieren diesen Vorgang an die Wand.
139
Anselm Bauer, Atemparasit, 2009, Skizze
140
Der Atemparasit besteht aus Folie und Schnur. Der Parasit sitzt an einem Raumbelüftungssystem, welches die Zuluft in demselben Rohr zuführt wie die Abluft. Solange das Lüftungsystem den Raum mit frischer Luft versorgt, atmet der Parasit und er entfaltet sich. Wenn die Anlage sich umschaltet und die Luft wieder absaugt, entzieht sie ihm diese und er zieht sich wieder zu seiner ursprünglichen Größe zusammen.
141
142
Roman Kirschner
Roots
Roots ist ein traumartiger Bildschirm, einem alten persischen Bild nachempfunden. Wie ein Busch, auf dem Köpfe wachsen. In einer grünbraunen Flüssigkeit verzweigen sich langsam und stetig schwarze Eisenkristalle. Bläschen steigen wie Quallen nach oben. Äste brechen ab, sinken auf den dunklen Boden und beginnen sich aufzulösen. Es bilden sich dicke Wolken, die über der Szene schweben. Die Skulptur ist zyklisch angelegt und befindet sich zu zwei Drittel in einem aktiven Zustand, in dem sich ein Kristallobjekt formt und vergrössert. Dieses wird direkt akustisch erfahrbar. Die Skulptur komponiert sich selbst. In der darauf folgenden passiven Traumphase zerfällt das Objekt und die aufgebaute Spannung wird langsam abgebaut.
143
Roman Kirschner, Roots, 2005/2006, Installationsansicht
Auf den Ruinen des Zerfalls beginnt erneutes Wachstum. Durch das gesamte Gefüge wird Elektrizität gepulst. Sie ist der Schlüssel zu stetiger Transformation. Wachstum verändert den Stromfluss. Geänderter Stromfluss verändert das Wachstum. Software und Hardware überlassen dem Material den nächsten Schritt. Die Spannungen an jedem Drahtende werden durch einen Resonanzfilter geschickt und so in Sound transformiert. Der 4/4-Takt des Pulses ergibt eine unterschwellige Rhythmik. Roots verwendet ein Modell des Briten Gordon Pask, der in den 1950er Jahren versuchte, einen chemischen Computer zu bauen, in einer Zeit, in der der Rest der Welt daran arbeitete, Computer auf der Basis von Logik und kleinsten Spannungen zu entwickeln. Zur Entwicklung von Roots Welche Möglichkeiten bieten sich, Filme zu machen, die niemals gleich sind, die keine Geschichte verfolgen und doch erzählen. Filme, die gleichzeitig offen sind für ihre Umwelt und verschlossen genug, um sich nicht aufzulösen. Filme, die nicht
144
projiziert werden müssen, sondern sich als Objekte groß genug für unsere Wahrnehmung zeigen. Filme, die sich als Materialanimationen in einem ständigen Fluss befinden und immer gerade zu diesem Zeitpunkt passieren. Filme, die als Belebung von vermeintlich Unbelebtem das Innere nach Außen kehren und das Unsichtbare zeigen. Die Recherche zu Roots begann 2005 im Lab3, nachdem Georg Trogemann sein Interesse für das noch sehr vage Konzept zeigte und praktische Unterstützung von Seiten des Labors zusagte. Auch wenn manche der ursprünglichen Ideen im Rückblick naiv anmuten, waren sie doch wichtige Quellen für Bilder und Vorstellungen und dienten im Umsetzungsprozeß als Leitfaden. Der wichtigste Ausgangspunkt der Arbeit war Pasks Ohr. Gordon Pask hatte in den 1950er Jahren Versuche zu einem Modell eines chemischen Computers unternommen. Er war dabei nicht alleine, sondern es handelte sich um eine Idee, die in den Köpfen vieler Computerwissenschaftler zu jener Zeit herum-
145
Aufsicht auf den elektrochemischen Versuchsaufbau bei Gordon Pask, ca. 1958
146
schwirrte. Er arbeitete daran, ein System zu entwickeln, das die Fähigkeiten haben sollte, eigene Schaltungen zu entwickeln. Dadurch konnte es möglich werden, sowohl auf Reize von außen neues Verhalten zu zeigen, als auch von sich aus Sensoren auszubilden, die neue Reize wahrnehmen können. In Letzterem sieht die Wissenschaft noch heute eine Herausforderung.1 Pask gelang es mit für heutige Verhältnisse sehr einfachen Mitteln ein System zu schaffen, in dem sich Eisenkristalle in einer Eisenoxidlösung unter Einfluss von Strom bilden. Dieser elektrolytische Prozess war damals hinlänglich bekannt. Pask benutzte jedoch mehrere Elektroden, die ihre Umgebung messen und über eine Rückkopplung einzeln geschaltet werden konnten. Ein Belohnungssystem wachte über die Geschehnisse. Durch elektrolytische Abscheidung blieben an der Kathode Eisenpartikel haften und ließen nach einem anfangs chaotischen Wachstum in alle Richtungen nach einiger Zeit eine tendenzielle Entwicklung in Richtung einer Anode erkennen. Je nach Vorhandensein anderer Anoden im Umfeld wurde die Wachstumsrichtung umgelenkt. Nicht mehr mit Strom gefütterte Kristalläste waren dem Zerfall ausgeliefert. Genauere Details über die verschiedenen Ansätze (Flüssigkeiten, Schaltungen, Aufbauten), die Pask im Laufe der Jahre ausprobierte, bleiben bis heute leider im Verborgenen. Mitte der 1960er Jahre musste er diese Forschungsrichtung schließlich aufgeben, weil sich der digitale elektronische Computer immer weiter durchsetzte und die Förderungslandschaft veränderte. Was Pask allerdings bis zu jenem Zeitpunkt bereits erreicht hatte, klingt noch heute abenteuerlich. Es war ihm gelungen, in seinem Versuchsaufbau Konstellationen von feinen Eisenfäden nahezu selbstorganisiert wachsen zu lassen, die in der Lage waren zu hören. Nach einer Wachstumszeit von etwa sechs Stunden konnte Pasks Ohr eine Frequenz von 50 Hertz wahrnehmen und von einer anderen mit 100 Hertz unterscheiden. Da sich in Pasks Texten keine detaillierteren Informationen finden ließen, zeichnete sich die gesamte Entstehungsphase der Arbeit Roots durch zahllose schmerzhafte Rückschläge aus. Als große Herausforderung stellte sich u. a. die Realisierung eines dynamischen Bildes aus dem Wachstum von Eisenkristallen heraus. Linien und Körper sollten aus Eisenkristallen entstehen und zerfallen können, deren Strukturen sich bildlich schwarzen Korallen oder Nervenzellen annäherten. Diese geheimnisvollen Formen sollten nicht nur wie bei Pask in einer flachen Schale entstehen, sondern in einem dreidimensionalen Bildraum mit einer zufriedenstellenden räumlichen Tiefe. Bereits zu Beginn des Entstehungsprozesses wurde klar, dass sehr viele Faktoren den Wachstumsprozess der Kristalle negativ beeinflussen. Die Eisensulfatlösung wechselte im Laufe der Zeit zwischen verschiedenen Oxidationsstufen und damit die Farbe. Es bildeten sich Zonen mit unterschiedlichen Ph-Werten. Erschütterungen ließen die Kristalläste abbrechen. Die Verwendung mehrerer Elektroden führte zu
147
hohen Stromwerten, was sich in hohen Temperaturen äußerte. Dies veränderte den Widerstand der Flüssigkeit. Die Isolierungen hielten den Temperaturen nicht stand. Die Abstände der Elektroden durften nicht zu klein und nicht zu groß sein. Waren sie zu klein, wuchsen die Kristalle zu schnell bis zur nächsten Elektrode und erhöhten den Gesamtstromfluß, und waren sie zu groß, konnten sie die nächsten nie erreichen. Nach eineinhalb Jahren schleppender und erfolgloser Versuche gelang es mit zusätzlicher Hilfe, die Kristalle freischwebend wachsen zu lassen, sie zu stabilisieren und etwas größere Gebilde zu formen. Aber immer wieder traten neue Schwierigkeiten auf und es zeigte sich, dass in bestimmten Situationen so viel Strom durch die Kristalle und die Flüssigkeit floss, dass einige Elektronikbausteine überfordert waren. Nach zwei gelungenen Ausstellungen ging die Elektronik bei der dritten Eröffnung in Flammen auf. In dem komplizierten Gesamtgefüge aus Flüssigkeit, Elektroden, Kabeln, Verbindungen, Computer, Elektronik, Software spielte jedes dieser Details eine entscheidende Rolle. Bestanden bei Pask ähnliche Probleme? Ist der Mangel an Details zu seinen Arbeitsprozessen und Ergebnissen dadurch erklärbar, dass seine Aufbauten von ebenso vielen sich wechselnden Parametern abhängig waren? Bedeutete es einen zu großen Aufwand, diese Einzelheiten zusammenzutragen und zu erklären, jeden einzelnen Schritt nachvollziehbar zu halten? Die Arbeit an Roots war trotz aller Anstrengungen sehr spannend, da das Wachsen der schwarzen Dendriten, deren Zerfall und das Spiel der Gase eine andauernde Faszination besitzen. Nie war klar, wie sich das nächste Bild entwickeln würde. Monatelang quälten sich, mit bloßem Auge kaum sichtbar, schwarze Korallenarme von Liane zu Liane. Jede Veränderung am Aufbau war erst nach Stunden sichtbar oder hörbar und der Kreislauf musste unzählige Male von neuem beginnen. Dieser Kreislauf ist die Grundlage des Prozesses innerhalb der Arbeit Roots. Kristalline Strukturen verwachsen sich, um dann wieder zu zerfallen. Auf den Überresten diesen Zerfalls beginnt neues Wachstum. Während der aktiven Phase wird Strom in verschiedenen Mustern durch das Geflecht der Drähte gepulst. Das passiert nach einem Rhythmus und in Abstimmung mit den Verwachsungen, die sich bereits gebildet haben. In jedem neuen Zyklus beginnen hier die Eisenpartikel, indem sie sich anlagern. Unterstützung dieser vorhandenen Wachstumstendenzen erfolgt dann durch die Software. Wächst ein Kristall ein Stück in eine Richtung, verändert sich dadurch der gesamte Stromfluß. Dieser wird gemessen und fließt durch einige Audiofilter, um als Ton wieder hörbar zu werden. Auf diese Art komponiert sich Roots fortwährend selber. In der Zerfallsphase entsteht ein zusätzlicher spannungsreicher TonEffekt, der nicht technisch nachvollziehbar ist und einen teilweise an einen Aufschrei der organischen Materie erinnert. Im stetigen Wandel von Wachstum und Zerfall, von Aktivität und Erholung, entsteht das Unvorhersehbare in einem festgelegten Rahmen, einem Möglichkeitsraum. Diesen Rahmen auszugestalten und gleichzeitig offenzuhalten ist eine schwierige und riskante Aufgabe.
148
Roman Kirschner, Roots, 2005/2006, Wachstumsstudie
Roots, 2005/2006 Eisensulfatlösung, Platin- und Kupferdraht, Elektronik, Sound, verschiedene Materialien 40 x 40 x 190 cm, zusätzliches 19” Audiorack
149
Roman Kirschner, Skizze zu Roots, 2005/2006
150
1 Peter Cariani, To elvolve an ear: epistemological implications of Gordon Pask`s electrochemical devices, http://homepage.mac.com/cariani/CarianiWebsite/PaskPaper.html (letzter Zugriff: 12.11.2009) Literatur Ranulph Glanville, Albert Müller (Hrsg.), Pask Present - an exhibition of art and design inspired by the work of Gordon Pask, cybernetician and artist, Ausstellungskatalog, Edition Echoraum, Wien 2008 / Gordon Pask, Physical analogues to the growth of a concept. Mechanization of Thought Processes, Symposium 10, National Physical Laboratory, H.M.S.O. London 1958, S. 765-794 / Gordon Pask, The Natural History of Networks, in M. C. Yovits, S. Cameron (Hrsg.), Self-Organizing Systems, Pergamon Press, New York 1960 Dank an Dr. Albert Müller, Institut für Zeitgeschichte, Universität Wien, für die Bereitstellung der Fotografie des Versuchsaufbaus von Gordon Pask, S. 146
151
Karin Lingnau
Rabbit , Rabbit deconstructed Rabbit betitelt die überlebensgroße Skulptur eines Hasen, ausgeführt in 57 Polygonen. Grundmodell der Skulptur ist das virtuelle Modell eines Hasen aus dem Computerspiel Unreal (1998). Der dortige Hase, der sogenannte Nali-Rabbit, nur grob der Morphologie des irdischen Hasen entlehnt, ist Teil einer außerirdischen Flora und Fauna, ein Pawn, im Zusammenspiel mit atmosphärischen Geräuschen und sich im Wind bewegender Vegetation der weiteren Immersion des Spielers in eine fremdartige Welt dienend. Die Figur ist ausgestattet mit einer freundlichen AI und einem sich wiederholenden Bewegungszyklus von ca. 100 Bewegungsmomenten, in den auch ein Fluchtverhalten bei Annäherung des Spielers eingebettet ist. Ansonsten ist die Figur ohne weitere Konsequenz für den Handlungsverlauf und bleibt Statist, ein sogenannter NPC (Non-Player-Character). Entsprechend den grafischen Darstellungsmöglichkeiten 1998 ist der polygonale Aufbau des virtuellen Wesens noch deutlich erkennbar. In der Rückübertragung des digitalen Modells in Skulptur werden alle weiteren Ebenen, Programmierung und Texturen entfernt, um den Objektcharakter heraus-
153
Karin Lingnau, Rabbit, 2008, Kölner Pappe, Klebeband, 310 x 440 x 180 cm
zuarbeiten. In der Umsetzung in einer Dimension von anderthalbfacher Menschengröße erfährt das Objekt eine Überhöhung in Detail und scheinbarer Funktion, wird zum Raum selbst, raumgreifend. Nach den Prinzipien der Pop-Art entsteht in der Reduktion der Elemente, aus ihrem ursprünglichen Zusammenhang gerissen und in fremdem Kontext wieder zusammengeführt, eine neue Ikonographie des Raums und der Wahrnehmung von Raum. Die weiterführende Demontage der Arbeit, Rabbit deconstructed, folgt der Konstruktion im Raum und der Materialität der Skulptur. In der Dekonstruktion der bestehenden Form entsteht eine weitere Konstellation und Darstellung im Raum. Beide Arbeiten und Stadien der Form, Rabbit und Rabbit deconstructed, sind Teil einer Sammlung von Recherchen, Texten, Bildern und skulpturalen Arbeiten unter dem Titel Refeed. ”Wir müssen uns an den Gedanken gewöhnen, daß jedes Sichtbare aus dem Berührbaren geschnitzt ist, daß jedes taktile Sein gewissermaßen der Sichtbarkeit zugedacht ist und daß es Übergreifen und Überschreiten nicht nur zwischen dem Berührten und dem Berührenden gibt, sondern auch zwischen dem Berührbaren und dem Sichtbaren, das
154
in das Berührbare eingebettet ist, ebenso wie umgekehrt dieses selbst kein Nichts an Sichtbarkeit, nicht ohne visuelle Existenz ist.” Maurice Merleau-Ponty Refeed ist hier eine Art programmatischer, sogar prozeduraler Sammelbegriff für eine Recherche und Praxis der Rückübertragung zwischen »Welten«: von einer »mentalen« Welt, die hauptsächlich das Erscheinungsbild der digitalen 3D-Gestaltung einnimmt, »zurück« in die Welt der nicht nur simulierten Materie und der nicht nur mentalen Zustände. Uns werden vielleicht keine definitiven Protokolle überliefert, um von einer Welt in die andere zu gelangen – es geht nicht nur um digitale Modelle für Artefakte; und auch nicht wirklich um die 1-zu-1-Übertragung von gestalterischen Konzepten und Perspektiven der computierten Simulation in einen »konkreteren« Erfahrungsraum. Es geht tatsächlich um die Rückübertragung einer »ursprünglichen Natur« des Bildes, dort wo die Sichtbarkeit eine Deduktion des Haptischen ist. So »nährt« zunächst eine
155
Karin Lingnau, Rabbit deconstructed, 2008, Kölner Pappe, Klebeband, Maße variabel
Abstraktion des Haptischen die visuelle Einbildung, dann führt letztere konkrete, »berührbare« Formen in unsere Erfahrungswelt zurück. Als Refeed werden Muster von Texturen als Materialisierungen von Daten gesammelt und zu Collagen verwertet; als Refeed aus Applikationen zur Gestaltung von Spielhintergründen entstehen abstrakt gemachte Räume; als Refeed entrinnen dekorative Spielfiguren ihren digitalen Szenarien, nur dass sie um einiges überdimensioniert erscheinen, wenn sie einmal in »unserer« Welt angekommen sind (um dann unter dem Druck der Zeit und der Materie elegant auseinander fallen zu müssen). Refeed zeigt, wie man mit/in Formen denkt. So findet Refeed immer wieder den praktischen Beweis dafür, dass die Welt der Computation sicherlich eine eigene Art der Abstraktion ist, mit etwas wie eigenen Gesetzen und Spannungen, sie dafür doch sehr konkret ist, bereits zum Anfassen präsent. Susanna Schoenberg
156
Fotografien von Jochen Viehoff
158
Georg Trogemann
Algorithmen im Alltag Two roads diverged in a wood, and I I took the one less travelled by Robert Frost Algorithmen sind präzise Handlungsanweisungen, um Probleme, die innerhalb verschiedener Kontexte auftauchen, mit Hilfe allgemeiner Schemata zu lösen. Üblicherweise verbinden wir mit dem Begriff vor allem mathematische oder informatische Herausforderungen, die nur für Ingenieure und Softwareentwickler relevant sind. Informatiker betonen aber gerne, dass Situationen, die nach algorithmischen Lösungen verlangen, durchaus auch im Alltag zu finden sind und ihre Kenntnis hilft sie effizient anzugehen. Die unter Informatikern beliebten Beispiele, wie wir einen Kuchen fair teilen können, den Ausgang aus einem Labyrinth finden, das Bücherregal am schnellsten nach einem bestimmten Buch durchsuchen oder unsere Umzugskartons möglichst platzsparend packen, wecken zwar tatsächlich oft die Neugier des Laien, sie sind aber nicht besonders geeignet, die Wichtigkeit der algorithmischen Welt für unsere heutige Gesellschaft deutlich zu machen. Wir kommen in der Regel
159
auch gut durchs Leben, ohne solche Verfahren zu kennen oder gar selbst anzuwenden. Die Brisanz von Algorithmen wird dagegen schon eindringlicher, wenn wir daran erinnern, dass sie zum Beispiel auch Flugzeuge, Atomkraftwerke und Bankautomaten steuern. Doch gerade hier sind in erster Linie die Fachleute gefragt, die sich kompetent um deren Sicherheit und Funktionstüchtigkeit zu kümmern haben. Es wäre nicht nur zu viel verlangt, sondern durchaus gefährlich, sie jedem zugänglich zu machen. Eine Ahnung von der versteckten Macht der Algorithmen in Alltagssituationen bekommen wir auch, wenn wir darüber nachdenken, wie der PageRank-Algorithmus bei Google funktioniert, der festlegt, welche Quellen bei der Suche an oberster Stelle gelistet werden. In einem in seiner Gesamtheit nicht mehr überschaubaren Informationsnetz existiert nur noch, was an möglichst oberster Stelle des Suchergebnisses gefunden wird. Die Entscheidung über die Reihung treffen Algorithmen und die wenigsten Nutzer kennen das Prinzip, auf dessen Basis die Links gelistet werden. Unzählige weitere Beispiele ließen sich nennen, die in ihrer Summe belegen, dass wir zunehmend Entscheidungen aller Art an Maschinen delegieren. Programme treffen Entscheidungen über Aktienverkäufe, sie steuern Produktionsabläufe und bewerten medizinische Daten. Computerprogramme sind deshalb nicht nur die neuen billigen Hilfsarbeiter der Gesellschaft, sie sitzen auch in den Entscheidungsgremien. Doch die versteckte Macht der Algorithmen ist hier nicht das zentrale Thema, es geht vielmehr um die augenscheinlichen Analogien zwischen Informationsverarbeitungsprozessen und den Phänomenen und Vorgängen in unserer Alltagswelt. Dazu stellen wir als erstes die Frage, was Information überhaupt ist und wie es möglich ist, Information maschinell zu verarbeiten. Erst wenn das Grundprinzip erkannt ist, können wir auch sehen, weshalb die Bezüge zwischen den Erscheinungen in unserer technisierten Umwelt und der algorithmischen Informationsverarbeitung im Computer keine falschen Analogien sind, sondern beide tatsächlich in den gleichen Prinzipen wurzeln. Wir werden weiter feststellen, dass die Übertragung von menschlichen Handlungen und Denkvorgängen auf Maschinen immer dann gelingt, wenn sich Handlung und Denken mittels Abstraktion in eine Folge von elementaren und rekombinierbaren Teilaktivitäten zerlegen lässt und dabei der Kontext so eingeschränkt werden kann, dass alle Entscheidungsalternativen, die im Handlungs- oder Denkprozess auftreten können, sich schon vorher vollständig bestimmen lassen. Auf diese Weise zerlegen wir zielgerichtete Handlungen in Folgen elementarer, rekombinierbarer Teilaktivitäten; menschliche Handlungen und Denkprozesse werden entkörperlicht und dekontextualisiert. Algorithmen sind somit nichts anderes als entkörperlichte Muster ehemals kontextgebundener Handlungsabläufe. Bereits geleistete Verständnisarbeit wird durch Algorithmen funktionalisiert und zum auf Maschinen übertragbaren Verfahren. Wir erzeugen Wiederholbarkeit, die nicht jedes Mal vor ihrer Anwendung erst neu reflektiert werden muss. Zwar sind immer verschiedene Voraussetzungen im Spiel, diese brauchen aber nicht mehr permanent aktualisiert zu werden. Die sukzessive Abstraktion von Handlungen führt zu Baukastensystemen, mit denen sich beliebig komplexe Artefakte aus wiederholten Grundelementen zusammenstellen lassen. Die Produktpalette von Baustoffhandlungen und die Elemente
160
von Programmiersprachen finden hier einen gemeinsamen Ursprung. Die unvermeidliche Fragmentierung ist den technischen Produkten genauso anzusehen, wie den zugehörigen Herstellungsprozessen. Industrielle Produkte sind immer durch Zerlegung und Rekombination gekennzeichnet, ihr äußeres Merkmal ist die Wiederholung des Gleichen. Diese Organisationsprinzipien des körperlosen Handlungsdenkens sind inzwischen allgegenwärtig und alles durchdringend. Es gibt keinen Bereich unserer Lebenswelt, der sich diesem Prinzip vollständig verweigert. Überall um uns herum finden wir deshalb Dinge, die dadurch erzeugt wurden, dass wir unsere Vorstellungen von ihnen zerlegen und die dazugehörigen Herstellungsprozesse in Sequenzen einfachster Aktionen untergliedern. Die Standardisierung der Bausteine stellt sicher, dass sie anschlussfähig und nahezu beliebig rekombinierbar sind. Sequenzen, bedingte Schleifen, Modularisierungen und Hierarchien sind solche abstrakten Grundelemente unseres Handelns. Es ist vor diesem Hintergrund keine Überraschung, sondern notwendige Konsequenz, dass wir diese Prinzipien und die Spuren, die sie hinterlassen, nicht nur in unseren Computer-Programmen entdecken, sondern auch überall in den Alltagsprodukten und Prozessen unserer technischen Umwelt. Die Analogie zwischen Algorithmen und Alltagswelt wird im vorliegenden Beitrag in zwei nebenläufigen Strängen, in Bild und Text, behandelt. Der Text und die parallel gezeigten Fotografien von Jochen Viehoff arbeiten zwar am gleichen Thema, sie sind aber nicht strikt aufeinander abgestimmt. Ausgangspunkt der Fotografien ist die These, dass wir in Analogie zur digitalen Welt der Computer auch in unserer analogen Alltagswelt vor ähnlichen Herausforderungen stehen und auf ähnliche Strukturen zurückgreifen um Handlungsabläufe zu strukturieren, Prozesse zu steuern und Informationen zu verarbeiten. Diese Übersetzungen von der Algorithmik in die Alltagswelt werden in Bildern festgehalten. Während die Fotografien von Jochen Viehoff also den spannenden Analogien zwischen Programmierung und Alltagswelt nachspüren, stellt der Text die Frage nach der Ursache. Was ist Information, was ist die Essenz von Algorithmen und warum finden wir die gleichen Grundprinzipien sowohl in der Programmierung als auch in der Alltagswelt? Sowohl die Bilder als auch der Text bleiben jedoch eigenständig. Auch ohne explizite Erläuterung werden die Bezüge zwischen sich wiederholenden Linien, die ein Traktor in einem frisch bearbeiteten Feld hinterlassen hat und den Laufschleifen der Programmierung klar. Beide kennzeichnet die nahezu identische aber doch geringfügig abweichende Wiederholung des immer gleichen Vorgangs. Beim geübten Programmierer werden sich vielleicht weitere Assoziationen einstellen, zum Beispiel, dass sowohl das zu bestellende Feld wie Zahlen Felder im Rechner offen lassen, ob sie längs oder quer bearbeitet werden. Schwieriger werden die Assoziationen vermutlich bei Bildern wie dem Anhänger, der eng beladen mit Jahrmarktswagen auf seinen Abtransport wartet. Es setzt einiges theoretisches Wissen voraus, um sofort zu erkennen, dass beim Transport der Transporteure das Umklappen eines Operators in einen Operanden vorliegt. Nicht nur die Logistik verwendet diesen Mechanismus und befördert gelegentlich Objekte, die eigentlich selbst zur Beförderung gedacht sind, auch die Informationsverarbeitung im Rechner behandelt Operatoren (Programme, Befehle) ab und zu wie Operanden (Daten), um sie z. B. durch die Rechnernetze zu befördern. Nicht immer werden die in den Bildern
161
eingefangenen Bezüge zur Informationsverarbeitung und Programmierung also sofort deutlich, ihre Ästhetik ist aber auch nicht angewiesen auf die Interpretation im Kontext der Algorithmik. Umgekehrt ist auch der Text nicht einfach eine Erläuterung der Bilder. Er versucht vielmehr die tiefer liegenden Verbin-dungen zwischen Information und Alltagswelt, Programmierung und Gesellschaft, den Zeichen und den Dingen freizulegen. Was ist Information? Stellen Sie sich einen schweren Hammer vor; der nur darauf wartet, ergriffen und geschwungen zu werden. Und stellen Sie sich einen kräftigen, gelenkigen Mann vor, der nur darauf wartet, den Hammer zu ergreifen, ihn zu schwingen und damit eine schwere Metallplatte zu schlagen, die nun ihrerseits kräftig zu schwingen beginnt. Diese Szene könnte zum Beispiel in einem dunklen Schuppen irgendwo in einem Hinterhof der Stadt spielen, die ansonsten in der Hitze eines sommerlichen Nachmittags vor sich hin döst. Zur selben Zeit gehen Sie ganz in der Nähe durch eine Straße und hören den Hammerschlag, der wie ein Gong ertönt: Das ist eine Information, und alles Weitere mag daraus erschlossen werden.1
162
Ein Mann greift zum Hammer um damit gegen eine schwere Metallplatte zu schlagen. Der Thesaurus der exakten Wissenschaften bemüht zur Einführung des Informationsbegriffs ein beschauliches Bild aus längst vergangenen Tagen. Wir fühlen uns in eine Zeit versetzt, als wir Dinge tatsächlich noch mit unseren Händen bearbeitet und hergestellt haben. Als man noch zu Recht sagen konnte, dass sie ein Werk der Hand seien, auch wenn wir uns schon verschiedener Werkzeuge oder einfacher Maschinen bedienten. Heute sind wir dagegen längst nicht mehr primär mit der Herstellung von handfesten Dingen beschäftigt, sondern mit der Erzeugung, Bearbeitung und Verbreitung von Informationen; von Undingen, wie Vilém Flusser sie nennt. Aber, so könnte man einwenden, Informationen wie auch die damit verbundenen Verarbeitungsprozesse - heute würde man sagen: die Algorithmen - hat es doch immer schon gegeben, in allen Bereichen. Sie waren nie an den Computer gebunden, auch wenn es manchem inzwischen so vorkommen mag. Genau darauf verweist ja das Bild vom Hammer schwingenden Handwerker. Das Bild von körperlicher Arbeit und schwerem Material will trotzdem nicht zu unserer Vorstellung von einer auf Information und Kommunikation aufgebauten Gesellschaft passen. Zu groß ist die Anstrengung, die Metallplatte zum Schwingen zu bringen, zu winzig die resultierende Information.
163
Es ist nicht nur die beschauliche Kleinstadt- und Handwerkeratmosphäre, die uns stört oder der schwitzende Arbeiter, der mechanisch einen Gong erzeugt. Einen jungen, dynamischen Information Broker im Anzug, das Handy zwischen Ohr und Schulter geklemmt, vor sich das Laptop, würden wir leichter akzeptieren. Was viel mehr stört, ist die Nebensächlichkeit der resultierenden Information, ihre Unabsichtlichkeit. Die ausgesandte Nachricht erweist sich bei weiterer Nachforschung wahrscheinlich als lärmendes Nebenprodukt eines handwerklichen Arbeitsvorgangs, anstatt gezielter und differenzierter Kommunikation. Dennoch, die Beschreibung bringt eine Reihe grundlegender Merkmale des Begriffs Information präzise zum Ausdruck. Erstens, Information muss sich in die Materie einschreiben, um übertragbar und wahrnehmbar zu sein. Wenn die Information nicht nur übertragen, sondern auch bewahrt werden soll, muss die Einschreibung sogar dauerhafte Abdrücke im Material hinterlassen. Zweitens, um zur Information zu werden, braucht es einen verständigen Empfänger. Die Nachricht muss dazu auf eine passende “Negativform” im Rezipienten treffen und dort eine sinnstiftende Verbindung mit schon vorhandenem Wissen eingehen. Nur wer den Schlüssel zur Nachricht
164
besitzt, kann ihr auch eine Bedeutung geben. Für den zufälligen Passanten hat der tönende Hammerschlag eine andere Bedeutung, als für den langjährigen Nachbarn. Kurz: Information ist nur, was verstanden wird und je nach Empfänger wird das ganz unterschiedliches sein. Und Drittens, - unsere kleine Geschichte hört hier einen entscheidenden Moment zu früh auf - Information ist nur, was Wirkung zeigt und etwas verändert. Die Stärke der Wirkung ist dabei nicht von der Menge an Information abhängig, sondern ausschließlich von ihrer Relevanz. Würde der Gong beispielsweise immer zur gleichen Zeit ertönen, könnte er signalisieren, dass es so und so spät ist, worauf der Empfänger sich schleunigst auf den Weg nach Hause macht. Die Wirkung ist der eigentliche Grund jeder Information. Je nachdem, welche Informationsprozesse wir uns ansehen, ist die Art der Wirkung sehr verschieden. Bei Menschen und Tieren besteht sie in einer Änderung des Verhaltens, bei Computern in der Auswahl von Operationen und in biologischen Organismen vielleicht in der Reproduktion bestimmter Molekülstrukturen. Die Informationsauswertung kann als Entscheidungsprozess verstanden werden. Eine Nachricht wird erst durch Entschlüsselung zur Information, die Entschlüsselung beruht dabei auf einer Entscheidung zwischen Alternativen. Hier kommen wir auf das Eingangszitat von Robert Frost zurück. Two roads diverged in a
165
wood, and I - I took the one less travelled by. Man kann die meisten Informations- und Entscheidungsprozesse auf Wegegabelsituationen zurückführen. Postulate zur Information Materiell: 1. Information heißt Einprägung von Form in Material. 2. Information ist das Maß, um die Quantität an Form in den Dingen zu messen. Kommunikationsorientiert: 3. Information ist nur was verstanden wird. 4. Information ist nur was eine Entscheidung nach sich zieht und Wirkung zeigt. Wie das Wort “In-formation” schon sagt, geht es also primär um Formen in Dingen. Für Carl Friedrich von Weizsäcker ist Information das Maß, um die Menge an vorhandener Form, Struktur oder Gestalt zu messen. Mittels Informationstechnologien prägen wir der Materie Form auf und unterrichten dadurch - mal gezielt, mal unabsichtlich - Gehirne und Computer. Diese auf solche Weise Informierten treffen daraufhin Entscheidungen, um ihrerseits weitere Handlungen und Aktivitäten zu vollziehen, damit erzeugen sie neue Informationen usw. Das ist die Haupttätigkeit in unserer Informationsgesellschaft. Information ist heute keine Nebensächlichkeit mehr oder gar Nebenwirkung unserer alltäglichen Aktivitäten, sie ist das zentrale ökonomische Produkt. Es macht allerdings einen Unterschied, ob wir Informationsprozesse, die immer schon da waren, nun als solche entdecken und beschreiben, zum Beispiel in der Kommunikationsforschung, der Biologie, Physik und Psychologie, oder ob wir mit technischen Mitteln aktiv neue Informationsprozesse kreieren; auch wenn beide Forschungsrichtungen miteinander verwoben sind. Es ist nicht die naturwissenschaftliche Analyse, sondern vor allem die technische Synthese, die gegenwärtig alle gesellschaftliche Aktivität auf Informationsprozesse hin ausrichtet und damit unser Leben und Erleben maßgeblich prägt. Um die informationsbasierte Ausrichtung unserer “technologischen Zivilisation” zu untersuchen, müssen wir die algorithmischen Prozesse hinter den Informationsströmen in den Blick nehmen. Programmierprinzipien als gesellschaftliche Sedimente Psychostruktur, Organisationsstruktur und Maschinenstruktur sind versteinerte Formen sozialer Beziehungen. Arno Bammé et. al. Wenn Technik der Körper der Gesellschaft ist, wie Bernward Joerges2 feststellt, dann sind Informationsprozesse und Kommunikationsnetze das Nervensystem dieses Körpers. Und so wenig wir direkten Zugriff auf die Struktur unseres eigenen Nervensystems haben, genauso wenig haben wir unmittelbaren Zugang zu den Informationsströmen und Prozessen in technischen Netzen, dafür braucht es besondere Kenntnisse und spezielle Messwerkzeuge. Gleichwohl wissen wir, dass der Aufbau unseres Nervensystems unser Wahrnehmen und Denken, unser in der Welt sein, festlegt. Vor diesem Hintergrund müssen wir uns fragen, wie die inneren Strukturen unseres gesellschaftlichen Nervensystems - die Datenstrukturen, Netze, Algorithmen und Prozesse - die Verfasstheit unserer Gesellschaft mitbestimmen?
166
Die Informationsverarbeitung kennt eine Vielzahl von Informationsträgern und zugehörigen Handlungsroutinen, deren geschichtliche Entwicklung gekennzeichnet ist von fortschreitender Abstraktion und Automatisierung. Am Anfang waren es Wandmalereien, Gebote auf Steintafeln, Fanale aus Rauch und Feuer, später dann Bücher, Telegraphen, Lichthupen und dergleichen. Heute sind es vor allem Kulturtechniken wie formale Systeme, digitale Codes und Programmierung und auf Seiten der Gerätschaften Handys und digitale Computer, mit denen wir Informationen übermitteln und Wissen konservieren. Als Medien betrachtet heben Informationstechnologien Distanzen auf und stellen Wissen auf Dauer bereit. Sie generieren damit ihre eigene Raum-Zeit-Dynamik, innerhalb derer Informationen neu entstehen, transformiert werden, verschwinden und gelegentlich wiederentdeckt werden. Auffällig ist, dass einige Grundprinzipien der Organisation von Arbeitsprozessen weit zurück reichen und sich anscheinend über Jahrtausende wenig verändert haben. Schon die ersten großen Informationssysteme, die in Form von Bürokratien, Priesterschaften und militärischen Verbänden seit den ersten Staatsformen des Altertums eindrucksvoll funktionierten, kannten die hierarchische Organisation als Mittel der effektiven Steuerung komplexer Prozesse. In solchen riesigen Apparaten zur Informationsaufbewahrung, -überlieferung und -anwendung zeigt sich auch unmittelbar die Notwendigkeit, Informationen in doppelter Weise zu verarbeiten. Einmal gehört es zum Zweck solcher Organisationen, Informationen zu sammeln, sie zu strukturieren und zur Verfügung zu stellen. Andererseits ist interne Information für die Aufrechterhaltung der Organisation selbst von entscheidender Bedeutung. Jedes sich selbst stabilisierende System verfügt über Rückkopplungen und registriert seinen eigenen inneren Zustand, um bei Problemen rechtzeitig gegensteuern zu können. Diese Meta-Informationsprozesse, sind für das Überleben gesellschaftlicher Institutionen genau so wichtig, wie für moderne vernetzte und heterogene Informationstechnologien. Informationsverarbeitung findet immer gleichzeitig auf zwei Ebenen statt: 1. Externe Informationen werden registriert, gesammelt, strukturiert, verarbeitet und ausgegeben. 2. Interne Informationen dienen der Aufrechterhaltung des Systems. Informationen über den Zustand der Verarbeitung werden registriert und erhalten über Rückkopplungsmechanismen den Prozess aufrecht. Sowohl durch die kleinen privaten Informationsarchive, die heute jeder zwangsweise pflegt (Bilder, Zeugnisse, Dokumente, Programmhefte, Telefonbücher etc.), wie auch durch die großen gesellschaftlichen Verwaltungsapparate, mit denen wir - meist unwillig - kommunizieren (Finanzämter, öffentliche Transportsysteme, Stadtverwaltungen, Krankenkassen etc.), ist jeder, auch ohne eigenen Computer, mit den elementaren Organisationsprinzipien der Speicherung, Übertragung und Verarbeitung von Information konfrontiert. Jeder hat unterschiedliche elementare Grundprinzipien selbst hundertfach angewendet, etwa beim Lesen eines Fahrplans, der Sortierung von Zahlen, der lexikalischen Suche nach einer Nummer im Telefonbuch oder dem Ausfüllen von Formularen. Komplexe Datenstrukturen wie Listen, Bäume und Zeiger sind in computerfernen alltäglichen Handlungsroutinen ebenso zu finden wie grundlegende Verarbeitungsmechanismen. Jeder kennt Alltagsroutinen, bei denen bestimmte
167
Tätigkeiten wiederholt ausgeführt werden müssen, wobei jedes Mal der Arbeitsfortschritt im Vergleich zum letzten Durchgang zu prüfen ist. Der Vorgang wird dann so lange wiederholt, bis das gewünschte Resultat erreicht ist. Dieser Alltagsmechanismus ist gleichzeitig wichtige Grundfigur der Ablaufsteuerung in der Programmierung. Woran liegt es, dass bestimmte Organisations- und Verarbeitungsmuster allen technischen Fortschritt überdauert haben um nun auch im Computer ihren Niederschlag zu finden? Die überzeugendste Erklärung für die Allgegenwart und Langlebigkeit grundlegender Organisationsstrukturen geht von der Abstraktion als gemeinsamen Ursprung aller Prinzipien aus. Abstrahieren heißt durch Abziehen des Zufälligen und Fluktuierenden sich zur allgemein gültigen Grundstruktur von Phänomenen vorzuarbeiten. Methoden sind in diesem Verständnis allgemein anwendbare Regeln für unser Handeln, die es gestatten, aus unendlich vielen Handlungsalternativen die erfolgreichste auszuwählen. Bereits geleistete Verständnisarbeit wird funktionalisiert und zum erlernbaren Erkenntnisbesitz und übertragbaren Verfahren. “Formalisierung ist nichts anderes als die handlichste Art solcher Funktionalisierung des einmal Geleisteten; aber sie ist eben auch potentiell schon Technisierung, denn was formalisiert werden kann - das heißt: was seine Anwendbarkeit unabhängig von der Einsichtigkeit des Vollzuges gewinnt -, das ist im Grunde auch schon mechanisiert, auch wenn die realen Mechanismen zu seiner Speicherung und geregelten Assoziation nicht bereit gestanden haben. Alle Methodik will unreflektierte Wiederholbarkeit schaffen, ein wachsendes Fundament von Voraussetzungen, das zwar immer mit im Spiele ist, aber nicht immer aktualisiert werden muss.”3 Die grundlegenden Prinzipien der Informationsverarbeitung sind zu Methoden geronnene Resultate mechanistischen Denkens und einer rationalen Einstellung zur Welt. Methoden sind allgemein anwendbare Regeln für unser Handeln, die es gestatten, aus unendlich vielen Handlungsalternativen die angemessene auszuwählen. Sind solche durch Abstraktion herausgeschälten Methoden formalisiert, nennen wir sie Algorithmen. Algorithmen sind entkörperlichte Handlungsmuster ehemals kontextgebundener Abläufe. Bereits geleistete Verständnisarbeit wird durch Algorithmen funktionalisiert und zum erlernbaren Erkenntnisbesitz und auf Maschinen übertragbaren Verfahren. Die Abstraktion als Grundprinzip des mechanistischen Denkens ist nach Alfred SohnRethel aber nicht a priori gegeben, sondern hat ihren Ursprung selbst wieder im gesellschaftlichen Sein. Nach Sohn-Rethel sind die Erkenntnisprinzipien “Vergesellschaftungsformen des Denkens, die ein Individuum von genügender Intelligenz und Schulung befähigen, sich eines begrifflich unabhängigen Intellekts oder Verstandes zu bedienen, der für die Gesellschaft denkt. Dem Individuum selbst allerdings, zumal dem modernen, erscheint sein vergesellschaftetes Denken im Gegenteil als Leistung seines, dem Ursprung nach zwar mysteriösen (gottgegebenen und doch gottverneinenden), der Logik nach aber autonomen und ihm ureigenen ego cogitans. Unserer Erklärung gemäß sind jedoch diese Kategorien gesellschaftlich vorgeformt und daher
168
so, wie sie ans Individuum gelangen, ihm in fertiger (aber darum noch lange nicht unmittelbar identifizierbarer) Form gegeben, also tatsächlich Kategorien a priori und auch für alle Individuen dieser Gesellschaft natürlich identisch dieselben.”4 Die Autoren des Buchs Maschinen-Menschen, Mensch-Maschinen argumentieren in ähnlicher Weise. Sie gehen davon aus, dass es ein gemeinsames Drittes gibt, das sowohl den Menschen als auch die Maschine prägt. “Dieses gemeinsame Dritte sind historisch-gesellschaftliche Strukturprinzipien, die, vermittelt über ständig sich wiederholende Interaktionen, zur Psychostruktur sedimentieren und sich in Maschinerie und Organisationsstruktur vergegenständlichen. Psychostruktur, Organisationsstruktur und Maschinenstruktur sind versteinerte Formen sozialer Beziehungen.”5 Wie können nun aber die Ergebnisse der Abstraktion, die Algorithmen, die ja zunächst geistige Substrate sind, auf Maschinen übertragen werden? Dazu müssen die Denkvorgänge in maschinelle Handlungsprozesse übersetzt werden. Den Zeichensystemen kommt dabei als Vermittlungsinstanz eine entscheidende Rolle zu. Wie die Praxis zeigt, sind die Entkörperlichungen menschlicher Handlungsmuster und ihre
169
Übertragungen auf Maschinen für nahezu alle gängigen Produktionsprozesse sogar überraschend problemlos möglich. Vereinfacht können wir sagen, die Übertragung von Handlungsmustern auf Maschinen gelingt immer dann, wenn sich 1. die Handlung in eine Folge von elementaren und rekombinierbaren Teilaktivitäten zerlegen lässt, und 2. der Kontext so eingeschränkt werden kann, dass alle Entscheidungsalternativen, die im Handlungsverlauf auftreten können, sich prinzipiell schon vorher absehen lassen. Sofern konkrete Aufgabenstellungen dieses Vorgehen erlauben, können wir mittels Programmierung selbständig handelnde Objekte realisieren, deren jeweiliges Handlungsschema nicht schon fest in die materielle Konstruktion des Objekts eingeschrieben wird, sondern als Information von außen übermittelt. Wir informieren Maschinen und delegieren auf diese Weise Handlungen. Die Intention kommt zwar nach wie vor vom Menschen, der die von ihm beabsichtigte Handlung vorab gedanklich vollzieht und detailliert plant. Der Entwurf ist aber nur der erste Teil jeder Handlung. Den Handlungsvollzug, also die Ausführung der einzelnen Handlungsschritte, können wir, sobald der Entwurf in geeignete Beschreibungen gefasst ist, den Maschinen überlassen.
170
Zusammenfassend können wir sagen: Auch wenn die privaten wie öffentlichen Informationsmengen in jüngster Zeit drastisch angewachsen sind, war unsere Welt schon lange vorher durchdrungen von Zeichen, Nachrichten und Informationsprozessen. Mehr noch, die hinter den digitalen Technologien stehenden Organisations- und Verarbeitungsprinzipien wurden nicht erst für die elektronische Maschine erfunden, sondern sind grundlegende Resultate menschlicher Abstraktion, die ihren Ursprung im gesellschaftlichen Sein hat. Sequenzen, bedingte Schleifen, Modularisierungen und Hierarchien sind Abstraktionen unseres Umgangs miteinander und mit den Dingen. Es ist deshalb keine Überraschung, dass wir diese Prinzipien nicht nur in Computer-Programmen entdecken, sondern auch überall in den Alltagsprozessen unserer technisierten Umwelt. Die Tätigkeit des Abstrahierens zerlegt zielgerichtete Handlungen immer in Folgen elementarer, rekombinierbarer Teilaktivitäten. Sobald wir in unserer Umgebung viel vom Gleichen sehen, ist das ein erstes Indiz für das Vorliegen entkörperlichter Handlungsmuster. Die Abstraktion von Handlungen und ihre anschließende Übertragung in Artefakte führen zu Baukastensystemen, mit denen beliebig komplexe Artefakte und Handlungen aus sich wiederholenden Grundelementen zusammengestellt werden. Baustoffhandlungen und Programmiersprachen wurzeln damit im gleichen UrPrinzip. Was ist dann aber neu und anders an den digitalen Informationen und ihrer elektronischen Verarbeitung? Inwiefern sind Informationen heute undinglicher als früher und finden dann überhaupt gesellschaftlich relevante Verschiebungen durch die Informationstechnologien statt? Zeichen & Algorithmen Wir haben in Software eine besondere Art von Zeichen vor uns. Diese Zeichen werden stets und ständig und unausweichlich auf doppelte Weise interpretiert, vom Menschen einerseits, vom Computer andererseits, gleichzeitig und konkurrierend. Frieder Nake, Das algorithmische Zeichen6 Eine Möglichkeit, das Neue am Computer zu charakterisieren, bietet die semiotische Betrachtungsweise von Information, die Zeichen mit de Saussure in Signifikanten (Bezeichnern) und Signifikate (Bezeichnetem) unterteilt. Wenn wir elektronische Rechner als einen Maschinentyp verstehen, der Zeichen automatisch verarbeitet, dann fällt die erste Neuerung auf der Seite der Signifikanten ins Auge, also auf der materiellen Seite der Zeichen. Im Vergleich zu herkömmlichen Zeichen, etwa Texten, Fotografien, Verkehrsschildern oder Uniformen, verlieren die elektronischen Inhalte ihre unmittelbare Stofflichkeit und Greifbarkeit. Das liegt daran, dass die digitalen Informationen keine festen Bindungen mehr mit dem Material eingehen, wie es noch Druckerschwärze und Papier getan haben. Feste Gegenstände werden ausgetauscht gegen flüchtige Oberflächen. Möglich ist dies, weil wir nicht mehr mit herkömmlichen Formen arbeiten, sondern mit trickreichen Janusformen. Wir zerlegen die Formen in zwei Formanteile, einen der Maschine zugewandten und einen dem Menschen
171
zugewandten Formanteil. Die der Maschine zugewandte Form besteht aus zwei einfachen Prägestempeln, die wir 0 und 1 nennen. Dieses Zweigespann ist insofern universell, als sich beliebig komplexe Formen damit prägen lassen. Die Universalität wird durch Wiederholung der zwei Grundformen erreicht, wobei die eigentliche Information durch die Stellung der Elemente zueinander definiert ist. Elektronische Informationsträger sind Gefäße, um die der Maschine zugewandten Formelemente aufzunehmen. Das ist der erste, aber nicht der einzige Dualismus der Maschine. Zwar müssen auch die dualen Grundformen 0 und 1 ins Trägermaterial eingeprägt werden, aber die Prägung bleibt flüchtig. Elektronische Speicherzellen sind gewissermaßen Metaformen, die wahlweise die eine oder die andere Grundform annehmen können. Wir müssen uns nicht mehr entscheiden, welchen Abdruck wir auf Dauer hinterlassen, sondern können im zeitlichen Nacheinander beliebig oft Umprägungen vornehmen. Der massenhafte Konsum elektronischer Informationen ist deshalb nicht mehr direkt an den Verbrauch von Material gekoppelt, wie zum Beispiel die Printmedien, sondern an den Verbrauch von Energie, die für das Umprägen der Binärzustände benötigt wird. Durch diese Leichtigkeit der Form erreichen wir, dass die Informationen mühelos durch die Computernetze wandern, sich dabei ohne ersichtliche Anstrengung beliebig oft vervielfältigen oder spurlos auslöschen. Das Ergebnis sind flottierende Informationen, die nicht dingfest zu machen sind, sondern als Muster für nur kurze Momente an den Oberflächen der Maschine aufscheinen. Sie sind ungreifbar wie Licht-, Rauch oder Schallsignale, trotzdem kennzeichnet sie nicht deren Flüchtigkeit, sie sind durch Magnetisierungen, Spannungsdifferenzen und Ähnlichem dauerhaft verfügbar und jederzeit auslesbar. Diese Doppelexistenz führt zu einer Zweiteilung der Informationsstrukturen, den sichtbaren Formen an der Oberfläche und den verborgenen Binärmustern im Inneren der Maschine. Computerbasierte Information ist janusköpfig, sie besteht aus zwei Formen, einer der Maschine und einer dem Menschen zugewandten Form. Die flottierenden 0-en und 1-en, deren Dualität ausgewählt wurde, weil sie für das innere Spiel der Maschine besonders geeignet ist, haben für den Menschen weder unmittelbare Bedeutung, noch sind sie im Rechner direkt zugänglich. Selbst wenn wir die Deckel der Maschinen abschrauben, kommt nicht die gesuchte Information zum Vorschein. Es macht keinen visuellen, akustischen oder taktilen Unterschied, ob eine Speicherplatte voll oder fabrikneu leer ist. Selbst wenn wir wissen, dass eine bestimmte Information da sein muss, lässt sie sich nicht ohne weiteres lokalisieren. Nur die Maschine selbst kennt das Ordnungsschema und die aktuelle Verteilung der Informationsfragmente, nur die Routinen der Maschine haben direkten Zugriff auf die binären Muster. Um zur Information für den Nutzer zu werden und Wirkung zu entfalten, müssen Informationen aus dieser ersten maschinellen Existenz in eine zweite, dem Menschen verstehbare Existenz zurücktransformiert werden. Dazu werden sie von der Maschine selbst decodiert und in den Interfaces (Computerbildschirmen, Lautsprechern, Greifarmen etc.) ein zweites Mal realisiert. Erst dieses zweite Gesicht der digitalen Informationen, die im Interface erzeugten Bilder, Töne, Texte und
172
Bewegungen entfalten ihre Bedeutungen für den Benutzer. Versagen die Zugriffsroutinen oder ist das Interface defekt, bleibt die Information unzugänglich und wertlos, die Angelegenheit wird zum digitalen Notfall. Gleichzeitig wissen wir, dass das auf der Oberfläche angezeigte nicht das Wesentliche ist, sondern das dynamische Spiel der Muster im Inneren, welches sich scheinbar mühelos verwirklicht und jeder Beobachtung entzieht. Das macht die seltsame Undinglichkeit der digitalen Information aus. Computerbasierte Information flottiert, sie geht keine festen Verbindungen mit dem Material ein und bewegt sich scheinbar mühelos durch die Netze. Sie ist flüchtig und taucht nur für kurze Momente an den Oberflächen der Maschine auf. Nur dort ist sie für den Benutzer wahrnehmbar, interpretierbar und damit potentiell bedeutsam. Die erste Neuerung im Digitalen schreiben wir also den Signifikanten zu, d. h. den gerade beschriebenen flottierenden Binärmustern. Die Janusform der digitalen Information macht mit ihrer Leichtigkeit und Agilität einen beträchtlichen Teil der digitalen Mächtigkeit aus. Es stellt sich heraus, dass computerbasierte Informationen aber noch raffinierter sind als bisher beschrieben. Nicht nur die medialen Inhalte werden nämlich als Binärmuster codiert, sondern auch ihre Verarbeitungsroutinen. Digitale Codes informieren so nicht mehr nur Menschen, sie informieren auch die Maschinen. Handlungen sind damit nicht mehr auf den Menschen beschränkt, sondern vollziehen sich in hybriden Konfigurationen aus Menschen, Dingen und Zeichen. Dieses Verhältnis ist zunehmend durch die Ausweitung der Eigenaktivität der Dinge und Zeichen geprägt. Die entscheidende Neuerung am Computer besteht darin, dass das konkrete Denk- und Handlungsmuster nicht schon im Entwurf strukturell verwirklicht werden muss, sondern mit dem Prinzip der Programmierbarkeit eine Metaform gefunden wurde, in die sich alle denkbaren entkörperlichten Handlungsschemata durch einfache Zeichenfolgen nachträglich und immer wieder neu einschreiben lassen, ohne dass wir dazu erneut in die innere Struktur der Maschine eingreifen müssen. Wir bauen die konkreten Verarbeitungsprozesse also nicht mehr direkt in die Maschinenstruktur ein, sondern informieren die Maschine darüber, was sie tun soll. Mit dem Konzept der universellen Programmierbarkeit konnten wir mittlerweile mehr als fünfzig Jahre lang experimentieren und Erfahrungen sammeln. In dieser Zeit hat sich ein zweiter Qualitätssprung angebahnt, der gerade zur vollen Entfaltung ansetzt. Die ursprünglich monolithischen Computer (ein Rechner - ein Programm) werden durch die Vernetzung und Vervielfältigung software-basierter Aktivitätsträger zu immer komplexeren sozio-technischen Handlungssystemen. Die zunehmende Eigenaktivität technischer Artefakte und die damit einhergehende Verteilung von Aktivitäten auf Artefakte, Menschen und Symbolsysteme bedeuten einen drastischen Bruch zu herkömmlichen, eher singulären und instrumentellen Mensch-MaschineInteraktionsmustern. Sobald mobile Softwareeinheiten situationsbedingt auf vernetzte Artefakte verteilt werden können, dabei relativ autonom agieren und untereinander sowie mit den Nutzern nach kooperativen und nicht nach hierarchischen Mustern
173
Informationen austauschen, entstehen einerseits zwar ernsthafte Kontrollprobleme, andererseits aber auch neue Freiheitsgrade. Zwar haben wir es im Einzelnen noch mit Algorithmen zu tun, ihre massive Vervielfachung, die zunehmende Selbstorganisation der einzelnen Einheiten, ihre verschränkte und kooperative Arbeitsweise und nicht zuletzt ihre in den Interfaces stattfindende Rückbindung ans analoge Material führt zu neuen Qualitäten und kontingenten Handlungsräumen. Durch diese Erweiterungen arbeiten sich die Algorithmen gleichzeitig zunehmend ins Organische vor. Als allgemeine Form der Beschreibung von Abläufen, wird der Algorithmenbegriff gegenwärtig für all jene Naturwissenschaften zentral, die daran interessiert sind, ihre Erkenntnisse für die Synthese nutzbar zu machen, also vom bisherigen analytischen Verstehen in die technische Realisierung zu wenden. Universelle Programmierbarkeit bedeutet, dass wir das Verhalten nicht mehr fest in die Struktur der Maschine einbauen, sondern sie durch Codes (Programme) darüber informieren, was sie konkret leisten soll. Das Programm ist die konkrete, auf eine spezielle Maschine zugeschnittene Realisierung des abstrakten Algorithmus.
174
Die zweite Neuerung des digitalen Verarbeitungsschemas - hier knüpfen wir wieder an die semiotische Sichtweise zu Beginn des Abschnitts an - lässt sich demnach auf die Signifikate zurückführen und damit auf die Frage, für wen die binären Zeichenfolgen etwas bedeuten. Neben die Menschen als bisherigen Informationserzeuger und -verarbeiter treten hier die Maschinen. Wahrnehmung und Bedeutung der Dinge In der Nähe unseres Ferienhauses in Tisvilde wohnt ein Mann, der hat über der Eingangstür seines Hauses ein Hufeisen angebracht, das nach einem alten Volksglauben Glück bringen soll. Als ein Bekannter ihn fragte: “Aber bist du denn so abergläubisch? Glaubst Du wirklich, dass das Hufeisen dir Glück bringt?”, antwortete er: “Natürlich nicht; aber man sagt doch, dass es auch dann hilft, wenn man nicht daran glaubt.” Werner Heisenberg Seit den Anfängen der Automatisierung haben Maschinen nicht mehr aufgehört, Berge gleichförmiger Produkte auszuwerfen. Mit der programmierbaren Maschine sind wir in eine neue Phase eingetreten. Maschinen wie auch Dinge des Alltags
175
werden zunehmend zu autonomen, interagierenden Handlungsobjekten, sie bieten nicht einfach nur eine Reihe von Funktionen an, sondern avancieren zu komplexen Mitspielern. An dieser Stelle schließt sich der Kreis zum Eingangsbild. Wir wissen, dass die Kraft, um schwere Metallplatten in Form zu bringen, schon lange nicht mehr aus menschlichen Muskeln kommt, sondern ganz selbstverständlich aus den Maschinen. Nur so war die ungeheuere Produktivitätssteigerung des Industriezeitalters möglich. Bereits 1987, also am Übergang zum so genannten Informationszeitalter schrieb Norman MacRae im International Herald Tribune, dass in den 40 Jahren seit dem zweiten Weltkrieg siebenmal mehr Güter produziert wurden, als während der gesamten Kulturgeschichte der Menschheit.7 Die Explosion der Dinge wurde bis dahin vor allem von der westlichen Weltbevölkerung bewerkstelligt. Heute, da inzwischen China, Indien und andere (derzeitige) Billiglohnländer in die Produktionsprozesse eingegriffen haben, ist die Dingwelt im Vergleich zu 1987 noch einmal exponentiell angewachsen. Dabei ist nur noch als monetäre Rechengröße interessant, ob die Produkte von programmierten Maschinen oder programmierten Billiglohnarbeitern hergestellt werden, das Programmierprinzip, d. h. die Abstraktion, Zerlegung und Re-Synthese von ehemals kontextgebundenen Handlungsketten, ist längst global etabliert. Arbeiter funktionieren wie Maschinen, sie sind die biologischen Aktivitätsträger algorithmischer Prozesse, die es wie Computeralgorithmen im Hinblick auf Effizienz und Zuverlässigkeit zu optimieren gilt. Sicher ist auch, dass selbst bei handwerklich hergestellter Massenware, sobald sie global gehandelt wird, in vielfältiger Weise Algorithmen und digitale Informationsprozesse beteiligt sind. Nur so sind die benötigten Infrastrukturen bereitzustellen und die gewaltigen Produktströme in den Griff zu bekommen. Der Zuwachs an Dingen, die uns heute überall die Welt verstellen, geht zwangsweise mit einem umgekehrt proportionalen Verlust ihrer Bedeutung einher, da wir unsere Zuwendung und Verbundenheit nicht in gleicher Weise vervielfältigen können. Je mehr Dinge uns umgeben, desto weniger Wertschätzung erfährt - im Mittel das einzelne Ding. Der Trend bei den Kosten scheint das auf eigentümliche Weise zu bestätigen. Während Informationen sich verteuern, werden Dinge massenhaft verramscht. Die Macht von Staaten bemisst sich längst nicht mehr an ihren materiellen Produktionsmöglichkeiten - wie das Beispiel der europäischen Agrarpolitik bestätigt, die schon vor längerem dazu übergegangen ist, die Nicht-Produktion finanziell zu belohnen -, sondern am Besitz von Wissen. Technologisches Wissen, medizinisches Wissen, organisatorisches Wissen, usw. - Wissen und funktionierende Organisationsprozesse sind heute die politisch, ökonomisch und sozial entscheidenden Faktoren. Die exponentiell ansteigende Verfügbarkeit technisch hergestellter Produkte steht im umgekehrten Verhältnis zu ihrer Bedeutung. Je mehr Dinge uns umgeben, desto weniger Wertschätzung erfährt das einzelne Ding. Gesellschaftliche Macht wird als Folge nicht mehr durch den Besitz von Produktionskapazitäten garantiert, sondern durch das dahinterstehende Wissen.
176
Die Wissenschaft betrachtet Organisationen wie Organismen heute aus systemtheoretischer Sicht als Zusammenfassungen verschiedener Elemente, die zueinander in relationalen Beziehungen stehen. Komplexe Informationsprozesse laufen aus der abstrakten Sicht der Systemtheorie nicht nur in den Tiefenstrukturen von Informations- und Kommunikationstechnologien ab, sondern genauso im Inneren von Zellen und Nervensystemen oder in sozialen und ökonomischen Netzwerken. Als dynamische Systeme, gleichviel ob sie für Natur, Technik oder Gesellschaft stehen, sind sie immer schon durch das Prinzip einer inneren Informationsorganisation und -verarbeitung gekennzeichnet. Solche Systeme können bekanntlich nur stabil und dauerhaft existieren, wenn zwischen den Elementen ein funktionierender stofflicher, energetischer und informationeller Austausch besteht. Durch die Systemsicht der Wissenschaft gelingt es, Informationsprozesse in den Fokus zu nehmen, die vorher unentdeckt geblieben waren, weil sie sich durch oberflächliche Betrachtungen so wenig erschließen, wie der Informationsfluss einer Universität aus ihren Gebäuden, Büros, Vorlesungsräumen und Einrichtungsgegenständen. Für physikalische und biologische Abläufe sind wir noch dabei, die Informationsprozesse vollständig zu verstehen. Auch wenn diese Prozesse nicht ohne weiteres sichtbar werden, ist ihre Existenz unumstritten. Dabei vergessen wir manchmal, dass auch schon auf den Oberflächen der Alltagsgegenstände - also direkt vor unseren Augen, Ohren und Nasen - ein reichhaltiger Informationsaustausch stattfindet. Damit sind gerade nicht die Inhalte technischer Medien gemeint, die explizit für den gezielten Informationsaustausch erzeugt und dementsprechend möglichst auffällig präsentiert werden, sondern die ganz gewöhnlichen Alltagsgegenstände in unserer Umgebung. Der intendierte, geplante Informationsaustausch mittels vielfältiger Informationstechnologien ist heute meist bunt, schreiend und vordergründig. So ist das Blickfeld im innerstädtischen Raum mittlerweile mit konkurrierenden Informationsangeboten förmlich zugestellt. Allerorten wird durch vielfältige Informationsangebote versucht, Fernwirkungen zu erzielen und aktuelle oder zukünftige Entscheidungen zu beeinflussen.8 Wenn, wie oben dargestellt, Informationen immer im Zusammenhang mit Entscheidungsprozessen stehen, dann sind unsere Umgebungen heute aufgeladen mit Entscheidungsaufforderungen, die niemand mehr leisten kann, die andererseits aber auch niemand leisten braucht, weil sie für unser Verhalten in den konkreten Situationen, in denen sie sich uns anbieten, in der Regel vollkommen irrelevant sind. Solchen aufdringlichen, in ihrem Anliegen leicht zu durchschauenden Mitteilungen, steht die Welt der Alltagsdinge gegenüber, die eine andere Sprache sprechen. Die meisten der uns umgebenden Objekte bleiben für uns unlesbar, erst in der einfühlenden Beschäftigung mit ihnen erreichen wir - und auch dann nur partiell - ein gewisses Verständnis. Die richtige Wahrnehmung der Dinge ist also nicht schon durch ihre Gegenwart gesichert, sondern braucht entweder den ausdrücklichen Verweis - so wie das Strychninfläschchen den Verweis auf seine Giftigkeit benötigt - oder die Aneignung durch wiederholte Benutzung, was im Falle des Strychnins nicht zu empfehlen ist. Die reduzierte Wahrnehmung der Alltagsdinge beruht auf unseren Erwartungshaltungen und einem oberflächlichen Umgang mit ihnen. Die tiefergehende Wahrnehmung dagegen setzt langsame Informationsprozesse voraus.
177
Die Heideggersche Nähe des Dings, die alle Wahrnehmungen mit einschließt, die sich erst im täglichen Gebrauch offenbaren, braucht Zeit und Einlassung, um sich zu entwickeln. Damit verbunden ist auch der für jede praktische Arbeit wichtige Eigensinn der Dinge, über den der Nutzer ebenfalls erst im dauerhaften Umgang erfährt. Vollständig erschließen lassen sich die Alltagsgegenstände aber weder aus der unmittelbaren Wahrnehmung noch durch wiederkehrende Handhabung und Einfühlung. Neben der materiellen Erscheinungsform und der zweckgerichteten Funktion besitzen sie immer auch weitere Bedeutungsdimensionen. Dinge sind immer Medien nichtsprachlicher Kommunikation und als solche werden sie im Alltag, zum Beispiel als Träger von Botschaften über die Eigenschaften und den Status des Besitzers, vielfach eingesetzt. Fetische sind ein anderes Beispiel für die Vielschichtigkeit von Gegenständen. Den Hufeisen wird ein vom Glauben seines Besitzers unabhängiges Wirkungsvermögen zugestanden, ihnen sollen objektive Kräfte innewohnen. Fetische wirken deshalb selbst dann, wenn man nicht an sie glaubt.
178
Um solche Bedeutungen zu verstehen, müssen wir die Gegenstände lesen lernen. Wir müssen dazu die sozialen Übereinkünfte kennen, die an die Dinge geheftet oder ihnen dauerhaft übergestülpt sind. Die Semiotik hat uns demzufolge auch nie weggeführt von den Dingen, sondern - im Gegenteil - schon immer den Weg zum Eigentlichen der Dinge gezeigt. Auch wenn manche Zeichen kulturübergreifend verstanden werden, zum Beispiel Rauch als Zeichen von Feuer, finden die meisten Bedeutungszuweisungen im Rahmen kulturspezifischer Konventionen statt. Das Besondere solcher historisch und kulturell determinierter Bezüge ist ihre Unbeständigkeit, die dazu führt, dass Dinge in bestimmten Situationen und zu bestimmten Zeiten bedeutungsvoll sind, in anderen Zusammenhängen wieder nicht. Henri Lefebvre hat das als ein wiederholtes Loslösen der Dinge von den Bedeutungen beschrieben. Die Problematik der ephemeren Zuschreibungen ist aber andererseits eine wesentliche Voraussetzung für den kreativen Umgang mit den Dingen, die es uns erlaubt immer wieder neue Bedeutungszuweisungen vorzunehmen. Erst diese lose Verbindung zwischen Zeichen und Bedeutung ermöglicht es, die Dinge jeweils neu mit unserer sich ebenfalls
179
verändernden Vorstellungswelt zu verbinden und so immer wieder Überraschendes in den Dingen zu entdecken. Die Verbindungen zwischen Dingen und Bedeutungen unterliegen kulturellen Konventionen. Es handelt sich um befristete Zuordnungen, die sich auflösen und neu formieren können. Sowohl die Verarbeitungsprozesse im Computer, als die Bedeutungszuweisungen in der Alltagswelt der Dinge, sind semiotischer Natur. Genauso, wie wir lernen müssen Programme zu lesen, müssen wir lernen, die Dinge, die uns umgeben, zu lesen. Eine Lesart, die gleichermaßen auf die Verarbeitungsprozesse im Computer wie die Alltagswelt angewendet werden kann, ist ihre Betrachtung unter dem Gesichtspunkt der entkörperlichten Handlungsketten, da nicht nur Algorithmen, sondern auch die gesamte industrielle Produktion und damit ein Großteil unserer Umwelt auf diesem Prinzip beruhen. Zu beachten ist allerdings, dass Bedeutungen, die wir in den Dingen um uns herum zu erkennen glauben, immer zwei Ursachen haben können. Sie können objektiv (messbar) existieren oder es kann sich um assoziative Zuschreibungen
180
handeln. Die Betrachtung der Natur unter dem Gesichtspunkt des technischen Designs, macht die Problematik deutlich. Die Anhänger der Intelligent Design-These sind überzeugt, dass viele Merkmale der Natur am besten durch eine intelligente Ursache, also als bewusster Herstellungsprozess, erklärt werden können. Holzwege Holz lautet ein alter Name für Wald. Im Holz sind Wege, die meist verwachsen jäh im Ungegangenen aufhören. Sie heißen Holzwege. Jeder verläuft gesondert, aber im selben Wald. Oft scheint es, als gleiche einer dem anderen. Doch es scheint nur so. Holzmacher und Waldhüter kennen die Wege. Sie wissen was es heißt, auf einem Holzweg zu sein. Martin Heidegger, Holzwege Lange vor den Informatik-Forschungsprogrammen zu Pervasive und Ubiquitous Computing waren die Grundmechanismen der Informationsverarbeitung bereits flächendeckend im Alltag installiert. Der informierte Beobachter kann sie schon lange überall in den Alltagsdingen und den Handlungsmustern seiner Umgebung registrieren. Was nun noch hinzukommt, ist die Eigenaktivität der Dinge. Der im Umgang mit
181
Informationsstrukturen und Algorithmen routinierte Verstand wird den jeweiligen Beobachtungen andere Bedeutungen zuschreiben können als der Ungeschulte. Es muss jeweils am einzelnen Phänomen entschieden werden, ob es sich um bloße Metaphern und Assoziationen handelt oder um echte Anzeichen versteckter algorithmischer Prozesse. Was wir bei technischen Artefakten sehen, sind jedenfalls immer materielle Abdrücke geistiger Prinzipien. Wie eingangs festgestellt, hinterlassen algorithmische Routinen durch ihre Handlungsobjekte und -subjekte zwangsweise Spuren im Material. Diese Strukturen kann nur sehen, wer in der Lage ist, einen Schritt zurückzutreten und die ihnen innewohnenden Abstraktionen erneut zu vollziehen. Nur über Abstraktion sind algorithmische Alltagsbilder zu erschließen. Vom Kommunikationswissenschaftler Paul Watzlawick stammt der Spruch: “Wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel.” Den Leser könnte der Verdacht beschleichen, dass hier überall Algorithmen gesehen werden, wo überhaupt keine am Werke sind. Wir denken, es könnte umgekehrt sein. Da die Mehrheit nur vage Vorstellungen von Begriffen wie Information und Algorithmus hat und es kein breites Verständnis grundlegender Mechanismen gibt, sind sie in unserer alltäglichen Umgebung auch nur schwer zu entdecken. Die Organisationsprinzipien des körperlosen Handlungsdenkens sind aber allgegenwärtig und alles durchdringend. Überall um uns herum finden sich Dinge, die erzeugt werden, indem wir die Vorstellungen von den Gegenständen in elementare Bausteine und die dazugehörigen Herstellungsprozesse in Sequenzen einfachster Aktionen zerlegen. Durch Standardisierung werden die einzelnen Bauteile anschlussfähig und nahezu beliebig rekombinierbar. Bei komplexen Artefakten und Herstellungsprozessen kommen weitere Organisationsprinzipien wie Modularisierung und Hierarchisierung zum Einsatz. Computerprogramme sind genauso wie technische Artefakte aus elementaren Bausteinen zusammengesetzt. Die standardisierten Bauteile sind anschlussfähig und vielfältig rekombinierbar. Komplexe Programme wie komplexe technische Produkte werden durch Hierarchisierung und Modularisierung handhabbar. Die Fragmentierung ist den technischen Produkten genauso anzusehen, wie den zugehörigen Herstellungsprozessen, die sich beide durch Wiederholungen des Gleichen auszeichnen. Zerlegung und Rekombination kennzeichnen heute Dinge und Prozesse gleichermaßen. Abläufe im Alltag lassen sich präzise vorstrukturieren, indem der Aktionsrahmen so weit eingeschränkt wird, dass alle Entscheidungsalternativen, die im Handlungsverlauf auftreten können, sich schon vorher lückenlos antizipieren lassen. Die Ausführung selbst erfordert dann kein Denken mehr, sondern nur noch regelbasiertes Entscheiden. Wie die Wege im Wald, so verlaufen algorithmische Prozesse auf einem starren Netz vorher angelegter Pfade. Alle Gabelungen, auf die der Waldspaziergänger stößt, gehören zu einem wohldurchdachten System und nur dem Orts-Unkundigen erscheinen sie als echte Entscheidungsalternativen. Algorithmen sind die Verkehrsnetze für den kontrollierten Fluss von Informationsströmen.
182
Was Programme nicht können, ist mit den Unwägbarkeiten jenseits der festen Wege umzugehen. Das unbegangene Gelände am Ende der Holzwege ist der algorithmischen Behandlung nicht zugänglich. Feste Wege sind dort nicht mehr vorhanden, diese entstehen erst im Laufe der Erkundung durch wiederholtes Begehen. Diese Wege zu denken und anzulegen bleibt in der menschlichen Verantwortung. Die Entwicklung menschlicher und maschineller Möglichkeiten sind zwei Seiten einer Medaille. Es sind nicht nur alleine die Maschinen, die an die Zwecke des Menschen angepasst werden, ebenso prägt mit fortschreitender Technisierung das Maschinenhafte den Menschen. Die Soziologie stellt fest: “Technologie ist nichts anderes als die gegenständlich gewordene Widerspiegelung der menschlichen Seele in die Natur. Maschinen sind vom Menschen produziert. Sie sind nichts anderes als die Materialisierung dessen, was im Kopf, in der Psyche des Menschen bereits vorhanden ist. Maschinen können als materialisierte Projektionen von Wesensmerkmalen des Menschen begriffen werden.”9 Das ist aber nur die Hälfte einer gegenseitigen Abhängigkeit. Wir müssen uns genauso fragen, wie die entkörperlichten Handlungen, die uns nun in der Umwelt als autonome Artefakte wieder begegnen, auf unsere Psyche und unser Denken zurückwirken. Aber auch die zirkulare Schließung lässt noch offen, wie viel Raum wir dem rationalen Handlungsdenken individuell und gesellschaftlich zugestehen wollen und ob wir die Programmierung und Entwicklung eigenaktiver Artefakte nur als rein technische oder beispielsweise auch als ästhetische Aufgabe verstehen. Mit der Institutionalisierung des Ingenieurwesens in den Wissenschaften wurde das rational-mechanistische Denken gesellschaftlich anerkannt. Das entäußerte Handlungsdenken als technische Mission war inzwischen so erfolgreich, dass wir nun mit Problemen der Überproduktion zu kämpfen haben. Die Maschinen müssen künstlich gebremst werden, weil sie zu zahlreich und zu schnell die immer schon überflüssigen Dinge und Daten auswerfen. Die ästhetische Seite dagegen ist zurückgeblieben und unterentwickelt. Mit einigen Argumentationsschleifen und Ausflügen haben wir versucht deutlich zu machen, warum es notwendig und fruchtbar ist, sich mit Informationsprozessen und Algorithmen, als zwei zentralen Begriffen unserer gegenwärtigen Lebenswelt, auseinander zu setzen. Es gibt zum Glück keinen Mangel an kreativen, verspielten und unbekümmerten Ansätzen im künstlerischen Umgang mit Informations- und Kommunikationstechnologien. Was stärker ausgeprägt werden müsste, ist eine ernsthafte alle Sichtweisen umfassende Auseinandersetzung mit den Möglichkeiten technischen Handels. Es ist nicht nur nachlässig und langweilig, Technik und Kultur als getrennte Provinzen menschlichen Schaffens zu behandeln, sondern gefährlich. Die Technik ist zu mächtig und lebensbestimmend, um sie ausschließlich den Technikern zu überlassen. Genauso wichtig ist aber, dass wir unseren technischen Objekten nicht länger ihren eigenen ästhetischen Wert verweigern. Noch immer herrscht die Meinung vor, dass eine auf die innersten Strukturen technischer und wissenschaftlicher Artefakte zielende ästhetische Auseinandersetzung und die hierfür zu realisierende Verbindung von abstrahierender Rationalität mit individueller Einfühlung ein Holzweg sei.
183
Mit der früher gebräuchlichen Redensart auf dem Holzweg sein bezeichnete man ein Denken oder Handeln, von dem man meinte, es sei fehlgeleitet und könne nie zu einem akzeptablen Resultat führen. Die Anwendung des Spruchs implizierte immer schon die Aufforderung an den vermeintlich Irrenden, diesen Weg doch schleunigst zu verlassen. In den Sittenpredigten des Mittelalters waren Holzwege jene Wege, die geradewegs in die Hölle führten. Doch Holzwege lassen sich auch anders interpretieren. Erinnern wir uns an Robert Frost: Two roads diverged in a wood, and I - I took the one less travelled by. Die Alternativen sind hier vorgegeben. Doch woher kommen diese Wahlmöglichkeiten, wer hat die Wegegabelungen angelegt? Die Wege eines Waldes, auch die Holzwege, sind nur deshalb Wege, weil sie vielfach begangen und befahren werden; sie führen durch mehr oder weniger bekanntes Terrain und sind meist relativ sicher. Erst das Ende des Holzwegs markiert den Übergang vom Bekannten zum Unerschlossenen, den Beginn des unwegsamen Geländes. Dort, am Ende des Holzweges, muss man sich zwangsweise auf Unwägbares einlassen oder umkehren. Holzwege sind aus dieser Sicht die sichersten und schnellsten Zubringer zu Unerschlossenem. Sie führen uns dorthin, wo die Alternativen nicht schon alle als Wegegabelungen vorliegen.
184
1 Eintrag zum Begriff Information in: Thesaurus der exakten Wissenschaften, Michel Serres und Nayla Farouki (Hrsg.), Verlag Zweitausendeins, Frankfurt/M. 2001, S. 411 2 Bernward Joerges, Technik, Körper der Gesellschaft: Arbeiten zur Techniksoziologie, Suhrkamp, Frankfurt 1996 3 Hans Blumenberg, Wirklichkeiten in denen wir leben, Reclam, Ditzingen 1981, S. 41 4 Alfred Sohn-Rethel, Geistige und körperliche Arbeit, Suhrkamp, Frankfurt 1972, S. 21f 5 Arno Bammé, et. al., Maschinen-Menschen, Mensch-Maschinen, Grundrisse einer sozialen Beziehung, Rowohlt, Reinbek bei Hamburg 1983, S. 110 6 In Informatik 2001, W. Bauknecht, W. Brauer, Th. Mück (Hrsg.), Tagungsband der GI/OCG Jahrestagung, Wien 2001, Bd. II, 736-742 7 Zitiert nach Bernward Joerges, Computer und andere Dinge, in: Technik, Körper der Gesellschaft: Arbeiten zur Techniksoziologie, a.a.O., S. 64 8 Da sich diese Informationsangebote noch nie um ihre Integration in den urbanen Raum bemüht haben, sondern Raum lediglich als Stellfläche sehen, sind verschiedene Städte und Länder mittlerweile dazu übergegangen, Außenwerbung zu verbieten. 9 Arno Bammé, a.a.O., S.110 Die Fotografien von Jochen Viehhoff stammen aus den Jahren 2006 bis 2009 und sind Teil der Bildstrecke, die 2010 im Bildband Die Algorithmische Welt - Prinzipien der Programmierung im Alltag erscheinen wird. Bildkategorien: Netze und Transport; Hierarchien, Topologien und Architektur; Variablen, Daten und Speicher; Vergleiche und Verzweigungen; Ereignisse und Interaktionen; Objekte; Sequentiell und parallel; Sortieren; Spiel; Iteration, Rückkopplung und Selbstähnlichkeit; Komprimierung und Redundanz; Modell, Bild und Beleuchtung; Codes und Verschlüsselung; Zufallszahlen; Compiler, Fehler und Warnungen; Garbage Collection
185
AutorInnen
Ralf Baecker geboren 1977, Studium Informatik (Universität zu Köln), Studium Medienkunst (Audiovisuelle Medien, Kunsthochschule für Medien KHM Köln), 2007/08 künstlerischer Mitarbeiter BauhausUniversität Weimar, lebt and arbeitet in Bremen. Anselm Bilbo Bauer geboren 1980, seit 2005 Studium Audiovisuelle Medien (KHM), lebt und arbeitet in Köln. Karin Harrasser geboren 1974, Literatur- und Kulturwissenschaftlerin, 2005 Promotion (Universität Wien), seit 2009 künstl.-wiss. Mitarbeiterin an der KHM Köln im Bereich Medien- & Kulturwissenschaften [Gender], forscht derzeit zur Wissensgeschichte der Prothetik, arbeitet in zahlreichen Projekten in den Bereichen Publikation, Ausstellungskonzeption und Wissenschaftskommunikation. Thomas Hawranke geboren 1977, Studium Medienkunst (Audiovisuelle Medien, KHM), 2005-2010 Stipendiat mit der Gruppe Susigames am ZKM Karlsruhe/Institut für Bildmedien, lebt und arbeitet in Köln und Berlin. Martin Hesselmeier geboren 1978, Studium Kommunikationsdesign (Hochschule für Technik und Gestaltung Mannheim), Postgraduiertenstudium Audiovisuelle Medien (KHM), lebt und arbeitet in Köln. Roman Kirschner geboren 1975, Studium Philosophie, Kunstgeschichte (Universität Wien), Studium Audiovisuelle Medien (KHM), Gründungsmitglied des Künstlerkollektivs fur; seit 2009 Promotionsstudium (zum Thema Materielle Transformationsprozesse. Metamorphosen in der Kunstpraxis) an der KHM Köln, lebt und arbeitet in Brüssel, Köln und Wien.
187
Karin Lingnau geboren 1971, Studium Sozialwesen (FH Köln), 1997-2005 Produktdesign (Hochschule für Gestaltung Karlsruhe, Design Academy Eindhoven) und freie Mitarbeit am ZKM Karlsruhe, Postgraduiertenstudium Audiovisuelle Medien (KHM), 2007 Gründung Avatar Magazin (Publikationen), seit 2009 künstl.-wiss. Mitarbeiterin an der KHM, lebt und arbeitet in Köln. Andreas Muxel geboren 1979, Studium Multimediale Kommunikationsgestaltung (FH Vorarlberg), 2004-2008 Interaktions- und Interfacedesigner (Fraunhofer-Institut für Medienkommunikation), Postgraduiertenstudium Audiovisuelle Medien (KHM), lebt und arbeitet in Köln. Frieder Nake geboren 1938, bedeutender Pionier der Computerkunst, Studium Mathematik (Universität Stuttgart), 1967 Promotion über Wahrscheinlichkeitstheorie, ab 1963 (beeinflusst von Max Bense) erste künstlerische Versuche am legendären Graphomat Z64 von Konrad Zuse, 1968 Teilnahme an der berühmten Ausstellung Cybernetic Serendipity in London und am Symposium Computers and Visual Research in Zagreb, seit 1972 Professor für Computergrafik und interaktive Systeme (Universität Bremen, Hochschule der Künste Bremen), seit den 70er Jahren Auseinandersetzung mit politischer, ökonomischer und wissenschaftstheoretischer Kritik der Informatik. Martin Nawrath geboren 1958, Studium der Elektrotechnik in Aachen und Köln, Diplom 1985, danach Tätigkeit als Entwicklungsingenieur in der Automatisierungs-, Medien- und Telekommunikationstechnik, seit 1997 als Systemingenieur für digitale Medien an der KHM Köln. Lothar Michael Putzmann geboren 1970, Studium Interdisziplinäre Kunst/Medienkunst (HGB Leipzig), 2001-2004 Meisterschüler Medienkunst (HGB), 2001-2007 Studium M.A. Informatik, Logik und Wissenschaftstheorie (Universität Leipzig), derzeit Promotionsstudium (zum Thema Was heißt “algorithmische Form”? TURING-, Super-TURING- und Nicht-TURING-Berechenbarkeit und informationstheoretische Aspekte) an der KHM Köln, Mitarbeiter im BMBF-Verbundforschungsprojekt Embodied Information (KHM Köln und FU Berlin) Lasse Scherffig geboren 1978, Studium der Kognitionswissenschaften (Universitäten in Osnabrück und Oswego, USA), Masterstudium Digitale Medien (Universität Bremen, Hochschule für Gestaltung und Kunst Zürich), Forschungsaufenthalte am Institut für Grundlagenforschung des ZKM Karlsruhe
188
und am Tübinger Institut für Wissensmedien, arbeitet seit 2006 als künstl.-wiss. Mitarbeiter am Lab3 der KHM in Forschung und Lehre, sowie an einer Dissertation zu Feedback und MenschComputer-Interaktion (Feedbackmaschinen. Experimente zur strukturellen Kopplung). Susanna Schoenberg geboren 1967, Studium der Sozialwissenschaften (Milano) und der Filmtechniken (Milano), Doktorat in Soziologie (Milano-Torino-Pavia); postgraduales Studium in Medienkunst (Köln), seit 1990 freie künstlerische Produktion (Video/Film, Fotografie, Installation, Performance) und Lehr- und Forschungstätigkeiten (Sozialwissenschaften, Kommunikationswissenschaft, Forschungsmethodologie, Datenanalyse, visual sociology und Dokumentarfilmtechniken), seit 2004 künstl.-wiss. Mitarbeiterin an der KHM Köln im Bereich multimedia&performance. Micha Thies geboren 1977, Ausbildung zum Fachinformatiker, Studium Audiovisuelle Medien (Schwerpunkt Experimentelle Informatik, KHM), 2007/2008 künstl. Mitarbeiter Bauhaus-Universität Weimar, arbeitet als freier Medien- und Videokünstler, bespielt zahlreiche Konzerte in Europa und Asien. Georg Trogemann geboren 1959, 1977 Gesellenprüfung (Schreiner), Studium Informatik und Mathematik (Universität Erlangen-Nürnberg), 1990 Promotion (Entwicklung graphbasierter Modelle zur Leistungsbewertung von Superrechnern), 1992-93 Zusammenarbeit mit der Künstlergruppe Knowbotic Research im Projekt smdk, 1993 Goldene Nica der Ars Electronica, seit 1994 Professor für Experimentelle Informatik an der KHM Köln, 1997-1999 und 2004-2006 Prorektor für Forschung und Infrastruktur, Mitbegründer der plan_b Media AG, 1999-2005 wissenschaftlicher Direktor des An-Instituts Laboratory for Mixed Realities (LMR). Jochen Viehoff geboren 1968, 1989-1996 Studium Physik (Bergische Universität Wuppertal), 1999 Promotion im Bereich theoretische Elementarteilchenphysik, neben dem Studium Tätigkeit als Fotograf, seit 1996 Zusammenarbeit mit dem Tanztheater Wuppertal von Pina Bausch, von 1999 bis 2005 künstlerisch-wissenschaftlicher Mitarbeiter an der KHM, seit 2005 Kurator am Heinz Nixdorf MuseumsForum in Paderborn. Ludwig Zeller geboren 1981, seit 2005 Tätigkeit als freischaffender Gestalter und Entwickler, 2003-2008 Studium Audiovisuelle Medien (KHM), seit 2009 Royal College of Art London, lebt und arbeitet in Köln und London.
189