|
Artificial Life Künstliches Leben *Darwin und Lamarck *Evolution contra Softwareprogrammierung *Repräsentanz von Evolution *Tierra Eine Mikrowelt *Tierra Eine Makrowelt *Zielgerichtete Evolution *Sex *Cybertation *Evolution von realen Objekten *Die Von-Neumann-Maschine *Neue Spezies von Prozessoren *Evolvierte Produkte der realen Welt *Folgen der digitalen Evolution *
In den vorangegangenen Kapiteln ging es um den reduktionistischen Ansatz, künstliche Intelligenzformen zu schaffen. Offenbar ist dies in den vergangenen fünfzig Jahren nicht gelungen, möglicherweise aus Gründen, die im vorigen Kapitel besprochen wurden. In den folgenden Kapiteln widme ich mich jüngeren Strömungen der KI, die mittels Emergenz zu intelligenteren Programmen kommen wollen. Ein zentraler Ansatz, Emergenz zu provozieren, ist es, eine abstrahierte Entsprechung der biologischen Evolution im Computer zu simulieren. Daher stelle ich diesem Teil der Arbeit einen knappen Exkurs über die biologische Evolution voran. Schließlich ist die biologische Evolution die Schöpferin unserer eigenen Intelligenz! Wir sollten von ihr lernen!
Artificial Life Künstliches Leben Die Ansätze, die in diesem Teil besprochen werden sollen, unterscheiden sich methodisch grundlegend von der ´klassischen´ KI. Im Gegensatz zu dieser werden die ´intelligenten´ Fähigkeiten nicht in ihrer gesamten Komplexität vorgegeben (top-down), sondern man versucht, - bottom up diese Eigenschaften aus sich selbst organisierenden Systemen emergieren zu lassen. 1987 hat Christopher Gale Langton zu einer Konferenz in Los Alamos eingeladen, die unter dem Motto der gesetzmäßigen Entstehung des Lebens stand. Seither nennt man diesen Zweig der KI, der sich mit der Simulation von Lebensparametern beschäftigt, ´Artificial Life´, und die digital simulierte Evolution steht in ihrem Zentrum.
Die weitläufig verbreitetste Auffassung über die Entstehung des intelligenten Lebens ist der Darwinismus. Nach Charles Darwin entsteht Evolution durch zwei wesentliche Faktoren, Diversifikation und Selektion. Durch die Diversifikation entstehen im Laufe der Zeit neue Arten, die den vorhandenen Arten über- oder unterlegen sind. Die ´fitteren´ Arten überleben den Konkurrenzkampf, die unterlegeneren Arten sterben aus, was als Selektion bezeichnet wird. Da die ´Fitneß´ einer Art von äußeren Umständen abhängt, beispielsweise klimatischen Bedingungen oder Vielfalt der als Nahrung dienenden Arten, gibt es Selektionskriterien. Weil die Diversifikation zufallsgesteuert ist, gibt es keine zielgerichteten Veränderungen (Mutationen) innerhalb einer Art. Das heißt, daß die Anpassung an bestehende oder sich verändernde Bedingungen (Selektionsdruck) von der Größe der Populationen, der Generationsspanne und vom Zufall abhängt. Im Gegensatz dazu formulierte Lamarck die Auffassung, daß neben der blinden, zufälligen Evolution auch sogenannte erworbene Merkmale zu Diversifikation führen. Er glaubte, daß die Erfahrungen und Veränderungen, die ein Individuum im Verlaufe seines Lebens erwirbt, in die ´Anlagen´ der Nachkommen einfließen. Das Kind eines Schmiedes beispielsweise würde Anlagen zu kräftigen Armmuskeln erwerben etc. Nach dem heutigen Stand des Wissens der Genetik gibt es keinen Lamarckismus im eigentlichen Sinne. Die Erbanlagen des erwachsenen, fortpflanzungsfähigen Individuums unterscheiden sich genetisch nicht von denen der Jungpflanze oder des Jungtieres. Dennoch führt Sheldrake Beispiele an, die belegen könnten, daß erworbene Merkmale vererbt werden. Da das Prinzip der Morphogenese nach wie vor noch nicht exakt geklärt werden kann, bleibt also vorerst offen, welche Rolle die Gene bei der Evolution spielen und ob weitere Faktoren zur Klärung der Evolution angeführt werden müssen.
Evolution contra Softwareprogrammierung Intelligentes Handeln und Planen hat sich in der biologischen Evolution als Überlebensstrategie durchgesetzt. Tiere als mobile Wesen sehen sich bei ihrem Umherstreifen zur Nahrungssuche ständig neuen Situationen konfrontiert, mit denen sie umgehen müssen. Außerdem sind sie den Einflüssen einer sich ständig verändernden Umwelt ausgesetzt: Andere Tiere, die vielleicht gefährlich sein könnten, nähern sich oder der Wechsel der Jahreszeiten zwingt sie zu Reaktionen. Daraus resultiert, daß sie Strategien entwickeln oder vererben müssen, die in ihrem Nervenapparat symbolisch repräsentiert werden. Einer Aktion folgt eine entsprechende Reaktion etc. Datenstrukturen in Computern haben weder Überlebensziele noch Wahrnehmungsmöglichkeiten. Computer besitzen zwar Ein- und Ausgabemedien, mit denen die Software entsprechend umgeht, aber keine Software hat ein Bewußtsein dessen, was passiert, wenn man den Strom abschaltet. Wenn Computer ein Bewußtsein hätten, lebten sie in dem Paradigma plötzlicher Abschaltung und ebenso plötzlicher Inbetriebnahme. Da sich an der eigentlichen Qualität ihres Daseins aber nichts ändern würde, weil die Datenstrukturen ja erhalten bleiben, gäbe es keinen Grund, auf diese Situation zu reagieren. In ihrem begrenzten Speicher wäre das Aufrufen und Schließen von Programmen gewissermaßen ein schizophrenes wechseln der Persönlichkeit. Solange weder die Repräsentanz von Problemen und Reaktionsmöglichkeiten in einem Computer gegeben ist, besteht also auch keine nennenswerte Aussicht auf intelligente Strategien zur Problemlösung, ganz zu schweigen von einem Bewußtsein. Ein Schachcomputer kann zwar mit seinen Problemlösungsalgorithmen auf intelligente Lösungen kommen, verfügt aber nicht über ein Bewußtsein oder Emotionen, die zielgerichtetes Erzeugen von Strategien darstellen. Vielmehr sind die Strategien in einem Schachcomputer bereits vorhanden, weil sie kristallin in Form von formalisiertem, menschlichen Wissen subsummiert wurden.
In Computern lassen sich sowohl darwinistische als auch lamarckistische Evolutionsformen bestens simulieren und dabei sogar solche Mechanismen, die ohne Sex auskommen (Hemaphroditen), untersuchen. Für jede der Formen ist es jedoch zwingend erforderlich, eine Repräsentanz von Genen, von (Überlebens-)Zielen und von Widrigkeiten herzustellen. Außerdem ist es sinnvoll, eine mutierende Kraft zu installieren, wozu sich der rechnerinterne Zufallsgenerator besonders eignet. Um es vorweg zu nehmen, die Ergebnisse solcher Evolutionssimulationen sind verblüffend kreativ und von ihrer Systematik her sehr intelligent. Das heißt nicht, daß man mit evolutionären Techniken bereits intelligente Maschinen gezüchtet hätte, dafür aber außerordentlich intelligente Problemlösungen.
1990 wird als die Geburtsstunde der digitalen Repräsentanz von natürlicher Evolution angesehen. Der Biologe Thomas Ray hat sich das Programmieren von Computern beigebracht und ein kleines Programm, Tierra nach dem spanischen Namen für Erde benannt, geschrieben, in dem kleine Datenstrukturen, vergleichbar mit Mikroorganismen, einen harten Kampf ums Überleben austragen. Tierra ist eine Software, die einen Lebensraum darstellt, eine Ur-Suppe, in dem hunderte oder tausende von kleinen Unterprogrammen quasi gleichzeitig ausgeführt werden. Wenn man Tierra startet, existiert in diesem Lebensraum nur eine einzige Spezies, ein Programm mit der Länge von 80 Zeichen, das nichts weiter tut als sich selbst zu replizieren. Und das tut diese Kette fortwährend, solange Speicherplatz vorhanden ist. Der Clou liegt darin, daß Tierra bei einem Replikationsprozeß dafür sorgt, daß sich Fehler Mutationen in das Programm einschleichen. So entstehen neben den ursprünglichen Achtzigerketten auch kürzere, längere und unbrauchbare. Nun tritt ein Selektionsprozeß ein: Lange Ketten, die sehr viel Zeit zur Replikation brauchen und solche, die sich aufgrund von unvorteilhafter Mutation nicht oder nur schwer reproduzieren können, finden keinen freien Speicherplatz mehr, weil die kurzen und flinken Ketten schneller waren. Als regulierendes Modul hat Tierra einen Killermechanismus, der zu träge und funktionslose Ketten vernichtet, so daß neuer Speicherplatz für Gewinnertypen freigeräumt wird. Innerhalb von sehr kurzer Zeit entstehen mehrere hundert verschiedener Arten. Sehr erfolgreich scheinen Ketten von 45 Zeichen Länge zu sein, denn sie bevölkern fast ein Drittel der Welt. Manchmal tauchen auch 22er oder 162er auf, jedoch sind diese nicht so hartnäckig wie die 79er oder die 45er. Die 80er scheinen auch nicht verschwinden zu wollen. Das Erstaunliche daran ist, daß eine Kette mindestens sechzig Zeichen braucht, um sich fortpflanzen zu können. Obwohl dies nicht von vornherein angedacht war, haben sich rasch Parasiten gebildet, die den Code von anderen Ketten ´Wirte´ benutzen, um sich fortzupflanzen. Es gibt sogar parasitäre Spezies, die Parasiten benutzen, die bei dem Versuch, sich selbst über einen Wirt fortzupflanzen, irrtümlich den Parasiten der zweiten Generation kopieren. Einige der längeren Ketten mutieren zur Immunität gegen die Parasiten, und ihr Erfolg läßt nach, bis neue Schmarotzer auf den Plan rücken, gegen die die ehemals Immunen keine Abwehr haben. Es kommt zu einem eigentümlichen Verhalten, weil die kleinen Parasiten die großen Wirte dezimieren, bis daß nicht mehr genug Wirte da sind, um die Parasiten zu kopieren. Dann sterben die Parasiten weg, und die Wirtpopulationen erholen sich, so daß das Spiel von neuem beginnt. In Tierra verkörpert sich die darwinistische Evolution in Reinkultur. Die Strukturen können sich nicht selbst modifizieren (Lamarckismus), und es gibt auch keine Meta-Ebene (Meme), mit der die Hemaphroditen (geschlechtslose Vermehrung) ihren Kindern weiterhelfen können. Jedenfalls scheinen sich solche Muster noch nicht herausgebildet zu haben. Man muß sich vorstellen, daß es kaum möglich ist, die Abläufe in Tierra genau zu verfolgen: Die Generationenfolge ist durch die Rechengeschwindigkeit der Computer so hoch, daß in einer Sekunden mehrere, wenn nicht hunderte Generationen durchlaufen werden. Die Diversifikation ist dabei derart immens, daß es nicht möglich ist, alle auftretenden Spezies zu kategorisieren und herauszufinden, was für eine Funktionalität ihr Code hat.
Tierra läuft auf gewöhnlichen Computern mit gewöhnlichem Speicherplatz ab. Die Selektionsparameter sind mit der Beschränkung auf die Reproduktionsgeschwindigkeit sehr eingeschränkt, so daß der Selektionsdruck die beobachtbare Tendenz eines Pendelns um den Mittelwert, Ketten von 60 Zeichen, aufweist. Um komplexere Formen zu schaffen, hat Ray seine Software ausgeweitet. Inzwischen gibt es eine kleine Gemeinde von mehreren hundert Anwendern, Tendenz steigend, die eine Netzversion von Tierra installiert haben. Jetzt läuft Tierra nicht mehr isoliert auf einem einzigen Computer ab, sondern durch das World Wide Web stehen rund um die Uhr etliche Welten zur Reproduktion von Ketten zur Verfügung. Da die Computer der angeschlossenen Tierrabetreiber auch noch anderweitig im normalen Tagesbetrieb genutzt werden, ergibt sich ein neues Kriterium für Selektionsdruck: Während die Computer ihren gebräuchlichen Aufgaben nachgehen, kann Tierra nur mit verminderter Geschwindigkeit ablaufen, das heißt, daß sich Populationen auf Computern, die zusätzlich durch weiter Programme in Benutzung sind, im Nachteil befinden. Hier läßt sich tendenziell sagen, daß die simplen Ketten von geringer Länge ihren entscheidenden Vorteil einbüßen, denn der neue Hype sind solche Ketten, die komplex genug sind, sich durch das Netz auf solche Computer zu kopieren, die gerade nicht in Gebrauch sind. Durch das Regulativ des Arbeitstages ziehen die Gewinnermodelle von Tierra jetzt täglich um den Globus, immer auf der Seite der Nacht, wenn die Computer eingeschaltet sind, aber niemand daran arbeitet. Thomas Ray hofft, daß sich irgendwann Populationen bilden, die nicht nur einen Selbstzweck haben, sondern auch den Menschen von Nutzen sein werden. Er meint, daß man der digitalen Evolution nur freien Lauf lassen muß, dann wird eine zweite, virtuelle Kambrische Explosion stattfinden. Es wird öffentlich wachsende Programmketten geben. Manchmal, wenn Eigenschaften auftreten, die befördert werden sollten, werden diese Programme aus dem Pool extrahiert und auf Farmen ´domestiziert´, das heißt, daß man ihre besonderen Eigenschaften verstärkt herauszüchtet, sie im entsprechenden Stadium ´kastriert´ und dann als normale Software verbreitet. Ich bin der Auffassung, daß die Ergebnisse von digitaler Evolution direkt davon abhängen, wie die Selektionsparameter gesetzt sind. Von sich aus wird keine für den Menschen sinnvolle Anwendung entstehen, allenfalls Anregungen für bestimmte Zwecke, falls diese überhaupt erkennbar sind. Ich denke, daß Programme von der Komplexität von Photoshop erst dann gezüchtet werden können, wenn man den Nutzen eines solchen Programms als Selektionskriterium vorgibt. Im folgenden Abschnitt möchte ich dafür ein kleines Beispiel geben.
Man stelle sich vor, statt einer 80-Zeichen Kette, die sich selbst kopieren muß, wird als ´Spezies´ eine Sortierroutine, beispielsweise ´Bubblesort´ mit 1000 Kopien gestartet. Jede Kopie muß denselben Datensatz sortieren. Da am Anfang alle Individuen identisch sind, werden sie ziemlich gleich lang für diese Aufgabe benötigen. Dann wird per Zufall oder weil einige durch Ungenauigkeiten des Betriebssystems langsamer sind die Hälfte gelöscht, und jedes der übriggebliebenen Bubblesorts wird kopiert, so daß wieder 1000 Sortierprogramme an den Start gehen. Nur, daß beim Kopieren ähnlich wie bei Tierra ein zufälliger Code eingebaut wurde. Im zweiten Durchlauf treten also 500 identische Bubblesorts und 500 Bubblesortmutanten gegeneinander an. Die meisten Mutanten werden einfach gar nichts tun, weil sie einen schwerwiegenden Programmfehler aufweisen. Aber ein paar von ihnen werden durchkommen und vielleicht sogar schneller sein, als ihre Vorfahren. In der dritten Runde werden also nicht nur originale Bubblesorts kopiert, sondern auch ein paar Mutanten, die sich als vielversprechend herausgestellt haben. Nach und nach wird die Population der originalen Bubblesorts verschwinden, und leistungsfähigere Mutanten werden die Szene beherrschen. Auf diese Art soll der zweitschnellste Sortieralgorithmus der Welt entstanden sein. Er soll nur ein Byte länger sein als der schnellste, den ein Informatiker programmiert hat. Und er soll eine Struktur haben, die bislang nicht bekannt war.
Daß wir hier erst am Anfang der Betrachtung und der Möglichkeiten sind, sieht man daran, daß die oben beschriebenen Gene, die ja Programmierbefehle und Struktur gleichermaßen darstellen, auf der niedrigsten denkbaren Repräsentanzebene angesiedelt sind. Wenn man hingegen Sex simulieren will und höhere Programmformen als einfache Routinen züchten möchte, muß man seine Software so gestalten, daß die Gene eine möglichst hohe Abstraktionsstufe erreichen, vielleicht eher semantische als syntaktische Aufgaben haben. Gene und Selektionskriterien sollten demnach auf der höchstmöglichen Repräsentanzebene angesiedelt sein. Mit der Zunahme der Repräsentanzebenen steigert sich auch die Komplexität der evolutionären Parameter. Komplexere Konkurrenzverhältnisse, komplexere Problemlösungsräume und damit komplexere Methoden und Ziele der Selektion sind so erreichbar. Wozu solche Methoden, insbesondere für das Design, taugen können, wird an weiteren Beispielen und Ausblicken zu klären sein. Ziel der Auseinandersetzung mit evolutionären Algorithmen ist es jedoch, darzustellen, daß die Repräsentanz von Evolution und Lernfähigkeit, beispielsweise durch die Simulation von Lamarckismus der Repräsentanz von Kreativität sehr ähnelt, und daß sie ein Ansatz zur Erzeugung von computerbasierter Kreativität ist. ´Merkmale der Kreativität ähneln evolutionär entstandenen Organismen auf unheimliche Weise...´ [Lumsden 98]
Cybertation ist eine Software, deren Genmaterial auf einer höheren Repräsentanzstufe angesiedelt ist: Form. Auf dem Bildschirm sieht man mehrere Fenster, in denen Spezies aus geometrischen Figuren wachsen. Das Genom der Spezies bestimmt, welche Sorten von Kuben ihr Zellmaterial bilden sollen. So entstehen bizarre, schöne, gräusliche, dreidimensionale Gestalten. Ihr Wachstum verläuft schrittweise, so daß man bei ungewollten Entwicklungen am Zeitrad schrauben kann, um die Wesen in frühere Stadien ihres Lebens zurückzuversetzen. Damit die Wesen nicht einfach nur nach mathematischen Vorschriften wachsen, ähnlich wie es die Bäume von Professional Tree tun, gibt es zwei Möglichkeiten des evolutionären Eingriffs: Zufällige Mutation und Sex. Man kann Arten in einzelnen Fenstern einen Mutationsschub geben oder man kann das genetische Material von zwei Arten kreuzen. Das Selektionskriterium ist hier das ästhetische Empfinden des Computerbenutzers. Formen, die gefallen, werden bevorzugt, während häßliche Gebilde aussterben. Damit wird der Mensch in den evolutionären Prozeß eingebunden. Der Ergebnisraum von Cybertation sind recht originelle Körper, die mit solchen Phrasen wie gereiht, floral, organisch beschrieben werden können. Diese Enge liegt zweifellos an der Primitivität des genetischen Algorithmus. Spätere Versionen oder andere Programme werden komplexere Genome besitzen, die neben einfachen Kuben auch Splines zur Formgebung nutzen. Hier bildet sich ein wesentlicher Ansatz für die kreative Nutzung von evolutionären Algorithmen. Determinierbares, funktionalistisches Wissen läßt sich formalisieren und kann deshalb als Selektionskriterium im Rechner repräsentiert werden. Ästhetisches Empfinden unterliegt einem intelligenten Bewußtsein und ist deshalb nicht formalisierbar, solange Bewußtsein nicht formalisiert und repräsentiert werden kann. Daher ist es sinnvoll, den Menschen, insbesondere Künstler und Designer, in den Selektionsprozeß mit einzubeziehen. Uwe von Loh hat 1997 gezeigt, daß Form oft unabhängig von Funktionalität betrachtet werden kann, weil die Funktionsträger sich in ihrer Dimension so sehr verkleinern, daß das Interface zwischen Objekt und Subjekt ausschließlich ästhetisch und operational qualifiziert werden muß. Gerade in Bereichen, die nicht zeichenhaft funktional visualisiert werden können, beispielsweise Telematik, ist es denkbar, den gestalterischen Ausdruck vollständig von der utilitären Funktion des (virtuellen oder realen) Produktes abzukoppeln. Von Loh stellt dazu eine ´Formen-Grammatik´ vor, die mittels räumlicher Abbildung von Fingerabdrücken zu neuartigen, bewußt nicht planbaren Formen führt. Mit Cybertation und ähnlichen Programmen stellt sich eine ebensolche ´Formen-Grammatik´ dar, die zu nicht-planbaren aber ästhetisch und je nach Komplexität der Selektionskriterien funktional qualifizierten Produkten führt. Kritisch anzumerken sei hier, daß der Animismus-Effekt die gestalterische Vielfalt einschränkt. Da man in den entstehenden Objekten meist Analogien zu bereits besetzten Begriffen findet, werden meiner Ansicht nach solche Formen, die dem Selekteur irgendwie bekannt vorkommen, bevorzugt werden. Man sieht dies schon daran, daß die Ergebnisse solcher Zuchtprozesse wegen ihrer Ähnlichkeiten meistens nach Tieren, Pflanzen oder Gegenständen benannt werden. Dadurch sorgt der menschliche Eingriff dafür, daß gezüchtete Formen nicht objektiv neu sind.
Die bisherigen Ansätze haben verdeutlicht, wie digitale Evolution im virtuellen Raum repräsentiert werden kann. Für die industrielle Formgestaltung, um die es hier schließlich geht, ist es aber besonders interessant, zu sehen, wie tatsächliche Körper evolviert werden können. Wie ich eben schon angesprochen habe, lassen sich neben formgebenden auch technische oder funktionale Parameter repräsentieren. Da sich diese im Gegensatz zu ästhetischen Qualitäten determinieren und formalisieren lassen, können solche Aspekte wie Materialeigenschaften, Leistungseffizienz oder Kostensenkung nicht nur simuliert, sondern auch als Selektionskriterium formuliert werden. Radikal gesprochen, läßt sich mit einer komplexen Software alles determinierbare Wissen zur bewußtseinsfreien, evolutionären Gestaltgebung einsetzen. Wenn diese Software über ein entsprechendes Benutzerinterface einen einfachen, vielleicht natürlichsprachlichen Zugriff auf die Rahmenparameter bietet, ist der Designer als Repräsentant der ästhetischen Qualität der einzige Mensch, der derzeit noch in den Produktionsprozeß einbezogen werden muß. Dies mag eine Horrorvision sein, sie ist jedoch ein Szenario des mit heutigen Mitteln möglichen. Auf jeden Fall scheint mir die Gestaltung von evolutionären Rahmenbedingungen neben der ästhetischen Bewertung eine wichtige zukünftige Entwicklung im Bereich der Produktplanung zu sein.
Um darzulegen, wie künstliche Evolution (im Gegensatz zur rein digitalen) im realen Raum funktioniert, verweise ich auf ein sehr altes Beispiel: John von Neumann, der wohl einzige Pionier der Computergeschichte, der zu Lebzeiten honoriert wurde, dachte in den vierziger Jahren bereits über die Möglichkeit von selbstreproduzierenden Automaten nach. Eine Maschine, die komplex genug wäre, sich in einer Lagerhalle zu bewegen und aus Bauteilen ein Ebenbild ihrer selbst zusammenzubauen, wäre dazu in der Lage, ihr Potential aus eigener Kraft zu erweitern. Eigentlich wollte von Neumann diese Maschine bauen, doch sein Freund Stanislaw Ulam riet ihm davon ab. Er solle sie lieber als ein theoretisches Konzept formulieren. Dann könne sie immer noch jemand umsetzen. Von Neumann starb früh, und so konnte er die Geburt der Von-Neumann-Maschine nicht mehr erleben. Zunächst interessierte sich auch niemand für seinen Automaten, bis der Philosoph Arthur Burke feststellte, daß von Neumann einige logische Fehler gemacht hatte, die er ausräumen konnte. Ähnlich wie die legendäre Turing-Maschine, deren Konzept genial war, oder die Maschinen von Babbage, die aufgrund unzureichender mechanischer Fähigkeiten nicht gebaut werden konnten, harrte sie ihrer Verwirklichung. Das herausragende Merkmal der Von-Neumann-Maschine war ihr flexibler Aufbau. Anstelle einer festen Verdrahtung der logischen Schaltelemente trat eine zellenartige Matrix von Modulen, die unterschiedliche Zustände einnehmen und damit unterschiedliche Funktionen bei der Ausführung von Rechenoperationen darstellen konnten. Man nennt diesen Ansatz ´Zelluläre Automaten´, auf deren besondere Vertreter, die ´Neuronalen Netze´, ich später noch eingehen möchte. Inzwischen wurde das Prinzip der freien Konfigurierbarkeit auf Siliziumebene, also auf der Hardwareseite, verwirklicht, so daß nunmehr nicht nur Software und Daten evolvierbar sind, sondern auch erstmals Hardwarekomponenten:
Die Firma Xilinx bietet solche frei konfigurierbaren Chips an. Wenn man Prozessoren für besondere Aufgaben braucht, kann man sich das Kit von Xilinx bestellen. Man erhält eine PCI-Karte, die in jeden handelsüblichen Computer paßt und eine Software, mit der man die Architektur des Prozessors designen kann. Man braucht nun nicht mehr den aufwendigen und kostspieligen! Gang durch die sterilen Chipfabriken zu machen, wenn man seine Prozessorarchitektur realisieren möchte. Die Taktgeschwindigkeit und die maximale Komplexität entspricht in etwa der Hälfte der aktuell üblichen Prozessorleistung. Herkömmliche Prozessoren sind für die Universalität ausgelegt, das heißt, daß sie dazu in der Lage sein müssen, alle gängigen Operationen durchzuführen, um allen wichtigen Anforderungen gerecht zu werden (siehe Teil1 dieser Arbeit). Dies stellt für viele Anwendungsbereiche einen Kompromiß dar, und eine spezielle Architektur kann für viele komplexe oder spezialisierte Anwendungen von Vorteil sein. Einige Kunden von Xilinx die übrigens nicht die einzigen Hersteller von variablen Chiparchitekturen sind haben inzwischen Systeme entwickelt, die auf evolutionärer Basis neue Chipstrukturen hervorbringen. Dazu treten mehrere programmierbare Chips nebeneinander an, werden mit zum Teil zufälligen Architekturelementen versehen und auf ihre Leistungsfähigkeit innerhalb ihres zugedachten Aufgabenspektrums (Selektionskriterium) verglichen. Die komplette Programmierung einer Chiparchitektur kann mehrere Stunden dauern, und so lassen die herausragendsten Spezies unter den evolvierten Chips manchmal Tage oder Wochen auf ihre Kambrische Explosion warten. Ein Merkmal der digitalen Evolution in der realen Welt ist die langsame Gemütlichkeit gegenüber den sehr schnellen virtuellen Mutationen. Aber die biologische Evolution ist natürlich bekanntermaßen noch langsamer. Die Zuchtergebnisse entbehren meist jeder Verständlichkeit. Es gibt keine rechteckigen Transistorfelder, keine Backlevel-Caches und keine abgrenzbaren Befehlsausführregionen, die unter einem Mikroskop sichtbar würden. Die Strukturen der evolvierten Chips sind oft bizarr, organisch oder eben biologisch. Das einzige, was man von den sehr komplexen Schaltungen weiß, ist, daß sie für ihre vorgegebene Aufgabe geeignet sind. Dies ist die Konsequenz der Methodik: Man gibt ein Stück weit die Kontrolle über die tieferen Ebenen auf, um nur noch das Emergat zu bestimmen. Kevin Kelly hat dieser Methodik sein Buch gewidmet: ´Out Of Control´
Evolvierte Produkte der realen Welt Was auf der Ebene von Daten, modellierter Form oder digitaler Schaltung funktioniert, wird wahrscheinlich bald auch im realen Raum möglich sein. Wenn entsprechende Automaten gebaut werden, die schnelles, exaktes und funktionierendes Rapid Prototyping ermöglichen, wenn Readymades, unterschiedliche Materialien und Verarbeitungsweisen beim Prototypenbau einbezogen werden können, bahnt sich eine neue, direkte Schnittstelle zwischen Simulat und Realität an. Hier tun sich Dimensionen auf, die eine Software wie den Formshop sinnlos erscheinen lassen. Nach der Vorgabe der Rahmenparameter als Selektionskriterien wird eine schwarze Kiste, ein Replikator, beauftragt, virtuell simulierte Objekte, die aus digitaler Evolution hervorkamen, zu bauen und auf ihre Funktionstüchtigkeit unter praktischen Bedingungen zu prüfen. Wo die Simulation die Komplexität der Welt nicht erfassen kann, tritt ein dialogischer Prozeß aus Virtualität und materieller Referenz in den Vordergrund. Die Spezies, die sich unter realen Bedingungen behaupten können, werden digital weiterevolviert, während die erfolglosen Prototypen per Recycling in neue Generationen eingehen, die paradoxerweise von ihren eigenen Mördern abstammen. In gewisser Weise werden die Erfolgsmodelle die unterlegen verspeisen, um aus ihrem simulierten Fundus neue Spezies zu gebären. Maschinen werden essen und gegessen werden. Die neuen, maschinellen Spezies werden so überraschende und unfaßbare Strukturen besitzen wie ihre digitalen Ahnen. Sie werden ihre Aufgabe erledigen und vor allem ein Merkmal der biologischen Evolution übernehmen: Sie werden robust sein. Evolution arbeitet ziellos, redundant und verschwenderisch an Ideen. Evolvierte Maschinen werden uns zwar unverständlich und manchmal auch unsinnig wie die Biologie vorkommen, aber sie werden ausgestattet sein mit Not- und Hilfssystemen, mit selbstheilenden Fähigkeiten oder auch Neurosen. Vielleicht wird das Wort ´kaputtgehen´, das den plötzlichen Übergang vom funktionierenden zum invaliden Produkt beschreibt, aus der Sprache verschwinden. Vielleicht wird ein Wort geschöpft werden müssen, das ein auf maschinelle Bedürfnisse zugeschnittenes Equivalent zum ´Sterben´ darstellt. So wie man heute aus marktwirtschaftlichen Gründen Produkte baut, die nur so und so lange halten, damit sie sich nicht optisch abnutzen oder damit der Kunde ein neues kaufen muß, werden evolvierte Produkte mögliche Gestaltkriterien haben, die ein weites Feld für Phantasien und Szenarien aufmachen.
Folgen der digitalen Evolution Mit künstlicher Evolution scheint eine Komplexität zu emergieren, die sich unserem logischen, zielstrebigen Denken widersetzt. Durch die Erzeugung einer Ur-Suppe und die Bestimmung von Rahmenparametern, zum Beispiel der Selektionskriterien, kann ein kreativer Akt in Gang gesetzt werden, der etwas hervorbringt, was sich unserer planerischen Vorstellungskraft entzieht. Mit zunehmender Komplexität der Rahmenparameter wird das Ergebnis schwerlich nachvollziehbar sein, so wie die Inferenz eines zu komplexen Expertensystems nicht mehr faßbar ist. Dies wirft eine Reihe ethischer Probleme auf, die später besprochen werden sollen. Ich habe das Bild von Maschinen vor Augen, die von evolvierenden Automaten gebaut wurden, und um die herum Forscherteams versammelt sind, um in jahrelanger Arbeit herauszufinden, wieso diese Maschinen funktionieren. Die digitale Evolution ist in diesen Momenten eine genauso unerklärbare Intelligenz, wie sie Außerirdische wären oder wie sie die Natur selber ist. Wir müssen uns auf Produkte einstellen, die wir nicht verstehen, im Gegensatz zu solchen, die nicht jeder versteht, bei denen man aber darauf vertrauen kann, daß irgendwer (zumindest der Erbauer) weiß, wie sie funktionieren. In gewissem Sinne werden diese Produkte nicht-menschlichen Ursprungs sein, vielleicht eine ´Herkunft zweiten Grades´. Es wird eine wesentliche Aufgabe des Designs sein, diese Brücke zu s |