Artificial Intelligence
Rolf Pfeifer "Nicht alles ist digital - oder warum es keine körperlose Intelligenz gibt"
Das Geheimnis der Intelligenz ist nicht im Hirn - und sie lässt sich nicht mit einem Computer simulieren. Zu dieser ernüchternden Einsicht gelangte die Forschung im Bereich der künstlichen Intelligenz Mitte der 80er Jahre. Die Forschung orientierte sich neu und schuf den Begriff der "Neuen künstlichen Intelligenz". Intelligenz hat demnach mit Verhalten zu tun, wer sie erforschen will braucht autonome Systeme, die in einer realen Interaktion mit der Aussenwelt stehen - wie zum Beispiel Roboter. Rolf Pfeifer, der Leiter des Labors für künstliche Intelligenz am Institut für Informatik der Universität Zürich legt zusammen mit Christian Scheier mit dem Werk "Understanding Intelligence - eine eindrückliche und auch für Nichtinformatiker leicht lesbare Gesamtdarstellung der Einsichten im Feld der "Neuen künstlichen Intelligenz" vor.
Im Film "2001 - A Space Odyssey" des Regisseurs Stanley Kubrick aus dem Jahr 1968, hat ein intelligente Computer namens Hal das Kommando und führ die Mission ins Verderben. Damit drückte der Autor existierende, vage Ängste vor dem Computer aus. Hat der Computer Hal für sie etwas mit künstlicher Intelligenz zu tun?
Die Vision entspricht dem traditionellen Verständnis von künstlicher Intelligenz, das sehr lange verfolgt wurde. Es beruht auf der Vorstellung, dass Intelligenz letztlich auf bestimmte Algorithmen reduziert werden könnte. In dieser Vorstellung spielt die effektive Realisierung keine Rolle, die Algorithmen können im Hirn, in einem Computer oder auch in einem Stück Emmentaler Käse berechnet werden, um ein Bild des Philosphen Hillary Putnam zu brauchen.
Tatsächlich ist der Computer Hal auch ohne eigentlichen Körper, er wird im Film durch eine beunruhigend wirkende Kontrollampe symbolisiert
Das ist genau der Punkt. In diesem Konzept ist der Computer eine Metapher. Genau so denkt heute auch der Mensch von der Strasse. Diese Vorstellung geht davon aus, dass auch der Mensch letztlich eine informationsverarbeitende Maschine ist. Diese Vorstellung ist falsch.
Und der Schachcomputer "Deep Blue" mit dem es den Ingenieuren von IBM 1997 gelang den Schachweltmeister Kasparov zu besiegen - ist das auch künstliche Intelligenz?
Auch Deep Blue ist ein Beispiel für einen traditionellen Approach ans Thema künstliche ntelligenz. Bitte verstehen Sie mich recht: Hinter Deep Blue steckt eine grandiose technische Leistung. Der Grund dass Deep Blue so erfolgreich war ist folgender: Schach ist genau die richtige Anwendung für die traditionelle Auffassung von künstlicher Intelligenz. Schach ist ein formales Spiel. Jede Position im Spiel lässt sich mit formalen Regeln eindeutig beschreiben. Es findet keine Interaktion mit der Umwelt statt oder sie ist trivial und besteht aus dem Verschieben von Figuren. Deep Blue liefert keinen Beitrag zur Frage, was ist Intelligenz. Man muss allerdings auch beifügen, dass dies gar nicht das Ziel des Projekts war. IBM wollte beweisen, dass ein Schachprogramm auch den besten menschlichen Spieler schlagen kann.
Weshalb interessiert sich die Forschung überhaupt für künstliche Intelligenz?
Diese Frage hat den Menschen immer schon interessiert. Die ganze philosophische Literatur ist voll davon, es ist eine der ganz grossen Fragen: was ist der Unterschied zwischen Mensch und Tier?
Die Forschung im Bereich hat genau genommen drei Ziele: Erstens wollen wir verstehen, was natürliche Intelligenz ist und wie sie funktionniert, dann wollen wir intelligente Artefakte bauen können und schliesslich Prinzipien des intelligenten Verhaltens eruieren.
Das sind dann die gleichen Prinzipien die auch natürlicher Intelligenz zuglrunde liegt. Wir haben versucht, diese Prinzipien hervorzuholen. Das sind Design Prinzipien, die auch auf natürliche Systeme zutreffen.
Für uns ist die Einsicht wichtig, dass rationales Denken und rationales Verhalten nicht dasselbe sind. Auch in der AI-Forschung machte man lange Zeit dieselben Fehler und meinte, rationales Verhalten müssen auf rationales Denken zurückgeführt werden. Das zeigt ein Blick auf das Verhalten der Ameisen: Sie verhält sich zweckdienlich und optimiert den kürzesten Weg zur Futterquelle. Aber sie macht das nicht analytisch-deduktiv. Sie benutzt Pheromonspuren, die mit der Zeit verdunsten. Dann findet ein Prozess der Selbstorganisatio nstatt. Der Beobachter stellt dann fest, die Ameise hat den optimalen Weg gefunden, aber sie hat kein Bewusstsein davon.
Besteht heute Einigkeit, dass der Weg zur Erforschung der Intelligenz nicht über grosse Computer führt, sondern über kleine, autonome Roboter?
Es gibt in der AI-Forschung keine einheitliche Community, aber es ist einem grossen Teil der Forscher klar, dass sich Intelligenz nicht auf der Ebene eins Computers respektive eines Algorithmus abhandeln lässt. Zu dieser Einsicht gelangte man an ganz verschiedenen Orten, entscheidend waren dabei sicher die Arbeiten von Rodney Brooks vom AI-Labor am Massachusetts Institute of Technology. Es gab aber in der Philosophie und Linguistik schon lange Leute, die darauf hinwiesen.
Warum klappte es dann nicht mit dem Computer?
Früher dachte man, wenn man einmal ein gutes Schachprogramm hat, dann häte man auch die Prinzipien der Intelligenz verstanden und müsste nur noch eine Kamera und einen Roboter an diesen Computer anschliessen um zu Interaktionen mit der Umwelt zu kommen. Dass dies nicht geklappt hat, hat vor allem mit der Problematik der Kognitio zu tun: Maschinelle Wahrnehmung ist ein riesiges Problem. Man kann nicht einfach Sensorstimulation nehmen und abbilden. Das funktionniert nicht. Das Auge "sieht" Farbwerte ohne Sinn. Was hier hereinkommt ist nicht Information sondern Sensorstimulation, die kontinuierlich variiert wird.. Das Hirn wird überflutet von ständig wechselnden Informationen mit denen es etwas machen muss.Die Aufgabe eines intelligenten Organismus besteht darin, aus dieser Sensorstimulation Informationen zu gewinnen.
Darauf versucht man Roboter zu konstruieren, die gewisse Aufgaben bewältigen können. Auch das gelang vorerst nicht. Dann kam Rodney Brooks mit seinem Papier über die "Subsumption Architecture" und bewies, dass der herkömmliche Approach nicht funktionniert. Früher ging man davon aus, Intelligenz sei im Hirn zentralisiert und Information werde nach dem Prinzip "sense - think - act" verarbeitet. Auch mit enorm schnellen Computern geht das nicht, die Datenmenge, die verarbeitet werden muss, ist schlicht zu gross. Seine Idee war deshalb: Man muss diese Kopplung enger machen. Es braucht eine direkte sensorisch-motorische Kopplung, anders könnte man in der realen Welt gar nicht überleben.
Unsere Computerprogramme sind aber alle sequentiell und genau so funktionniert Intelligenz nicht. Darum hat man sich den neuronalen Netzen zugewandt. Sie haben verschiedene Eigenschaften, die für uns ganz wichtig sind: Dazu gehört etwa die Generalisierung. Im Schach gibt es identische Zustände. In der wirklichen Welt gibt es nie zweimal dieselbe Situation. Darum braucht es diese Fähigkeit zur Generalisierung. Neuronale Netze bieten zudem die notwendige Robustheit und Redundanz. In natürlichen System ist Redundanz ein ganz wichtiger Bestandteil. Dazu kommt auch die Lernfähigkeit. Aber auch neuronale Netze lösen nicht alle Probleme. Ungelöst ist zum Beispiel das sogenannte "Symbol Grounding Problem": Bei einem Computerprogramm - nehmen Sie zum Beispiel einen Fahrplan - sitzt immer jemand vor dem Bildschirm, der die Daten interpretiert. Wenn man diese Person aus dem System herausnimmt, ist das Programm plötzlich total sinnlos. Darum dürfen wir nicht symbolische Information verarbeiten!
Also weg von der digitalen Welt zurück zur analogen...
Intelligentes Verhalten hat nichts mit Symbolverarbeitung zu tun. Um dies zu erforschen brauchen wir reale Körper. Der Körper ist eine notwendige Bedingung für die Intelligenz und Körper heisst in unserem Fall Roboter. Das hat nichts mit der Robotik der Science Fiction Welten zu tun. Roboter sind Forschungsinstrumente. Wir sind gezwungen, Robotzer zu verwenden. Wir wollen autonome Roboter, die selber direkt mit der Umwelt interagieren. Der Mensch darff nicht dazwischengeschaltet werden.
...und hierzu gehören die klassichen Begriffe von kognitiven und sensomotorische Tätigkeiten
Das ist wiederum die traditionelle Sichtweise. Wenn man die Frage nach den Mechanismen stellt, die dahinterliegen, gibt es diese Unterschiede plötzlich nicht mehr. Es gibt kein reines Denken. Zum Beispiel Sprache: Die komplexeste aller Tätigkeiten. Ist das nun kognitiv oder sensomotorisch? - Es ist immer beides! Darum beschäftigen wir uns auch mit Babies. Sie können uns nichts vorschwindeln. Sie lernen die Welt kennen, indem sie ausprobieren, sie nehmen alles in den Mund, schmeissen es auf den Boden und sehen, was dabei herauskommt.
Sobald man den Austauch mit der Umwelt reduziert, dreht das System durch.
Ein wichtiger Begriff in dieser Diskussion ist die Emergenz. Was ist genau damit gemeint?
Mit Emergenz meinen wir Selbstorganisation. Sie entsteht, ohne dass es einen ausdrücklichen Willen dazu gibt. Ich kann das Verhalten der Ameisen, die auf dem Weg ihrer Futtersuche Hindernissen ausweicht, nicht auf einen bestimmten Mechanismus des Ausweichens reduzieren. Eine Ameise mit einem - hypothetischen - grossen Körper verhält sich anders als eine kleine. Es gibt keinen înneren Mechanismus für dieses Verhalten. Verhalten ist eben emergent und ergibt sich aus der Interaktion mit der Umwelt.
Könnte man die Prinzipien der "New Artificial Intelligence" mit den zentralen Begriffen Embodiment, Emergenz, Neuronale Netz, Redundanz beschreiben?
Man müsste noch den Begriff der synthethischen Methodik einführen - Verstehen durch Nachbauen. Auch den Begriff der Sensomotorischen Kopplung scheint mir wiechtig: Was immer ich auch mache, ich erzeuge Sensorstimulation. Deshalb ist Wahrnehmung ein sensomotorischer Prozess. Darauf kommt man nur wenn man mit Robotern arbeitet, nicht mit Computerprogrammen. Auch der Begriff des "cheap design" gehört dazu: Biologische Systeme sind immer extrem einfach und billig.
Widersprechen sich Cheap Design und Redundanz?
Das stimmt bis zu einem gewissen Grad, aber die
beiden Prinzipien ergänzen sich auch: Die Sysyteme der Natur sind einfach, sie
nutzen alle Gegebenheiten aus. Es gibt in der realen Welt keine Universalität.
Es gibt nur spezifische Situationen und spezifische Lösungen. Die Natur hat die
Tendenz über die Evolution diese Gegenheiten auszunützen. So kommt man auf
einfach Lösungen .Ein Beispiel dafür ist die Anordnung der Facetten im
Insektenauge. Cheap Design heisst Begegebenheiten, Schwerkraft ausnützen,
Physik, Geometrie.
Auf der anderen Seite gibt es bei adaptiven System das Prinzip der Redundanz.
Das wird ja auch i nder Flugzeuttechnik verwirklicht. Die Natur ist das besseer
als die Technik. Sie verdoppelt nicht einfach sondern erzeugt partielle
Ueberlappungen. Das linke Auge hat andere Informationen als das rechte. Auge und
Ohr ergänzen sich und überlappen sich teilweise, Das ist gute Redundanz.
Welche Folgerungen ergeben sich aus den Prinzipien der "New Artificial Intelligence"
Die Informatik hat sich etabliert. Das ist einer der grössten technologischen Erfolge unserer Gesellschaft - und hat die Gesellschaft nachhaltig verändert. Wenn ich sage, man muss darüber hinausgehen so ist das keine Kritik an der Informatik. Die klassische Informatik befasst sich mit der Programmierung. Dort spielt ja eben gerade die Realisierung keine Rolle und genau diese Idee müssen wir heute überwinden.
Die Japaner haben hier einen interessanten Approach. Sie wollen intelligente
Geräte herstellen. Eine Stereoanlage oder eine Waschmaschine. Die Japaner
verlagern einen Teil der Interaktion mit der Maschine in die Maschine selber.
und bauen Sensoren ein, die zum Beispiel selber schauen, was für Gewebe drin
sind und wie schmutzig die sind.
Wir stehen erst am Anfang der Anwendungsmöglichkeiten. Wir stossen in eine total neue Dimension vor. Sensoren können kaputt sein, sie können falsche Informationen erzeugen. Dann muss ich überlegen, was krieg ich überhaupt von diesem Roboter.
Und welche Folgerungen ergeben sich aus diesen Ideen für andere Wissenschaften?
Das ist eine interessante Frage: Wir haben keine Probleme, die Organisation der Ameisen als emergente Organisationsweise zu erklären. Sobald wir diese Erkläungen aber auf menschliches Verhalten anwenden, schrecken wir zurück. Diese Erklärungsmuster laufen unserem Weltbild zuwider, in dem wir selber im Mittelpunkt stehen und alles kontrollieren. Es fällt uns schwer zu akzeptieren, dass sich viele Strukturen selber ergeben und nicht das Resultat unseres analytischen Denkens sind.
Eine Mitarbeiterin in unserem Institut arbeitet zur Zeit an der Simulation des Verhaltens von Primaten. In ihrer Versuchsanordnung waren am Schluss die dominanten Affen in der Mitte und die weniger dominaten an der Peripherie. Wir interpretieren das als hierarchische Struktur aber genau diese Struktur ist in den Individuen nirgends repräsentiert. Sie ergibt sich durch das Verhalten der Einzelnen.
Zurück zum Anfang. Im Film "Odyssey 2001" übernimmt Hal die Kontrolle - es gibt auch heute Wissenschafter, die solche Theorien glauben: Moravec und Kurzweil: Was halten Sie von der Vorstellung, dass der Computer eines Tages die Kontrolle über uns übernehmen wird?
Als Wissenschafter würde ich nicht sagen, so etwas kann nie passieren. Das wissen wir nämlich nicht. Aber ich halte es für reichlich naiv. Vielleicht steckt hinter diesen Theorien ein nicht angemessenes Verständnis von Intelligenz. Solche Theorien wurden auch mit einem Seitenblick auf ihre Medienwirksamkeit entwickelt. Die Idee vom bösen Monster, welche die Macht übernehmen (Robo-Armageddon) ist attraktiv für die Medien.
Ich glaube die Entwicklung wird anders verlaufen -vielleicht etwas weniger
spektakulär. Der humanoide Roboter - das sehe ich nicht. Es gibt ja auch noch
einen Markt, der mitbestimmt. Wir werden Intelligenz in die Umwelt einstreuen
mit den Information Appliances. Aber es wird verteilte Information sein. Die
Konzepte komme immer noch vom Menschen. Es ist ja nicht weiter störend, dass
uns Maschinen in gewissen Bereichen überlegen sind. Aber so ganz banal wäre ja
ein Machtübernahme ja nicht, denn da müsste auch noch Selbsreproduktion dabei
sein.
Noch eine Bemerkung zu den Neuroimplantanten: Da steckt vielleicht auch eine fallsche Idee dahinter. Das Hirn ist nicht ein Schaltkreis, es ist auch eine Chemiefabrik. Wenn ich hier Chips mache müssten sie auch sensitiv auf diese chemischen Agenten sein, die im Hirn aktiv sind und auch solche Stoffe produzieren können. Wenn man solche Funktionen nachbilden will dann müsste man praktisch das gleiche Substrat nehmen, also organisches Gewebe.
Interview Dominik Landwehr
Dieses Gespräch wurde iim Labor für Artificial Intelligence des Instituts
für Informatik, Universität Zürich, Freitag, 19.November 1999-11-21 geführt. Thanks to Rolf
Pfeifer!
Related Links & Papers
Das
Buch: Understanding Intelligence von Rolf Pfeifer und Christian Scheier (bei
Amazon)
Rolf Pfeifers Homepage
http://www.ifi.unizh.ch/staff/pfeifer/
Rolf Pfeifers Referat "Lernen von und mit Robotern - oder nicht alles ist digital" vom 27.September 1999 am GDI in Rüschlikon
http://www.kulturprozent.ch/digitalbrainstorming/archiv/pfeifer/gdi.htm
Rolf Pfeifers Referenten Seite im "digital brainstorming" des Migros-Kulturprozents
http://www.kulturprozent.ch/digitalbrainstorming/archiv/pfeifer/index.htm
Wenn Roboter lernfähig werden - Brückenbauer Artikel vom 26.Mai 1998
http://www.brueckenbauer.ch/INHALT/9822/22comp.htm
Rodney Brooks - der Begründer der New Artificial
Intelligence in der Zeitschrift "Edge"
_________________________________________________________________________________________________________