"Wir sind haptisch, emotional und visuell-anschaulich orientierte Menschen."

Michael Schacht und Georg Peez sprachen mit dem Informatiker und Philosophen Klaus Mainzer über Gemeinsamkeiten und Unterschiede zwischen Gehirn und Computer im Kontext von Wahrnehmen, Denken und Lernen

Wahrnehmung und Wahrnehmungsverarbeitung sind für Kunstpädagoginnen und Kunstpädagogen zentrale Themenbereiche. Unsere Modelle zur Wahrnehmung und deren Verarbeitung prägen entscheidend unsere Vorstellungen über menschliche Erfahrungsprozesse und Kreativität.

Von kunstpädagogischen Diskursen weitgehend unbeachtet gewann in den letzten Jahren ein interdisziplinärer Forschungsbereich an Bedeutung, in dem neue wissenschaftliche Hypothesen und Modelle über Wahrnehmung entwickelt werden. Forschungsergebnisse u. a. aus der Neurologie, Physik, Biologie, philosophischen Logik, Kreativitäts- und Chaosforschung sowie aus der Informatik - insbesondere aus der Erforschung "Künstlicher Intelligenz" - ermöglichen Schlüsse darüber, wie das menschliche Zentralnervensystem Wahrnehmungen verarbeitet. Hierbei werden die neuronalen Vorgänge im physiologischen Organismus zu den Vorgängen der Datenübermittlung, -verarbeitung und -speicherung im Computer in Beziehung gesetzt. Es ergeben sich Parallelen und Unterschiede zwischen dem Gehirn und dem Computer.

Einige Erkenntnisse und Modelle aus diesem sehr komplexen Forschungsgebiet werden im Folgenden in einem Interview mit Dr. Klaus Mainzer, Professor für Philosophie und Wissenschaftstheorie der Universität Augsburg, angesprochen und zum Teil auf kunstpädagogische Reflexions- und Handlungsfelder bezogen.

Dr. Klaus Mainzer, Professor für Philosophie und Wissenschaftstheorie der Universität Augsburg

Foto: Frank Fremerey, HOME


Frage: Herr Prof. Dr. Mainzer, was sind Ihrem wissenschaftlichen Verständnis nach die wichtigsten Charakteristika von Wahrnehmung? Wie lässt sich ein Wahrnehmungsprozess beschreiben?

Klaus Mainzer: Die Wahrnehmung nach heutiger Auffassung beginnt mit der Registrierung von physikalischen Analogsignalen. Im ersten Run aus der Sicht der Informatiker sind wir Analogrechner. Wir nehmen mechanischen Druck wahr, akustische Wellen, elektrodynamische Wellen auf der Netzhaut, chemische Reize in der Nase und auf der Zunge. Das sind lauter stetige, analoge Signale. Diese werden dann, wie wir heute wissen, in Sensorzellen umgewandelt zu digitalen Aktionspotenzialen. Die Zelle feuert, wenn die entsprechenden Schwellwerte erreicht sind.

 

Frage: Was sind die verbindenden und trennenden Aspekte der Wahrnehmungsverarbeitung und der Datenverarbeitung?

Klaus Mainzer: Das Zentralnervensystem arbeitet auf der untersten Ebene im Binärcode. Hier liegt die entscheidende Parallele mit dem Rechner. Beide arbeiten im Dualsystem. Auf diese Parallele stützt sich auch die Grundthese von John von Neumann in seinem Buch "Computer und Gehirn". Aus diesen binärcodierten Daten müssen, und da wird es spannend, Informationen, Empfindungen und schließlich Wissen, Vorstellungen, Gefühle, Bewusstsein aufgebaut werden, und darüber weiß man heute eigentlich noch sehr wenig. Was man vermutet ist, dass diese Übersetzungen mit den entsprechenden Arealen des Gehirns zu tun haben. Man hat Vermutungen darüber, in welchen Arealen welche Binärcodes decodiert werden, um etwa zu Empfindungen zu kommen (z. B. mit dem limbischen System). Wahrnehmungsverarbeitung im Menschen lässt sich also präzise als eine bestimmte Form von Datenverarbeitung beschreiben. Das ist nicht bloß eine Metapher. Wir sind dabei, den Schritt von der Wahrnehmung zur Empfindung mit ihren emotionalen und bewussten Zuständen zu verstehen, wissen aber längst noch nicht alles.

 

Frage: Wenn Sie die neurologischen Grundlagen des Gehirns in Beziehung zu den digitalen Funktionsweisen des Computers setzen, welche Unterschiede und Übereinstimmungen ergeben sich zwischen den beiden Bereichen, z. B. in ihrem Aufbau, ihrer Struktur, in ihrer Funktions- und Arbeitsweise oder in spezifischen Speicherformen?

Klaus Mainzer: Ein von-Neumann-Computer ist in einem Schichtenmodell aufgebaut. Auf der nutzerorientierten Ebene wird in Anwendersprachen programmiert. Nutzer müssen ihre Probleme und Algorithmen zunächst in eine geeignete Programmiersprache übersetzen. Beispiele sind objektorientierte Sprachen wie Java, die Hypertexte im Internet, Multimedia und virtuelle Realität möglich machen. Diese Anwenderprogramme werden von Compiler- und Interpretersprachen auf der mittleren Ebene in die untersten Ebene der Maschinensprache übersetzt, die mit Binärcodes arbeitet, wie wir sie auch im Zentralnervensystem finden. Hier sehe ich eine Parallele zwischen Gehirn und Computer. Die Maschinenstruktur ist natürlich nicht identisch mit dem, was wir im Gehirn vorfinden. Festhalten sollten wir, dass im Gehirn eine komplexe Hierarchisierung bei Umcodierungen stattfindet. Diese geschieht allerdings nicht symbolisch, sondern molekular/physiologisch. Der wesentliche Unterschied zwischen der klassischen Architektur der von-Neumann-Maschinen und unserem Gehirn besteht in der Nicht-Trennung dieser Funktionen. Wenn wir unser Gehirn aufklappen, dann sehen wir da alles Mögliche, nur eben nicht ein Areal als CPU (Central Processing Unit) oder einen Speicher. Wir haben zunächst einmal eine andere Architektur. Aus neurologischer Sicht lässt sich das Hirn als ein komplexes System von Nervenzellen - Neuronen auffassen, die neurochemisch über ihre Synapsen wechselwirken und sich in komplexen Arealen verschalten können.

 

Frage: Mit welchen Mitteln ist dies wissenschaftlich zu untersuchen?

Klaus Mainzer: Das ist heute in Echtzeit mit PET (Positronen Emissions Tomographie) oder anderen bildgebenden Verfahren beobachtbar. Auf diesen Bildern sieht man buchstäblich, wie sich Gehirnareale zu Mustern verschalten. Weil das Ganze in Echtzeit funktioniert, können wir diese Messungen korrelieren mit entsprechenden kognitiven oder motorischen Zuständen des Menschen. Man kann sehen, was im Gehirn geschieht, wenn die Versuchsperson etwas fühlt, sich etwas vorstellt oder eine bestimmte Tätigkeit ausübt. Damit ist uns erstmals die Möglichkeit gegeben, Zusammenhänge zwischen hirnphysiologischen und kognitionspsychologischen Zuständen zu beobachten. Die Forschungsfragen in diesen Feldern beziehen sich zurzeit auf Selbstorganisation, Parallelismus, Konnektionismus, was zusammen sagt, dass das Gehirn in Lernprozessen sich selbst neu verschaltet, um stets ein angemessenes Werkzeug zu sein, das den Anforderungen seiner Umwelt entspricht. Bei PET (Positron-Emission-Tomographie)-Aufnahmen erzeugt ein Computer Echtzeitbilder, die zeigen, wie sich die Neuronen verschiedener Gehirnregionen bei kognitiven Tätigkeiten neurochemisch verschalten. Beim Lesen, Hören, Sprechen und Denken sehen wir verschiedene Muster von Teilen des Gehirns auf dem PC-Bildschirm flackern. (Abb. 1) Aufgrund dieser computergestützten Beobachtungstechnik können wir allerdings bisher nur feststellen dass jemand sieht, hört, spricht oder denkt, aber noch nicht, was er sieht, hört, spricht oder denkt. Gehirne sind zwar virtuell darstellbar, der ,gläserne Mensch' damit allerdings noch nicht realisiert. Dabei ist es wichtig zu verstehen, dass keine Zelle für sich denkt oder fühlt, sondern diese Funktionen kollektive Leistungen von entsprechenden Verschaltungsmustern sind. Weil dem so ist, sind diese Netze auch ziemlich fehlertolerant: Leistungen können bis zu gewissen Grenzen verlagert werden, etwa bei Hirnverletzungen oder Schlaganfällen. Dann können benachbarte Hirnareale die Funktion der ausgefallenen Module übernehmen. Hinzu kommt die Lernfähigkeit, die beim alten von-Neumann-Computer nicht denkbar war. Lernen ist physiologisch als lokale Veränderung von neuronalen, biochemischen, synaptischen Verbindungen zu verstehen.

Abb. 1 Gehirnaktivitäten in PET-Bildern beim Lesen (a), Hören (b), Sprechen (c) und Nachdenken über die Bedeutung eines Wortes (d). (Mainzer 1997, S. 60)

 

Frage: Könnten Sie dies bitte auch anhand eines Beispiels aus dem Alltag exemplarisch erläutern?

Klaus Mainzer: Mit technischen neuronalen Netzen und entsprechenden Lernalgorithmen sind wir heute in der Lage, Selbstorganisationsprozesse des Gehirns zu simulieren. Logisch-mathematische Aufgaben konnten sehr früh in der Geschichte der Informatik durch von-Neumann-Computer gelöst werden. Supercomputer wie "Deep Blue" schlagen mit ihren massiven Rechenleistungen das logisch-strategische Denken eines Schachweltmeisters. Dieselben Maschinen versagen aber, wenn sie so alltägliche Aufgaben wie die elastischen Bewegungen eines Menschen z. B. beim Balancieren eines Stabes simulieren sollen. Hier sind neuronale Netze, wie sie auch von der Evolution entwickelt wurden, den konventionellen Computerarchitekturen überlegen.

 

Frage: Von Leonardo da Vinci sind folgende Zitate überliefert: "Ich sah schon in Wolken und auf Mauern allgemeine Flecken, die mich zu schönen Erfindungen verschiedener Dinge anregten." "Wenn du in allerlei Gemäuer hineinschaust, das mit vielfachen Flecken beschmutzt ist, oder in Gestein von verschiedener Mischung - hast du da irgendwelche Szenarien zu erfinden (...); auch wirst du dort allerlei Schlachten sehen und lebhafte Gebärden von Figuren, sonderbare Physiognomien und Trachten und unvermeidliche Dinge, die du auf eine willkommene und gute Form zurückbringen kannst." Was läuft bei dem von Leonardo beschriebenen Prozess der assoziativen Mustererkennung aus neurologischer Sicht im Gehirn ab? Lässt sich eine solche Wahrnehmungsverarbeitung neurochemisch mit heute zur Verfügung stehenden Verfahren in Ansätzen simulieren?

Klaus Mainzer: Die von Leonardo beschriebene assoziative Mustererkennung wird von neuronalen Netzwerken des Gehirns realisiert. Daher werden technische Systeme von neuronalen Netzen entwickelt, die sich am Aufbau und der Informationsverarbeitung von Gehirnen orientieren. Wie ein Gehirn sind sie ein komplexes System von autonomen Teilen (technischen Neuronen), deren lokale Wechselwirkungen kollektive Aktivitätsmuster erzeugen. Ihre Dynamik wird nicht wie bei einem Computer durch ein Programm in einem oder mehreren Prozessoren gesteuert, sondern organisiert sich selbst. Wie Gehirne sind neuronale Netze lernfähig, flexibel, fehlertolerant und haben eine parallele Signalverarbeitung. Ein neuronales Netz lernt nämlich an Beispielen, indem es die Stärken seiner Synapsen lokal verändert und an die Beispiele schrittweise anpasst. Dieser Vorgang heißt synaptische Plastizität. Nach dieser Lernphase hat das neuronale Systems aus den Beispielen Regeln erkannt, die es in neuen Situationen wiederverwenden kann. Die Regeln sind also nicht als Computerbefehle in einem Programm vorgegeben und in einer Prozessoreinheit gespeichert, sondern im Netzwerk der Synapsen verteilt. Daher suchten auch seit René Descartes Generationen von Gehirnforschern vergeblich nach Modulen im Gehirn, die für Regeln der Erkenntnis zuständig seien. Sie sind ebenfalls im Netz der synaptischen Verschaltungen versteckt.

Ein traditioneller Computer vermag zwar verglichen mit menschlichen Gehirnen unvergleichbar schneller zu rechnen. Dafür erkennt ein Gehirn ,augenblicklich' eine Gestalt oder ein Muster - auch in dem von Leonardo da Vinci beschriebenen Sinne - wieder, das es vorher einmal gesehen - ,gelernt' - hat. Eine Gestalt ist offenbar nicht bloß die Summe ihrer Pixel. (Abb. 2) Dieser ganzheitliche Aspekt menschlicher Erkenntnis wurde sogar von den Gestaltpsychologen als Argument angeführt, dass es einer Maschine nie gelingen könnte, solche typisch menschlichen Leistungen zu erbringen. Die Muster- und Gestalterkenntnis ist eine der herausragenden Leistungen von neuronalen Netzen. Ende der 50er Jahre baute der amerikanische Psychologe Rosenblatt eine erste neuronale Netzwerkmaschine mit dem Namen ,Perzeptron', die Mustererkennung mit neuronenähnlichen Einheiten bewerkstelligte. Mittlerweile liegen wesentlich effektivere Netze als das Perzeptron vor. Wir sprechen von überwachten Lernverfahren, wenn der zu lernende Prototyp (z. B. die Wiedererkennung eines Musters) bekannt ist und die jeweiligen Fehlerabweichungen daran gemessen werden können. Ein Lernalgorithmus muss die synaptischen Gewichte so lange verändern, bis ein Aktivitätsmuster in der Outputschicht herauskommt, das möglichst wenig vom Prototyp abweicht.

Abb. 2 Wahrnehmung ist mehr als die Summe ihrer Teile. Der Pointillist Georges Seurat schuf seine Gemälde aus vielen farbigen Punkten, die sich erst beim Betrachten aus einer gewissen Entfernung zu einem gegenständlichen Sujet verbinden. Georges Seurat (1859-1891): Poseuse de profil, 1886, Öl auf Leinwand

 

Frage: Ikonische Bildersprache und Fähigkeit des visuell-räumlichen Begreifens gewinnen in unserer Kultur durch den Einfluss der Kommunikations- und Informationstechnologien an Bedeutung. In der Kunstpädagogik vertreten viele die Auffassung, dass zukünftig die Kompetenz, mit Bildern produktiv und rezeptiv angemessen umgehen zu lernen, gesellschaftlich verstärkt nachgefragt werden wird. Wie stellt sich dies aus Ihrer Sicht dar?

Klaus Mainzer: In der Entwicklung des Interface Mensch - Maschine beobachten wir einen deutlichen Trend von der abstrakten Textdarstellung zur anschaulichen ikonischen Bildersprache. Ein Bedienungsmenü ist umso besser, je mehr es mit sich selbst erklärenden Symbolen ohne komplizierte Programmieranweisungen auskommt. Im Zeitalter von Multimedia und virtueller Realität wird das visuell-räumliche Begreifen zum zentralen Informationskanal. Das ist eine völlig natürliche Entwicklung, da wir keine von-Neumann-Rechner, sondern haptisch, emotional und visuell-anschaulich orientierte Menschen sind. Diese brisante Mischung aus emotionaler Intelligenz und visueller Anschauung ist bis heute Teil unserer Überlegenheit gegenüber den Maschinen. Wenn heute Medienkompetenz im Zeitalter der Informationsüberflutung gefordert wird, dann handelt es sich in der Tat darum, mit Bildern produktiv und rezeptiv angemessen umgehen zu lernen. Dabei kommt der Kunstpädagogik eine zentrale Aufgabe zu, wenn sie sich mit anderen Disziplinen wie z. B. Medienpädagogik, Kommunikations- und Kognitionswissenschaften vernetzt. Genau das realisiere ich in Augsburg durch unser Institut für Interdisziplinäre Informatik, dessen Direktor ich bin.

 

Frage: Der Mensch entwickelt ein Bewusstsein über sich selbst. Er kann über sich selbst nachdenken. Selbstreferentialität trifft man in biologischen oder gesellschaftlichen Systemen an. Welche Unterschiede bestehen zwischen Selbstreferentialität und dem, was wir unter Bewusstsein verstehen?

Klaus Mainzer: Es gibt empirische Hinweise, dass Bewusstseinsfunktionen mit dem zusammenhängen, was man ,Selbstreferentialität eines neuronalen Netzes' nennt. Ein Bewusstsein von uns selbst, ein Selbstbewusstsein, drücken wir auch durch das Wort ,Ich' aus. In der Entwicklung eines Kindes lassen sich die Stadien genau angeben, in denen das Ich-Bewusstsein erwacht und Wahrnehmungen, Bewegungen, Fühlen, Denken und Wünschen schrittweise mit dem eigenen Ich verbunden werden. Dabei wird nicht auf einmal ein einzelnes "Bewusstseinsneuron" wie eine Lampe eingeschaltet. Eine solche Vorstellung würde das Problem auch nur verschieben, da wir fragen müssten, wie in diesem Bewusstseinsneuron Bewusstsein zustande käme. Am Beispiel einer Wahrnehmung wird der komplexe Verschaltungsprozess deutlich, der im Prozess der Selbstreflexion schließlich zum Selbstbewusstsein führt: Ich nehme einen Gegenstand wahr; schließlich nehme ich wahr, wie ich mich selbst beim Wahrnehmen dieses Gegenstandes wahrnehme etc.

 

Frage: Werden Menschen in absehbarer Zeit so etwas wie "Künstliche Intelligenz" entwickeln können, oder handelt es sich hierbei nur um eine Metapher?

Klaus Mainzer: Voraussetzung für Ihre Frage nach Künstlicher Intelligenz (KI) ist unser Verständnis eines Computers. Wie bereits erwähnt, verstehen wir unter einem von-Neumann-Computer eine programmgesteuerte Maschine zur automatischen Datenverarbeitung. Er ist universell einsetzbar, da seine Datenverarbeitung durch verschiedene Programme gesteuert werden kann. Programme zur automatischen Lösung von Problemen, die beim Menschen Intelligenzleistungen erfordern, werden in der "Künstlichen Intelligenz" (engl. Artificial Intelligence), einem Teilgebiet der Informatik, untersucht.

 

Frage: Werden Systeme Künstlicher Intelligenz heute schon angewendet?

Klaus Mainzer: Praktische Anwendung findet die KI bei wissensbasierten Expertensystemen, die ein begrenztes Spezialwissen (z. B. Arzt, Ingenieur) symbolisch abbilden und aus dem Wissen automatisch Schlussfolgerungen ziehen, um begrenzte Problemlösungen zu finden. So gibt es Diagnosesysteme in der Medizin, die zu vorgegebenen Symptomen mögliche Krankheitsbilder suchen und gewichten. Im Unterschied zum menschlichen Experten ist die Wissensbasis allerdings beschränkt. Das System besitzt kein Hintergrundwissen und ist in der Regel nicht lernfähig, aber schnell im logischen Schließen. Das menschliche Denken ist viel zu komplex, um insgesamt in einem KI-Programm symbolisch abbildbar zu sein. Tatsächlich hat es sich im Laufe der Evolution entwickelt. Die Richtung "Künstliches Leben" (KL) untersucht daher, ob sich auch Programme - und damit auf der Hardware-Ebene vielleicht sogar Roboter - selbstständig wie in der Evolution entwickeln könnten. Bereits der Computerpionier John von Neumann bewies in den Fünfzigerjahren, dass zelluläre Automaten unter bestimmten Voraussetzungen sich selbst reproduzieren können. Die künstliche Evolution einer Automatenpopulation bedeutet, dass genetische Algorithmen mit Mutation, Rekombination und Selektion zur Optimierung von Automatengenerationen führen. Eine praktische Anwendung ist z. B. das Evolutionsprogramm AVIDA, mit dem die Entwicklung von RNA-Molekülen oder E.coli-Bakterien simuliert wird. Wie in der Evolution gibt es überraschende (und nicht immer erwünschte) Entwicklungen, z. B. das Auftreten von "Parasiten", "Viren", aber auch "Symbiosen".

 

Frage: Können Sie bitte abschließend zur Entwicklung von Künstlicher Intelligenz noch einen Blick in die Zukunft umreißen?

Klaus Mainzer: Wie in der Evolution reichen Gencodes keineswegs aus, um Verhalten, Lernfähigkeit, Emotion und Bewusstsein von hoch entwickelten Organismen zu erklären. Grundlage sind komplexe neuronale Systeme wie das menschliche Gehirn. Seine Dynamik liefert die Blaupausen für Lernalgorithmen, mit denen in der Neuroinformatik neuronale Netze ausgestattet werden. (Abb. 3) Neuronale Netze können komplexe Bewegungsmuster, Bild-, Ton- und Sprachmuster selbstständig ohne vorherige Programmierung lernen. Verstehen wir unter Bewusstsein einen bestimmten Wach- und Aufmerksamkeitszustand des Gehirns, dann ist nicht auszuschließen, dass eine technische Simulation der daran beteiligten neuronalen Funktionen eines Tages möglich ist. Davon sind wir zwar noch weit entfernt. Aber, wie die Beispiele zeigen, ist die technische Evolution von KI längst unser Alltag. KI ist alles andere als eine bloße Metapher. Es finden von uns initiierte technische Ko-Evolutionen von intelligenten Systemen statt, die Probleme auf ihre Art lösen. Es ist unsere Aufgabe, zu sichern, dass KI-Entwicklungen als humane Dienstleistungen eingesetzt werden und sich nicht gegen uns wenden.

Abb. 3 Größenvergleich zwischen einem Neuron mit 5 Dendriten und einem 5-Eingangs-Gatter in MOS-Technik. (Mainzer 1997, S. 76)

 

Literatur zum Thema:

Brodbeck, Karl-Heinz: Das Gehirn ist kein Computer. Neuere Erkenntnisse der Neurowissenschaft, http://www.fh-wuerzburg.de/fh/fb/bwl/Offiziel/BWT/pages/pp/2/brodbeck.htm

Freiberg, Henning: Thesen zur Bilderziehung im Fach Kunst. Plädoyer für ein neues Fachverständnis in der Bild-Mediengesellschaft. In: Kirschenmann, Johannes/ Peez, Georg (Hg.): Chancen und Grenzen der Neuen Medien im Kunstunterricht. Hannover (BDK-Verlag) 1998, S. 12-17

Fremerey, Frank: Kabel und Nerven. Wahrnehmung und Gedächtnis als Vorgänge der Datenverarbeitung. In: c't, Heft 20, 1999, S. 94-97

Mainzer, Klaus: Gehirn, Computer, Komplexität. Heidelberg (Springer) 1997

Neumann, John von u. a.: The Computer and the Brain. Yale University Press, New Haven CT 2000

Zielinski, Siegfried: Fredda et secca / kühl und trocken. Zu einigen Vorstellungen und Metaphern der Cellula Memorialis als Bildspeicher/Archiv. In: Kunstforum International, Band 128, 1994, S. 182-189

zurück zum Seitenanfang

Michael Schacht & Georg Peez

 

Zuletzt geändert am 11.03.2001