Philosophische Anthropologie
von neuronalen und mentalen Zuständen, die aufgrund der Möglichkeit vielfältiger Verwirklichung mentaler Zustände nicht zu halten ist. Dementsprechend entwickelt er eine funktionalistische Position, die er im Verlauf der Sechzigerjahre weiter ausbaut und deren Ergebnisse in seinen philosophischen Abhandlungen unter dem Titel
Mind, Language and Reality
(1975) versammelt sind. Putnam formuliert die Hypothese, dass bestimmte Lebewesen durchaus einen vergleichbaren mentalen Zustand (zum Beispiel Schmerzen) artikulieren können, obwohl sie in ganz unterschiedlichen neuronalen Zuständen sind. Gerade hier bietet sich der Analogieschluss an, denn auch auf Computern mit unterschiedlicher Hardware kann die gleiche Software laufen. Sind also Computerprogramme vielfältig realisierbar, dann sind dies auch mentale Zustände. Letztere werden von ihm auch als »Software des Gehirns« bezeichnet.
In den Achtzigerjahren hat Putnam seine funktionalistische Position verabschiedet und plädiert seither für eine strikte [117] Trennung in der Beschreibung von neuronalen und mentalen Zuständen. Zwischenzeitlich ist sein Theoriekonzept jedoch von John McCarthy (geb. 1927) in Richtung eines essenzialistischen Funktionalismus weitergedacht worden. Nach McCarthys Auffassung geht es nicht um die Frage, wie mentale Qualitäten auf materiale Grundlagen reduziert werden können, sondern um die viel weitergehende Überlegung, wie physikalischen Systemen mentale Eigenschaften zugeschrieben werden können. Für ihn wird etwa das Problem des freien Willens zu einer bloßen Definitionsfrage bei der Softwareentwicklung. Ein Computer kann so programmiert werden, dass er eine Haltung gegenüber seiner Wahlfreiheit einnehmen kann. Diese Wahlfreiheit ist, wie McCarthy betont, in Beziehung zur Haltung des Menschen gegenüber seiner Wahlfreiheit »isomorph«. Für den Beobachter, beispielsweise im Turing-Test, kommt es nur darauf an, Wahlfreiheit am Maßstab der Veränderung einer artikulierten Überzeugung zu beobachten. Es ist nach McCarthys Ansicht eben nur ein technisches Problem, einer Maschine allgemeine Situationsmodelle zu implementieren, die auch eine Berechnung zeitlicher Veränderung, die Berücksichtigung von anderen Akteuren, die jeweils ihre Ziele verfolgen, sowie die Befähigung zur voranschreitenden Informationsverarbeitung mit einschließen. Ein Computerprogramm kann durchaus komplexe Situationen durchdringen und eine ihnen angemessene Haltung simulieren. Der Computer wird auf diese Weise in den Augen des Betrachters zu einer »Problemlösungsmaschine«.
Gegen diese starke These künstlicher Intelligenz hat John Searle (geb. 1932) vehement opponiert und in seinem Buch
Minds, Brains and Programs
(1980) von einem schweren Kategorienfehler gesprochen. (Vgl. Zimmerli 1994, 232–265). Die Simulation eines Zustands darf seiner Auffassung nach nicht mit dem Zustand selbst verwechselt werden. Geistige Zustände kommen nur solchen biologischen Organismen zu, die über Intentionalität verfügen, da dies die Voraussetzung [118] ist, um Absichten zu formulieren und in die Tat umzusetzen. So folgert Searle, dass Computer Intentionalität nur simulieren, nie aber qualitativ isomorph abbilden können. Eine Maschine verfügt nicht über Gefühle oder Motive, sondern stellt immer nur sprachliches Verhalten dar, ohne die entsprechenden inneren Zustände wirklich einnehmen zu können.
Searle argumentiert gegen die starke These zur künstlichen Intelligenz, die einem Computer mit zureichendem Software-Programm tatsächlich kognitive Zustände attestieren und Geist (mind) zusprechen will. Nach Searles Ansicht kann ein Computer, wie auch immer programmiert, nichts verstehen. Wir Menschen begehen bisweilen den Fehler, dem Computer in einem Analogieschluss unsere eigene Intentionalität zu übertragen. »Was immer das Gehirn tut, um Intentionalität hervorzubringen, sein Tun kann nicht in der Verkörperung eines Programms aufgehen, da kein Programm, für sich genommen, für Intentionalität ausreicht.« (Vgl. Zimmerli 1994, 264) Ein Computer ist, wie raffiniert er auch immer ausgestattet sein mag, nur das Werkzeug unserer Zielsetzungen. Einer Maschine Überzeugungen zuzusprechen, wie dies beispielsweise McCarthy tut, wäre ein grober Kategorienfehler. Searle propagiert deshalb eine schwache These zur künstlichen Intelligenz, die im Computer lediglich ein Instrument des menschlichen Geistes sieht.
Bewusstsein und Neuronen
Die Diskussion über das
Weitere Kostenlose Bücher