Verloren unter 100 Freunden
hilft zu verstehen, was sie speziell als menschliches Wesen auszeichnet. In diesem Sinn handelt das Projekt genauso sehr von der Sehnsucht nach Verschmelzung mit der Maschine wie von der Beantwortung der Frage, ob dies überhaupt möglich ist. Lindman stellt sich die Kluft vor: »Man wird sagen: ›Okay, das da ist der Mensch.‹« 16
Als ersten Schritt – und es wird ihr einziger Schritt sein – konstruiert Lindman ein Gerät, das mit mechanischen Zangen, Hebeln
und Drähten ihren Gesichtsausdruck zu verändern vermag, »einfach um erst einmal die Erfahrung zu machen, dass meine Gesichtsmuskeln in die unterschiedlichsten Positionen gezogen werden«. Es sei schmerzhaft, aber das störe sie nicht, sagt Lindman. »Ich habe mehr Angst vor wirklichen Schäden, vor biologischen Schäden oder Hirnschäden. Ich glaube nicht, dass so etwas passieren wird, aber ein bisschen mulmig ist mir schon.« Und Lindman denkt noch an eine andere Art von Schädigung. Falls sie sich eines Tages doch noch in ein Roboterprogramm einstöpseln sollte, glaubt sie etwas zu erleben, das kein Mensch je zuvor erlebt hat. Sie wird erfahren, wie es sich anfühlt, von einer fremdartigen Intelligenz »übernommen« zu werden. Vielleicht wird sie deren Einfluss spüren und dem nichts entgegenzusetzen haben. Die mögliche »Schädigung«, die sie anspricht, bezieht sich hierauf. Sie könnte etwas erfahren, was sie gar nicht wissen möchte. Kennzeichnet das Wissen um das Ausmaß, in dem wir Maschinen sind, die Grenze unseres Verschmelzens mit Maschinen? Ist dieses Wissen tabu? Ist es schädlich?
Lindmans Herangehensweise ist neu, aber ihre Fragen sind es nicht. Können Maschinen Emotionen entwickeln? Brauchen sie Gefühle, um volle Intelligenz zu entfalten? Können Menschen nur eine Beziehung zu Maschinen eingehen, indem sie ihre eigenen Emotionen auf sie projizieren, Emotionen, die Maschinen gar nicht hervorbringen können? Auf den Feldern der Philosophie und der Künstlichen Intelligenz werden diese Fragen seit langem erörtert. In meiner eigenen Arbeit behandle ich die Grenzen des künstlichen Begriffsvermögens, weil weder Computer-Agenten noch Roboter einen menschlichen Lebenszyklus haben. 17 Für mich wurde dieser Einwand am besten in Worte gefasst von dem Mann, der die Vorstellung, sich einem Computer-Psychotherapeuten anzuvertrauen, mit der Bemerkung abtat: »Wie kann ich denn mit etwas über Geschwister-Rivalität
reden, das nie eine Mutter hatte?« Inzwischen begegnen KI-Experten der Sorge um den Mangel an Maschinengefühlen mit dem Vorschlag, doch einfach welche einzubauen. Im KI-Feld wird aus der Haltung, die mit »Computer brauchen Körper, um intelligent zu sein« beginnt, schließlich: »Computer brauchen Gefühle, um intelligent zu sein.«
Computerwissenschaftler im Bereich »affektive Computerarbeit« sehen sich bestätigt durch die Meinung von Sozialwissenschaftlern, die betonen, dass Menschen ständig Gefühle auf ihre Computer projizieren, weil es ihnen hilft, konstruktiver mit den Geräten zu arbeiten. 18 So beobachteten der Psychologe Clifford Nass und seine Kollegen in einer Reihe von Laborexperimenten, dass »Personen sich gegenüber der Technologie auf ein Sozialverhalten einlassen, obwohl dieses Verhalten in vollem Widerspruch zu ihren Ansichten über Maschinen steht«. 19 Menschen geben ihren Computern Persönlichkeitsmerkmale und ein Geschlecht und passen sich sogar in ihrem Verhalten an, um nicht die »Gefühle« der Maschine zu verletzen. In einem dramatischen Experiment wird eine erste Gruppe von Leuten gebeten, eine Aufgabe auf Computer A auszuführen und auf demselben Computer die Leistung des Geräts zu bewerten. Eine zweite Gruppe soll die Aufgabe ebenfalls auf Computer A ausführen, die Geräteleistung aber auf Computer B bewerten. Die erste Gruppe gibt Computer A viel bessere Noten. Grundsätzlich gilt: Die Teilnehmer möchten einen Computer nicht »von Angesicht zu Angesicht« beleidigen.
Nass und seine Kollegen sagen, dass, »wenn wir uns einem Gebilde gegenübersehen, das sich im Sprachgebrauch auf menschenähnliche Weise verhält und Reaktionen zeigt, die auf dem vorausgegangenen Input basieren, die fälschliche Reaktion unseres Gehirns darin besteht, dieses Gebilde unbewusst wie einen Menschen zu behandeln«. 20 Dies vorausgesetzt, schlagen sie vor, man solle
computerisierte Objekte aus praktischen Erwägungen heraus »liebenswerter« machen. Mehr Leute würden sie kaufen, und sie wären einfacher zu
Weitere Kostenlose Bücher