Bücher online kostenlos Kostenlos Online Lesen
Verloren unter 100 Freunden

Verloren unter 100 Freunden

Titel: Verloren unter 100 Freunden Kostenlos Bücher Online Lesen
Autoren: Sherry Turkle
Vom Netzwerk:
hätten. Das Problem besteht also nicht darin, dass wir für diese Aufgaben Maschinen einsetzen, denn Menschen hätten sich ja immer schon wie Maschinen verhalten. Der Artikel geht weiter: »Jedenfalls besteht die Frage nicht darin, ob man die Gefühle, die freundliche Maschinen in uns auslösen, vermeiden soll, sondern darin, wie man mit diesen Gefühlen umgehen soll.« Ein KI-Experte behauptet, der Mensch »als Spezies« müsse lernen, mit »synthetischen Emotionen« umzugehen – auch dies eine Möglichkeit, wie sich maschinell vorgetäuschte Emotionen bezeichnen lassen. 19 Für den KI-Experten ist die Herstellung synthetischer Emotionen schon eine gegebene Tatsache. Und wenn wir synthetische Emotionen herstellen, dann müssen wir uns ihnen auch anpassen. Der Kreis schließt sich. Die einzige Möglichkeit, diesen Kreis zu durchbrechen, besteht darin, das gesamte Thema in einen neuen Rahmen zu setzen. Man könnte sagen, dass Menschen Anteilnahme vortäuschen können; ein Roboter
kann keine Anteilnahme zeigen. Deshalb kann ein Roboter auch keine Anteilnahme vortäuschen, denn er kann ja nichts anderes als Dinge vorzutäuschen.
    Können Roboter das schlechte Gewissen besänftigen?
    Als ich begann, das Verhältnis zwischen Menschen und Computern zu untersuchen, begegnete ich Programmierern, die versunken vor ihren Maschinen hockten, und es war offenkundig, dass sie sich in einer engen »persönlichen« Beziehung mit den Maschinen wähnten. Die Reaktionsfähigkeit und Interaktivität des Computers gaben ihnen das Gefühl, »Gesellschaft« zu haben, selbst während sie gerade dessen Programme schrieben. Im Laufe der Zeit hat sich dieses Gefühl von Verbundenheit »demokratisiert«. Programme wurden unverständlich: Wenn wir vor unseren Computern sitzen, beschäftigen sich die meisten von uns nur mit der Benutzeroberfläche. Wir klicken auf dem Monitor kleine Bildchen an, die die verschiedenen Programme öffnen. Die dahinterstehenden Mechanismen interessieren uns nicht. Aber wenn wir ein Programm zum Leben erwecken, kommt es uns beinahe wie ein Gefährte vor. Inzwischen kann man das »beinahe« fast streichen. Online-Agenten und soziale Roboter werden ausdrücklich dafür entwickelt, uns davon zu überzeugen, sie seien uns adäquate Gefährten.
    Wie vorherzusehen war, verstärkt sich unsere emotionale Beteiligung. Wir lassen uns von Dingen, von Gegenständen, trösten, die Anteilnahme vorspielen, die uns Emotionen vorgaukeln. Wir billigen Robotern ein Begriffsvermögen zu, ohne dass sie begreifen können , was wir da tun. Und sie begreifen nicht, was sie selbst tun. Wenn das Programm eines Roboters »Ekel« vorgibt, wird das Gesicht
des Roboters nach menschlichem Ermessen angeekelt aussehen. Diese »Emotionen« sind reine Showeffekte. Was, wenn wir anfangen, sie als »echt genug« für unsere Zwecke zu betrachten? Darüber hinaus stellen sich moralische Fragen, wenn Roboter nicht nur die Einsamkeit alter Menschen »heilen«, sondern auch das schlechte Gewissen ihrer Angehörigen lindern.
    Im Frühjahr 2009 präsentierte ich einer Klasse von Harvard-Studenten das Thema »Roboter in der Altenpflege«. Ihr Professor, der politische Philosoph Michael Sandel, war überrascht vom regen Interesse seiner Studenten. Er bat sie, sich eine Altenheimbewohnerin vorzustellen, der es gefällt, einen Paro um sich zu haben, und sich an die Stelle ihrer erwachsenen Kinder zu setzen, die vielleicht das Gefühl haben, ihre Verantwortung gegenüber der Mutter habe nachgelassen oder wäre ihnen genommen, weil ein Roboter sie übernommen hat. Führt die Einführung von Robotern für Senioren dazu, dass wir weniger nach anderen Lösungen für die Altenpflege suchen?
    Während Sandel versuchte seine Studenten erkennen zu lassen, wie der Einsatz von Robotern für Senioren zu moralischer Selbstgefälligkeit führen kann, dachte ich an Tim, den es erleichtert, dass seine Mutter sich so gerne mit Paro unterhält. Tim sagte, dass es ihm dadurch leichter falle zu gehen.
    Auf den ersten Blick mag Tims Fall ein Indiz für eine positive Entwicklung sein. Ein alter Mensch scheint zufrieden zu sein; das erwachsene Kind hat weniger Schuldgefühle. Aber wollen und sollen wir es den erwachsenen Kindern wirklich leichter machen, ihre Eltern zunehmend sich selbst zu überlassen? Führt der durch den Roboter entstandene »Wohlfühlmoment« womöglich dazu, dass die Kinder sich weniger zu Besuchen verpflichtet sehen? Kann es wirklich sein, dass Senioren sich

Weitere Kostenlose Bücher