Alle Robotergeschichten
Großcomputer einsetzten, die wir Maschinen nannten. Diese Maschinen haben ihr Aktionsfeld aus eigenem Antrieb eingeengt. Als die ökologischen Probleme, welche die menschliche Gesellschaft bedroht hatten, gelöst waren, haben sie sich selbst eingeschränkt. Ihre fortdauernde Existenz, hatten sie gefolgert, würde sie zur Krücke der Menschheit machen, und da sie glaubten, dies sei schädlich für den Menschen, verdammten sie sich aufgrund des Ersten Gesetzes selbst.«
»War das nicht richtig?«
»Meiner Meinung nach nicht. Durch ihr Handeln haben sie den Frankensteinkomplex des Menschen nur noch geschürt, nämlich die tiefsitzende Angst, daß der von Menschenhand erschaffene künstliche Mensch sich eines Tages gegen seinen Schöpfer auflehnen könnte.«
»Teilen Sie diese Angst?«
»Aber ich bitte Sie! Solange die Drei Gesetze existieren, können sich die Roboter nicht gegen den Menschen auflehnen. Aber Partner des Menschen können sie sein. Sie können teilhaben an dem Kampf um das Verständnis für die Gesetze der Natur, um gemeinsam mit dem Menschen zu Lösungen zu kommen, die der Mensch allein nie finden würde. Das aber alles immer auf eine Weise, die den Robot nach wie vor zum Diener des Menschen macht.«
»Aber, wenn sich die Drei Gesetze im Verlauf von zwei Jahrhunderten als erfolgreich erwiesen haben, das heißt, wenn sie dazu gedient haben, den Robot tatsächlich in seinen Schranken zu halten, warum mißtraut der Mensch dem Robot dann nach wie vor?«
»Tja« – Harriman kratzte sich am Kopf –, »Aberglaube ist wohl der Hauptgrund. Unglücklicherweise spielen da Komplikationen mit hinein, auf denen die Antirobotinitiativen herumreiten.«
»Komplikationen, die mit den Drei Gesetzen zu tun haben?«
»Ja. Vor allem mit dem Zweiten. Das Dritte ist harmlos. Es ist allgemeingültig. Der Robot muß sich in jedem Fall für den Menschen opfern. Für jeden beliebigen Menschen.«
»Selbstverständlich«, sagte George Zehn.
»Das Erste Gesetz ist nicht so scharf umrissen, da man sich immer eine Situation vorstellen kann, in der ein Robot entweder Aktion A oder Aktion B durchführen muß, wobei die eine Aktion die andere ausschließt, jedoch beide dem Menschen zum Schaden gereichen. Der Robot muß also schnell beurteilen können, welche Aktion den geringeren Schaden anrichtet. Die dazu nötigen positronischen Schaltungen im Gehirn eines Robots auszuarbeiten ist nicht leicht. Falls Aktion A zur Folge hat, daß ein junger, talentierter Künstler zum Beispiel das Leben verliert und Aktion B das Leben von fünf alten Menschen kostet, die keine weiteren Qualifikationen besitzen, welche Aktion soll bevorzugt werden?«
»Aktion A«, sagte George Zehn. »Ein Menschenleben ist weniger als fünf.«
»Richtig«, sagte Harriman. »Ein reines Rechenexempel. Einem Robot eine differenzierte Entscheidung abzuverlangen, die zum Beispiel Intelligenzgrad, Talent oder Nutzen für die Gesellschaft berücksichtigt, hat man bisher für unpraktisch gehalten. Die Entscheidung, hat man argumentiert, kann verzögernd wirken und sogar zur totalen Handlungsunfähigkeit führen. Also hat man einfach mit Zahlen operiert. Zum Glück kann man damit rechnen, daß ein Robot kaum in die Lage kommt, eine Entscheidung treffen zu müssen … Aber damit sind wir beim Zweiten Gesetz.«
»Dem Gesetz des Gehorsams.«
»Ja. Die Notwendigkeit des Gehorsams ist immer und zu jedem Zeitpunkt gegeben. Ein Robot kann zwanzig Jahre lang existieren, ohne je in die Lage zu kommen, schnell agieren zu müssen, um zu verhindern, daß einem Menschen Schaden zugefügt wird, oder ohne je vor der Notwendigkeit zu stehen, die eigene Zerstörung zu riskieren. Während der ganzen zwanzig Jahre jedoch gehorcht er Befehlen … Wessen Befehlen?«
»Denen eines Menschen.«
»Eines x-beliebigen Menschen? Wie beurteilst du ein menschliches Wesen dahingehend, ob du ihm gehorchen sollst oder nicht? Was ist der Mensch, daß du seiner eingedenk bist, George?«
George zögerte mit seiner Antwort.
»Das ist ein Bibelzitat«, sagte Harriman schnell. »Völlig unwichtig. Ich meine, muß ein Robot den Befehlen eines Kindes gehorchen? Oder denen eines Idioten? Eines Kriminellen? Oder eines anständigen, intelligenten Menschen, der jedoch kein Fachmann und sich daher der Konsequenzen seines Befehls nicht bewußt ist? Und falls zwei Menschen einem Robot gegensätzliche Befehle geben, welchem Befehl soll er gehorchen?«
»Haben sich in zweihundert Jahren«, sagte George,
Weitere Kostenlose Bücher