Foundation 01: Meine Freunde, die Roboter
Grundregeln im Verlauf von zwei
Jahrhunderten als erfolgreich erwiesen haben, das heißt, wenn
sie dazu gedient haben, den Robot tatsächlich in seinen
Schranken zu halten, warum mißtraut der Mensch dem Robot dann
nach wie vor?«
»Tja« – Harriman kratzte sich am Kopf –,
»Aberglaube ist wohl der Hauptgrund. Unglücklicherweise
spielen da Komplikationen mit hinein, auf denen die
Antirobotinitiativen herumreiten.«
»Komplikationen, die mit den Drei Grundregeln zu tun
haben?«
»Ja. Vor allem mit der Zweiten. Die Dritte ist harmlos. Sie
ist allgemeingültig. Der Robot muß sich in jedem Fall
für den Menschen opfern. Für jeden beliebigen
Menschen.«
»Selbstverständlich«, sagte Georg Zehn.
»Die Erste Grundregel ist nicht so scharf umrissen, da man
sich immer eine Situation vorstellen kann, in der ein Robot entweder
Aktion A oder Aktion B durchführen muß, wobei die eine
Aktion die andere ausschließt, jedoch beide dem Menschen zum
Schaden gereichen. Der Robot muß also schnell beurteilen
können, welche Aktion den geringeren Schaden anrichtet. Die dazu
nötigen positronischen Schaltungen im Gehirn eines Robots
auszuarbeiten, ist nicht leicht. Falls Aktion A zur Folge hat,
daß ein junger, talentierter Künstler zum Beispiel das
Leben verliert und Aktion B das Leben von fünf alten Menschen
kostet, die keine weiteren Qualifikationen besitzen, welche Aktion
soll bevorzugt werden?«
»Aktion A«, sagte Georg Zehn. »Ein Menschenleben
ist weniger als fünf.«
»Richtig«, sagte Harriman. »Ein reines
Rechenexempel. Einem Robot eine differenzierte Entscheidung
abzuverlangen, die zum Beispiel Intelligenzgrad, Talent oder Nutzen
für die Gesellschaft berücksichtigt, hat man bisher
für unpraktisch gehalten. Die Entscheidung, hat man
argumentiert, kann verzögernd wirken und sogar zur totalen
Handlungsunfähigkeit führen. Also hat man einfach mit
Zahlen operiert. Zum Glück kann man damit rechnen, daß ein
Robot kaum in die Lage kommt, eine Entscheidung treffen zu
müssen… Aber damit sind wir bei der Zweiten
Regel.«
»Dem Gesetz des Gehorsams.«
»Ja. Die Notwendigkeit des Gehorsams ist immer und zu jedem
Zeitpunkt gegeben. Ein Robot kann zwanzig Jahre lang existieren, ohne
je in die Lage zu kommen, schnell agieren zu müssen, um zu
verhindern, daß einem Menschen Schaden zugefügt wird, oder
ohne je vor der Notwendigkeit zu stehen, die eigene Zerstörung
zu riskieren. Während der ganzen zwanzig Jahre jedoch gehorcht
er Befehlen… Wessen Befehlen?«
»Denen eines Menschen.«
»Eines x-beliebigen Menschen? Wie beurteilst du ein
menschliches Wesen dahingehend, ob du ihm gehorchen sollst oder
nicht? Was ist der Mensch, daß du seiner eingedenk bist,
George?«
George zögerte mit seiner Antwort.
»Das ist ein Bibelzitat«, sagte Harriman schnell.
»Völlig unwichtig. Ich meine, muß ein Robot den
Befehlen eines Kindes gehorchen? Oder denen eines Idioten? Eines
Kriminellen? Oder eines anständigen, intelligenten Menschen, der
jedoch kein Fachmann und sich daher der Konsequenzen seines Befehls
nicht bewußt ist? Und falls zwei Menschen einem Robot
gegensätzliche Befehle geben, welchem Befehl soll er
gehorchen?«
»Haben sich in zweihundert Jahren«, sagte George,
»solche Probleme nicht ergeben, und sind sie nicht gelöst
worden?«
»Nein«, sagte Harriman und schüttelte den Kopf.
»Und zwar deshalb nicht, weil unsere Roboter
ausschließlich im All eingesetzt waren und lediglich mit
Menschen zu tun hatten, die Experten auf den entsprechenden Posten
waren. Dort gab es keine Kinder, keine Idioten, keine Kriminellen und
keine gutgläubigen Ignoranten. Trotzdem hat es Situationen
gegeben, wo durch Dummheit oder Unüberlegtheit Schaden
angerichtet wurde. In einer auf einen speziellen Zweck ausgerichteten
und begrenzten Umgebung können derlei Vorkommnisse jedoch
vermieden werden. Aber auf der Erde nicht, und deshalb braucht der
Robot Urteilsvermögen.«
»Also muß dieses dem Positronengehirn eingegeben
werden.«
»Genau. Wir haben damit begonnen, weitere Roboter vom Typ JG
zu produzieren, die es mit jedem Menschen in bezug auf Geschlecht,
Alter, soziale und berufliche Stellung, Intelligenz, sittliche Reife,
Sozialbewußtsein und so weiter aufnehmen können.«
»Und wie beeinträchtigen diese die Drei
Regeln?«
»Die Dritte überhaupt nicht. Selbst der kostbarste Robot
muß sich zum Schutz des wertlosesten menschlichen Wesens selbst
zerstören. Daran ist nicht zu rütteln. Und die Erste nur,
wenn
Weitere Kostenlose Bücher