plusinsight

Können Roboter moralisch handeln?

Patrick Tresset©Zeichnender Roboter namens Paul 2

ein Essay von Xaver Werhahn

Roboter üben schon lange eine große Faszination auf die Menschen aus. Seit geraumer Zeit machen sich Menschen Gedanken über die Chancen und Risiken, die einher gehen mit der Thematik der Roboter. Ob in düster gemalten Dystopien der Zukunft, Universitäten, großen Wirtschaftsunternehmen oder direkt im eigenen Heim: überall halten Roboter Einzug in die Lebenswelt der Menschen und beeinflussen diese maßgeblich. Der Reichweite der Einsatzbereiche von Robotern scheint keine Grenze gesetzt zu sein. Es scheint als wenn sie viele Aufgaben, die von Menschen verrichtet werden, besser erledigen könnten. Wenn wir davon ausgehen müssen, dass sich in den nächsten Jahrzehnten Roboter immer weiterverbreiten werden, erscheinen die dystopischen Zukunftsversionen in denen Menschen von Maschinen als Sklaven gehalten oder nahezu ausgerottet werden auf einmal sehr viel drängender. Aber was ist wirklich dran an diesen Vorstellungen? Sind Roboter kurz davor sich die Menschheit untertan zu machen? Im Moment beschränken sich solche Szenarien noch auf Science-Fiction und das wird vermutlich auch noch für gewisse Zeit so bleiben. Dennoch werden Roboter immer raffinierter und vielseitiger einsetzbar. Wenn die U-Bahn in London oder Tokio fährt, sitzt kein Mensch mehr am Steuer. Das gleiche geschieht, wenn im Flugzeug der Autopilot eingeschaltet wird. Bald werden vermutlich sogar unsere Autos nicht mehr von uns gesteuert werden müssen, sondern sie fahren von alleine.

Ursula Drees© Arduino und Breadboard

Nun drängt sich die Frage nach der Kontrolle bzw. der Verantwortlichkeit auf. Denn was passiert, wenn sich ein selbstfahrendes Auto entscheiden müsste zwischen dem Tod seiner Insassen und dem Tod von Unbeteiligten? Befürworter der Eigenständigkeit von Robotern halten ihre Wahrnehmungsfähigkeit und die Fähigkeit mit ihrer Umwelt in Interaktion zu treten für ausreichend, um Roboter in der Kategorie der intelligenten Wesen einzuordnen (Keil 1998: 108-109). Das hätte zur Folge, dass Roboter durchaus zur Verantwortung gezogen werden könnten für ihre Taten. Gegner dieser Position bestreiten, dass ein Roboter freie Entscheidungen treffen kann. Dafür wäre Willensfreiheit nötig, aber alle „Faktoren, die es […] unmöglich machen, begründet seinen Willen zu bilden, tangieren die Willensfreiheit“ _und davon gäbe es beim Roboter genug (Keil 2013: 5). Auch diese Position wird in Frage gestellt, da manche behaupten, dass die Willensfreiheit nicht der ausschlaggebende Faktor sei. Es gehe vielmehr darum, wie autonom und ethisch sensibel ein Roboter ist. Bei voller Ausprägung dieser beiden Eigenschaften, werden Roboter als „trustworthy moral agents“ _bezeichnet (Colin Allen, Wendell Wallach 2010: 26). Die Frage ist also, ob Roboter in der Lage sind moralisch zu handeln oder nicht. Ich werde die Position vertreten, dass Roboter nicht moralisch handeln können, da sie nichts weiter als besonders vielseitige Maschinen sind und insofern gar keine Handlung vorliegt. Um dies darzulegen versuche ich über die Begriffe von Verantwortung und Absicht zu zeigen, dass die Selbstständigkeit und die Möglichkeit aus einer Reihe von Alternativen zu wählen uns an die Illusion eines autonomen Akteurs glauben lassen, der eigenständige Entscheidungen fällen kann. Das ist allerdings ein Trugschluss, denn Roboter treffen keine Entscheidungen, sondern führen lediglich die Entscheidungen aus, die Menschen bei ihrer Konstruktion getroffen haben. 

Ursula Drees© Arduino und Breadboard

Roboter entscheiden sich nicht dafür Autos zusammen zu setzen, sondern sie werden von Menschen so konstruiert und programmiert, dass sie genau das tun. Anhänger Frankfurts könnten hier einwenden, dass, nur weil sie keine Alternative haben, sie nicht trotzdem genau das tun wollen. Genau da liegt der Knackpunkt, denn Roboter wollen nicht. Genauso wenig wie der Toaster toasten, der Mixer mixen und der Taschenrechner rechnen will, will ein Roboter Autos zusammensetzen. Beim Toaster, Mixer und Taschenrechner würden die meisten mir vermutlich zustimmen. Beim Roboter würden mir aber vermutlich auch einige widersprechen. Woran liegt das? Wo liegt der Unterschied zwischen Roboter und Toaster? Weder der Toaster noch der Roboter können sich fortpflanzen. Weder der 2 Toaster noch der Roboter können eine andere Aufgabe erfüllen als die für die sie gebaut wurden. Weder Toaster noch Roboter können sich entscheiden welche Aufgabe sie erfüllen und welche nicht. 

Wir schreiben dem Toaster keine böse Absicht zu, wenn das Toast verbrennt, weil der Mensch für die Hitzeeinstellung selber verantwortlich ist. Schreiben wir dem Roboter böse Absicht zu, wenn er wie vorgesehen funktioniert und dabei jemand zu Schaden kommt? Dem Saubermach-Roboter schreiben wir wohl keine böse Absicht zu, wenn er uns beim Gehen aus dem Gleichgewicht bringt, weil er genau in dem Moment seine Putzroutine durchführt. Was wäre, wenn der Saubermach-Roboter nun Sensoren und Programmierung besitzt, die ihn solche Situationen erkennen und vermeiden lassen? Was wäre, wenn der Saubermach-Roboter trotzdem dem Menschen in die Quere kommt und ihn zu Fall bringt? Nun scheint der Fall anders zu sein als zuvor. Der Roboter hat die Vorgabe dem Menschen nicht in die Quere zu kommen und dennoch passierte genau das. Ist die Ursache dafür die Entscheidung des Roboters, seine Vorgaben zu missachten, oder liegt einfach ein Fehler im System der Maschine vor? Auch hier würden mir vermutlich die meisten zustimmen, wenn ich sage, dass ein Fehler im System die wahrscheinlichere von den zwei genannten Optionen ist. 

Ursula Drees© working

Aber was ist, wenn dem Roboter vorgegeben wird, niemals seiner Umgebung zu schaden? Eines Tages kommt es zufällig zu einer Situation in der sich so viele Personen in direkter Nähe des Saubermach-Roboters aufhalten, die ihn nicht beachten und gleichzeitig alle dem Roboter in den Weg treten, dass dem Roboter nichts übrigbleibt als einer Person zu schaden. Diese Person landet mit einem gebrochenen Bein im Krankenhaus und verlangt nun eine Entschädigung. Ich bin mir sicher, dass auch in diesem Fall keine vernünftige Person auf die Idee kommen würde, ernsthaft den Roboter für die Geschehnisse verantwortlich zu machen. Denn es handelt sich um eine simple Ursache-Wirkung Beziehung. Die Ursache, dass der Roboter auf dem Boden in Bewegung war, hat bewirkt, dass ein Mensch zu Schaden kam. 

Wären Ursache und Wirkung die ausschlaggebenden Kriterien für eine Handlung hätten wir allerdings ein Problem. Denn dann wären auf einmal das Umkreisen der Sonne oder das Fallen von Tropfen allesamt Handlungen. Das ist per se noch nicht unlogisch, würde aber die Begriffe Handlung und Verantwortung entwerten bzw. ad absurdum führen, da nun alles was passiert eine Handlung wäre. Nicht mehr die Person, die unachtsam eine glimmende Zigarette auf den Boden wirft wäre für das entstehende Feuer verantwortlich, sondern die Zigarette selber oder aber die allererste Ursache, die es gab. Würde ich nun fragen, wer oder was gehandelt hat, würde ich schlussendlich bis zum Urknall kommen und ab dann warten müssen, dass im Bereich der Physik deutliche Fortschritte gemacht werden. 

Eine Handlung scheint also nicht durch Ursache und Wirkung definiert zu sein, sondern durch die Absicht. Die Erde hat keine Absicht, wenn sie sich um die Sonne dreht. Der Wassertropfen hat keine Absicht, wenn er zu Boden fällt. Der Toaster hat keine Absicht, wenn er Weißbrot kross macht. Warum schreiben wir dann dem Roboter eine Absicht zu? Ich denke es liegt daran, dass der Eindruck entsteht, Roboter würden Entscheidungen treffen. Allerdings trifft nicht der Roboter die Entscheidungen, sondern die Menschen, die ihn konstruiert haben trafen die Entscheidungen im Voraus. Würde allein die Möglichkeit zwischen verschiedenen Alternativen zu wählen, ohne dass jemand während des „Wahlmoments“ _Einfluss auf diesen Prozess nimmt, schon eine hinreichende Bedingung für autonomes Handeln sein – _und damit aus einer Maschine einen Akteur machen – _könnte ich jederzeit einen „Killerroboter“ auf die Menschen loslassen und wäre nicht verantwortlich. 

Die vom Menschen scheinbar unabhängige Funktionstüchtigkeit sowie die Möglichkeit aus verschiedenen Alternativen zu wählen suggerieren die Existenz eines autonomen Akteurs, der selber Entscheidungen treffen kann, wie es ihm beliebt. Das führt dazu, dass dem Roboter auf einmal Absicht und (moralische) Handlungsfähigkeit zugerechnet wird, obwohl nichts anderes passiert als bei einem 3 

Thermostat, das auf die Umgebungstemperatur reagiert. Ich denke die Wenigsten würden einem Thermostat, das die Temperatur ihrem Sollwert angleicht, irgendeine Absicht unterstellen. Zumindest halte ich es für sehr unwahrscheinlich, dass ein vernunftbegabter Mensch das Thermostat dafür zur Verantwortung ziehen würde, seinem Zweck zu entsprechen. 

Roboter sind weiterhin Maschinen, die ihrer Konstruktion entsprechend funktionieren und keine Absichten irgendeiner Art besitzen. Damit sind Roboter nicht in der Lage irgendwelche Handlungen geschweige denn moralische Handlungen auszuführen. 

Die Thematik von Robotern ist mittlerweile in so vielen Bereichen der Lebenswelt angekommen, dass selbst der Laie davon gehört bzw. selber Zugang dazu hat. Roboter nehmen schon heute maßgeblichen Einfluss auf das Leben vieler Menschen. Teilweise hat das eine positive Konnotation, wenn man darüber nachdenkt, dass Menschen nun weniger schwere Arbeiten verrichten müssen. Teilweise hat es aber auch eine deutlich negative Konnotation, weil viele Menschen ihre Arbeit verlieren und möglicherweise sogar ruiniert werden. Dieser Prozess wird sich vermutlich trotzdem weiter fortsetzen, da die Möglichkeiten und Annehmlichkeiten, die den Menschen dadurch entstehen zu verlockend sind. Deswegen sollte in diesem Essay der Frage nachgegangen werden, ob Roboter moralisch handeln können. Denn wenn die Menschen immer mehr und immer wichtigere Bereiche ihres Lebens in die Hände von Robotern geben, scheint es wünschenswert, dass die Roboter auch achtsam damit umgehen.

Ursula Drees©Fotografie

Ich habe auf den letzten Seiten die Meinung vertreten, dass wir Roboter nicht verantwortlich machen können, da sie keine autonomen Akteure, sondern Maschinen sind. Begründet habe ich diese Position damit, dass Menschen fälschlicherweise Roboter personifizieren, weil sie scheinbar frei Entscheidungen treffen. Die scheinbare Möglichkeit Entscheidungen zu treffen in Kombination mit der scheinbaren Selbstständigkeit verleiten zu dem Fehlschluss, dass Roboter autonome Akteure mit Handlungsfähigkeit wären. Handlungen sind aber mehr als eine Beziehung zwischen Ursache und Wirkung sondern erfordern Absicht. Allein die Auswahlmöglichkeit aus verschiedenen Alternativen macht keine absichtliche Entscheidung aus, sondern stellt lediglich den Einsatzbereich dar, den die Konstrukteure der Maschine einräumen. Deswegen sind Roboter nicht in der Lage moralisch zu handeln, da sie keine handlungsfähigen Akteure sind. 

Literaturverzeichnis: 

-Geert Keil „Was Roboter nicht können“ in: Der Mensch in der Perspektive der Kognitionswissenschaften, Kognitionswissenschaften, Frankfurt am Main 1998. 

– Geert Keil: „Willensfreiheit“, Berlin 2013. 

– Wendell Wallach, Colin Allen: „Moral Machines“, Oxford 2010. 

Zum Referenten:

Xaver Werhahn, geboren 1989 in Bremen, studiert Philosophie, Politikwissenschaft und Geschichte an der Universität Regensburg.  Individualität, Autonomie und fortschreitende Algorithmisierung der Lebenswelten stehen im Fokus seiner Forschung.

Comments are closed.