ein Beitrag von Xaver Werhahn
Technischer Fortschritt im Bereich Computerleistung und Hardware steht kurz davor, eine Zeitenwende im Alltag der Gesellschaft einzuleiten. Es werden Möglichkeiten erdacht, Menschen von Notwendigkeiten zu befreien, den Komfort zu steigern und die Sicherheit zu verbessern. Dabei handelt es sich teilweise um mondäne Dinge, aber auch um gesellschaftlich brisante wie selbstfahrende Autos oder autonome Kriegsroboter. Die immer weiter fortschreitenden Entwicklungen von neuen und besseren Technologien besitzen das Potenzial das Leben einzelner Individuen aber auch Gesellschaften der Welt maßgeblich zu verändern. Dieses Potenzial kann, soll verwirklicht werden, aber über die Art und Weise besteht keine Einigkeit, da Lebensbereiche betroffen sind, die bisher notwendigerweise ausschließlich von Menschen geregelt wurden. Werden nur in diese Bereiche Roboter eingeführt, erhalten sie Kompetenzen, die die Maschine potenziell über Leben und Tod der Menschen entscheiden lassen, deren Leben sie verbessern sollen. Die Frage, wie diese Kompetenzen ausgestaltet werden könnten, soll in diesem Essay näher erörtert werden. Konkret geht es darum, wie der Umgang selbstfahrender Autos mit Dilemma-Situationen geregelt werden soll. Wenn die Entscheidungshoheit von Mensch auf Maschine übergehen soll, brauchen die Maschinen klare Verhaltensregeln, um das Wohl der Menschen auch in solchen Situationen zu gewährleisten. Mit der Aufstellung von dieser Art von Verhaltensregeln beschäftigen sich derzeit viele verschiedene Ethiker*innen. Drei Positionen haben sich dabei bisher durchgesetzt:
- Konsequentialistisch (Nutzen- bzw. Kostenhierarchie)
- Deontologisch (Pflichten / Verbote)
- Hybrid (Pflichten / Verbote, die bei Bedarf durch Kostenhierarchie ersetzt werden können)
- Deontologisch (Pflichten / Verbote)
Die Konsequentialistische Position schreibt Zuständen Kosten zu und versucht, allgemein gesprochen, die Kosten so gering wie möglich zu halten. Ob in Dilemma Situationen die Priorität auf dem Wohl der Fahrerin oder dem der übrigen Verkehrsteilnehmer*innen liegt, ist abhängig von der konkreten Ausgestaltung (J. Christian Gerdes, Sarah M. Thornton 2015: 91-92). Im Gegensatz dazu schlägt die deontologische Position vor, gewisse Regeln einzuführen, die immer gelten wie z.B.: „the vehicle should avoid collisions regardless of how abrupt the required steering might be“ (J. Christian Gerdes, Sarah M. Thornton 2015: 94). Die dritte Position ist eine Kombination aus den beiden Vorherigen. In Situationen in denen es keine andere Wahl gibt, als gegen eine der immer geltenden Regeln zu verstoßen bietet die Hybrid-Position die Möglichkeit, die Regel durch Kosten zu ersetzen (J. Christian Gerdes, Sarah M. Thornton 2015: 95). Das würde bei der oben genannten Regel zur Folge haben, dass eine Kollision nicht mehr unter allen Umständen vermieden wird, sondern dass der Kollision eine gewisse Menge an Kosten zugeteilt wird, die vermieden werden sollte. Das Problem, dem sich die verschiedenen Positionen stellen, ist, dass in Dilemma Situationen eine Entscheidung für das Wohl der Fahrerin oder für das Allgemeinwohl getroffen werden muss. Diese Entscheidung könnte in Zukunft von den selbstfahrenden Autos getroffen werden. Ich werde in diesem Aufsatz die These vertreten, dass der Entzug der Handlungsmöglichkeit für Menschen in Dilemma Situationen eine Verletzung der Menschenwürde darstellt. Das bedeutet, dass die Implementierung einer der drei genannten Positionen in selbstfahrende Autos weiterhin vorgenommen werden kann, aber dass es dabei für den Menschen immer die Möglichkeit geben muss, selber wieder die Kontrolle über das Fahrzeug an sich zu nehmen. Für die Erörterung meiner These werde ich mich hauptsächlich an dem Buch „Autonomes Fahren : technische, rechtliche und gesellschaftliche Aspekte“ und dem Bericht der Ethikkommission „Automatisiertes und vernetztes Fahren“ aus dem Jahr 2017 orientieren. Während das erste Werk sich der Thematik eher von einem theoretischen Standpunkt nähert, wird im Zweiten mehr Wert auf die rechtlichen Aspekte von selbstfahrenden Autos und den damit einhergehenden Konsequenzen (wie z.B. Datensammlung) gelegt. Im weiteren Vorgehen wird erst ein Blick auf die derzeitige Lage geworfen. Darauf folgt eine knappe Erläuterung der oben bereits erwähnten ethischen Positionen. Weiterhin werden mehrere Dilemma Situationen miteinander verglichen und Bezug auf das Urteil des Bundesverfassungsgerichts zum Luftsicherheitsgesetz genommen. So soll die These, dass der Entzug der Handlungsmöglichkeit für Menschen in Dilemma Situationen eine Verletzung der Menschenwürde darstellt, dann zum Ende der Argumentation eine, wie ich hoffe, zufriedenstellende Begründung erhalten.
Die kurz bevorstehende Zeitenwende ist bereits erwähnt worden. Auf einmal gelangen Möglichkeiten in Reichweite, die bis vor kurzem noch für Science-Fiction galten. Die teilweise vorherrschende Euphorie über diese Entwicklung und den Fortschritt den sie verspricht, wird allerdings durch die Belange unserer Lebensrealität getrübt. Die Tatsache, dass manche Autos mittlerweile ohne menschliche Eingriffe von Punkt A zu Punkt B zu gelangen können, reicht noch lange nicht aus, um solche Autos in Massenproduktion an die Leute zu bringen. Das liegt daran, dass die Fahrzeuge sich nicht in Isolation, sondern in einer von Menschen bevölkerten Umgebung befinden. Damit Autos in so einer Umgebung nicht einen Unfall nach dem anderen auslösen, müssen sie z.B. mit den örtlich vorherrschenden Verkehrsregeln vertraut sein. Sie müssen in der Lage sein, Gefahr einzuschätzen und entsprechend zu reagieren. Für all das wird eine sehr große Menge an Daten benötigt, die live aufgenommen und verarbeitet werden müssen. Das bedeutet, dass die jeweils aktuelle Umgebung des Autos konstant aufgenommen und verarbeitet wird. Selbst das kann aber noch nicht ausreichend sein, um dem Auto genügend Daten zur Verfügung zu stellen, wenn ein Unfall direkt bevorsteht. Da würde ein vernetztes System aushelfen, wo alle verfügbaren Autodaten gesammelt und geteilt werden, um so auch in sekundenbruchteilen die möglichen Unfallfolgen vorherzusehen. Die Sammlung von Daten der Fahrer*innen ist bereits äußerst sensibel. Es ließen sich auf diese Weise präzise Bewegungsprofile erstellen. Wird dies noch kombiniert mit einer konstanten Aufnahme und Verarbeitung der Umgebung, rückt der Albtraum des totalitären Überwachungsstaats, der alles sieht und kontrolliert, gefährlich nah. „Ob in Zukunft eine dem Bahn- und Luftverkehr entsprechende vollständige Vernetzung und zentrale Steuerung sämtlicher Kraftfahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur möglich und sinnvoll sein wird, lässt sich heute nicht abschätzen. Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn und soweit sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszuschließen vermag“ (Ethikkommission Bericht Juni 2017).
Mit diesen und anderen Problemen der Implementierung solch neuer Technologien beschäftigt sich die Ethikkommission. Beim Thema Daten empfiehlt sie: „Erlaubte Geschäftsmodelle, die sich die durch automatisiertes und vernetztes Fahren entstehenden, für die Fahrzeugsteuerung erheblichen oder unerheblichen Daten zunutze machen, finden ihre Grenze in der Autonomie und Datenhoheit der Verkehrsteilnehmer“ (Ethikkommission Bericht Juni 2017). Sollten all die Probleme, die mit der Implementierung zusammenhängen, tatsächlich zufriedenstellend gelöst werden, ist allerdings der Umgang mit Dilemma Situationen weiterhin ein, wenn nicht sogar der, ausschlaggebender Faktor. Hier spricht die Ethikkommission dem Schutz des menschlichen Lebens zwar die höchste Priorität zu, aber gleichzeitig gibt sie zu, dass „Echte dilemmatische Entscheidungen […] nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ sind (Ethikkommission Bericht Juni 2017).
Als Beispiel für so ein Dilemma soll folgende Situation gelten: man selbst befindet sich in einem selbstfahrenden Auto und es gibt keine andere Möglichkeit als entweder eine Gruppe von Kindern zu überfahren oder den Kindern auszuweichen und dann selber mitsamt Auto von einer Klippe in den Tod zu stürzen. Es lassen sich aber auch Situationen erdenken, in denen nicht direkt das Leben anderer auf dem Spiel steht. Angenommen man selbst befindet sich in einem selbstfahrenden Auto, das sich entscheiden muss von einer Klippe zu fahren oder einen Tanklaster von der Straße zu drängen. Der Tanklaster würde nun das lokale Kraftwerk in Brand setzen und so für einen weitreichenden Stromausfall sorgen, der z.B. in Krankenhäusern etliche Tode zur Folge hätte. Das Problem das all diesen Dilemma Situationen gemein ist, ist der Konflikt zwischen dem individuellen Wohl der einzelnen Person und dem Allgemeinwohl der Gesellschaft.
Die bereits kurz angerissenen ethischen Positionen würden hier zu unterschiedlichen Ergebnissen führen. Die konsequentialistische Position teilt allen Objekten der Umgebung Kosten zu. Je höher die Kosten eines Objekts, desto wichtiger ist dieses Objekt. Je nachdem, wie die Kostenfunktion gestaltet wird, erhält das Auto der fahrenden Person höhere Kosten als die Umgebung oder geringere. An diesen Kosten orientiert sich das Auto und folgt dem Pfad, der laut Berechnung die geringsten Kosten verursacht. Vermutlich würde die Programmierung des Fahrzeugs dem Wohl der Fahrerin höhere Kosten als der Umgebung zurechnen, so dass die Fahrerin im Zweifel überlebt. Die deontologische Position erhebt wiederum Regeln, die absoluten Geltungsanspruch haben, wie z.B. „es soll unter allen Umständen eine Kollision vermieden werden“. Diese Position würde dazu führen, dass das Auto mitsamt der Fahrerin von der Klippe fahren würde, ohne dass die Fahrerin die Möglichkeit hätte Einfluss auf diesen Prozess zu nehmen. Da dies zwar als gesellschaftlich wünschenswert gelten mag, aber möglicherweise nicht durchsetzungsfähig ist, hat sich noch eine dritte Position entwickelt, die die deontologische mit der konsequentialistischen Position zu kombinieren sucht. Diese dritte „Hybrid“-Position ist dafür gedacht, dass in Fällen, in denen die deontologische Verhaltensweise das Fahrzeug handlungsunfähig macht, wieder Handlungsspielraum erschlossen wird indem die Regel durch besonders hohe Kosten ersetzt wird. Die Regel kann das Fahrzeug nicht brechen, aber die Kosten kann es theoretisch in Kauf nehmen, wenn keine bessere Alternative erscheint (J. Christian Gerdes, Sarah M. Thornton 2015: 95). In allen Fällen liegt jedoch die letzte Entscheidung über das Leben der Fahrerin und der Kinder noch beim Auto bzw. in der Programmierung.
Man könnte meinen, dass die Gesetzgeber hier gar keine richtige Entscheidung finden könnten, allerdings wurde vor gut zehn Jahren ein Urteil vom Bundesverfassungsgericht getroffen, das auch in diesem Fall in gewisser Hinsicht richtungsweisend sein kann. Damals ging es um die Frage, ob Abschüsse von Verkehrsflugzeugen mit dem Gesetz vereinbar wären. Auch hier handelt es sich also um eine Abwägung zwischen dem Wohl der Einzelnen (Flugzeuginsassen) und dem Allgemeinwohl (direkte oder indirekte Todesopfer). Das Bundesverfassungsgericht beschloss, dass „die Abschussermächtigung gegen das Grundrecht auf Leben (Art. 2 Abs. 2 Satz 1 GG) und die Garantie der Menschenwürde (Art. 1 Abs. 1 GG) [verstoße]“ (Website Bundesverfassungsgericht).
Dies unterstreicht erneut die aufgestellte These, dass der Entzug der Handlungsmöglichkeiten der Fahrer*innen eines Autos eine Verletzung der Menschenwürde darstellt. Zwar kommt es in den Dilemma Situationen, auf die im Zusammenhang mit selbstfahrenden Fahrzeugen Bezug genommen wurde, nicht zu einem Gewaltakt oder einem gezielten Angriff auf die Gesellschaft. Es kommt aber zu einer Objektivierung der Fahrer*innen von Personen zum Objekt gesellschaftlichen Handelns. Wert und Erhalt ihrer Leben wäre dann nicht mehr ein Zweck in sich, sondern würden in die „Hände“ des Autos gelegt, das sie als bloße Objekte einer Rechnung betrachtet. Auch die Ethikkommission kommt zu einer ähnlichen Einschätzung in Bezug auf die Entscheidungshoheit in Dilemma Situationen: „Letztendlich würde also im Extremfall der Programmierer oder die Maschine die „richtigen“ ethischen Entscheidungen über das Ableben des einzelnen Menschen treffen können. Konsequent weitergedacht, wäre der Mensch in existentiellen Lebenssituationen nicht mehr selbst-, sondern vielmehr fremdbestimmt. Diese Konsequenz ist in vielerlei Hinsicht problematisch. Einerseits besteht hier die Gefahr eines starken Paternalismus des Staates, bei dem eine „richtige“ ethische Handlungsweise vorgegeben wird (sofern dieser die Programmierung vorgibt), andererseits würde dies dem Wertebild des Humanismus, in dem das Individuum im Zentrum der Betrachtungsweise steht, widersprechen. Eine solche Entwicklung ist daher kritisch zu betrachten“ (Bericht 2017). Ich sehe damit die unbedingte Notwendigkeit die Entscheidungshoheit in jedem Fall beim Menschen zu lassen als hinreichend begründet an. Egal wie düster die Konsequenzen für eine Gesellschaft auch sein mögen, niemand ist verpflichtet ihr oder sein eigenes Leben dafür zu opfern. Dieses Opfer in Form von Programmierung zu erzwingen entspricht einer tiefen Verletzung der Menschenwürde und ist unter allen Umständen zu verhindern. Das bedeutet aber nicht, dass deswegen keine selbstfahrenden Autos in die Gesellschaft eingeführt werden dürften. Nur soll, dem Grundgedanken einer Demokratie entsprechend, jede*r ihre oder seine eigenen Belange selber regeln können.
Wäre ich in der Situation den Gesetzgebern eine Handlungsempfehlung bezüglich Selbstfahrender Fahrzeuge in Dilemma Situationen zu geben, so würde ich auf der Möglichkeit bestehen, selber die Kontrolle über das Fahrzeug übernehmen zu können. Es handelt sich um eine technologische Möglichkeit, die auf eine nicht ausreichend vorbereitete Lebenswelt trifft. Eine Implementierung dieser technischen Möglichkeiten wird aber vermutlich trotzdem erfolgen. Das darf aber nicht dazu führen, dass der einzelne Mensch im Konfliktfall dem Allgemeinwohl untergeordnet wird. Auch die Ethikkommission sowie das Bundesverfassungsgericht kommen zu diesem Schluss. Die erwähnten ethischen Positionen bilden eine gute Grundlage für die Implementierung von Richtlinien in selbstfahrende Fahrzeuge, aber nur solange der Mensch in jedem Fall die Entscheidungshoheit behält.
Literaturverzeichnis:
- Bericht Ethikkommission Juni 2017: „Automatisiertes und vernetztes Fahren“
- J. Christian Gerdes, Sarah M. Thornton 2015: „Autonomes Fahren : technische, rechtliche und gesellschaftliche Aspekte“
Zum Referenten:
Xaver Werhahn, geboren 1989 in Bremen, studiert Philosophie, Politikwissenschaft und Geschichte an der Universität Regensburg. Individualität, Autonomie und fortschreitende Algorithmisierung der Lebenswelten stehen im Fokus seiner Forschung.
Comments are closed.