Intelligenz: Können Menschen moralisch handeln?

Künstliche Intelligenz: Können Maschinen moralisch handeln?

In den USA starb kürzlich eine Frau durch ein selbstfahrendes Auto. Wer Maschinen auf moralische Entscheidungen vorbereiten will, muss philosophische Dilemmata lösen.

Seit 2016 läuft sie bereits, fast 40.000 Menschen haben an ihr teilgenommen: die Online-Umfrage "Moral Machine" des renommierten Massachusetts Institute of Technology (MIT). Ihr Ziel ist es, unsere moralischen Intuitionen anhand von dramatischen Entscheidungsszenarien zu erforschen. Ein Beispiel: Bei einem selbstfahrenden Auto versagen die Bremsen und es gibt nur zwei Möglichkeiten: Soll es gegen eine Mauer fahren, wodurch die Insassen sterben, oder soll es drei Kinder zu Tode fahren, die gerade aus der Schule kommen? Macht es einen Unterschied, wenn die Kinder bei Rot über die Ampel gehen? Oder wenn das Auto ein Baby an Bord hat? Das Szenario ist nicht aus der Luft gegriffen. 

Mit der bevorstehenden Zulassung selbstfahrender Autos auf unseren Straßen müssen wir uns einem Problem stellen, das 1967 von Philippa Foot formuliert wurde und in der angloamerikanischen Ethikdebatte seitdem als Trolley-Problem bekannt ist. Eine Straßenbahn rast auf fünf Menschen zu. Sie können jedoch eine Weiche umstellen, sodass die Bahn nur einen Menschen töten würde. Würden Sie das tun, auch wenn Sie damit für diesen einen Tod verantwortlich wären? Die meisten Menschen antworten mit Ja. Betrachten wir nun folgende Variante: Sie können die Straßenbahn stoppen, indem Sie einen stark übergewichtigen Mann auf die Gleise stoßen. Würden Sie das auch tun? Die meisten Menschen lehnen dies ab, obwohl das Ergebnis dasselbe wäre. Das beweist, dass wir nicht vollkommen "konsequenzialistisch" denken, also unser moralisches Urteil über eine Handlung nicht allein an ihrem Resultat, ihren Konsequenzen ausrichten.

Baby, you can’t drive my car

Einer der maßgeblichen Entwickler des MIT-Tests, Jean-François Bonnefon, ist Professor an der Toulouse School of Economics und forscht im Bereich der kognitiven Psychologie. Ich kontaktiere ihn und konfrontiere ihn mit einem Problem – nämlich der Tatsache, dass es uns Menschen im Zweifelsfall eher um das eigene Wohl beziehungsweise das Wohl unserer Nächsten geht, Maschinen aber, ganz utilitaristisch, das größtmögliche Glück der größtmöglichen Zahl im Visier haben. Konkret: Wenn Google morgen ein Fahrzeug auf den Markt bringen würde, das darauf programmiert ist, in bestimmten Situationen gegen eine Mauer zu fahren, würde ich es nur höchst widerwillig nutzen und niemals meine Kinder hineinsetzen.

Wird die Bereitschaft, auf selbstfahrende Autos umzusteigen, nicht davon abhängen, dass sie garantiert immer ihre Insassen retten, selbst wenn es unmoralisch ist? "Sie fahren offenbar lieber selbst", antwortet Bonnefon. "Aber angenommen, durch ein selbstfahrendes Auto sinkt das Unfallrisiko um den Faktor zehn, fünf oder auch nur zwei, hätte es dann nicht etwas Irrationales, auf diesen Vorteil zu verzichten, nur weil Sie eine extrem seltene Situation fürchten? Hätten Sie nicht im Gegenteil die moralische Pflicht, Ihre Kinder vor den Gefahren zu schützen, die Ihr eigenes Fahren mit sich bringt?"

Bin ich also der Einzige, dem der Gedanke, in einem Vehikel zu sitzen, das mich töten kann, wenn es dafür zwei Menschenleben rettet, Angst bereitet? Diese Frage stelle ich Nicholas Evans, Philosophieprofessor an der Universität Lowell (Massachusetts); er hat mit einem Forscherteam gerade 556.000 Dollar von der National Science Foundation dafür erhalten, einen Algorithmus zu entwickeln, der das Trolley-Dilemma lösen soll. Der Markterfolg von SUVs, bemerke ich, beruht besonders bei Familienvätern darauf, dass solche fahrenden Kolosse praktisch jedes Hindernis zermalmen – was vielleicht nicht besonders altruistisch, aber sehr beruhigend ist. "Nehmen wir an", kommentiert Evans, "Sie seien ein Utilitarist und Konsequenzialist. Sie wollen das Wohl der größtmöglichen Zahl von Personen steigern, nicht wahr?

Das Trolley-Problem

1967 erfand die Philosophin Philippa Foot das folgende Gedankenexperiment: Eine Straßenbahn rast auf fünf Personen zu und droht sie zu überrollen. Würden Sie die Weiche umstellen, sodass die Straßenbahn auf einem Nebengleis nur eine Person tötet?

Die 1985 von der Philosophin Judith Jarvis Thomson entwickelte Variante: Sie können die Straßenbahn aufhalten, indem Sie einen dickleibigen Mann auf die Gleise stoßen. Er würde dabei sterben, die anderen wären gerettet. Was würden Sie tun?

Eine Welt, in der sich alle mit selbstfahrenden Autos fortbewegen, erscheint Ihnen folglich unterstützenswert. Schließlich gäbe es dann rund 90 Prozent weniger Unfälle. Allerdings wissen Sie, dass es eine solche Welt nur dann geben wird, wenn diese Fahrzeuge in jedem Fall ihre Insassen schützen, denn sonst würden sich die Menschen weigern, in sie einzusteigen. Ein kohärenter Utilitarist wird es akzeptieren, dass wir in diesem Fall einer nicht verhandelbaren deontologischen Regel folgen – die Autos schützen immer ihre Insassen, weil dies unserer ethischen Gesinnung entspricht –, um das allgemeine Wohl zu steigern. Das nennt man self-effacing utilitarianism: sich selbst aufhebenden Utilitarismus. Um ein streng utilitaristisches Ziel zu erreichen, ist es manchmal rational, eine deontologische Regel zu akzeptieren." 

Konsequenzialismus

Für Konsequenzialisten sind die Folgen einer Handlung ausschlaggebend: Sind diese gut, ist es die Handlung auch. Die bedeutendsten Vertreter sind Jeremy Bentham (1748–1832) und John Stuart Mill (1806–1873). Die wichtigste Spielart des Konsequenzialismus ist der Utilitarismus (von latein. utilis = nützlich). Entscheidend für Utilitaristen ist das größtmögliche Glück der größtmöglichen Zahl. Ein utilitaristisch programmiertes Auto würde demnach nicht die Insassen schützen, wenn dies mehr Opfer zur Folge hätte.

Deontologische Ehtik

Die deontologische Ethik (von griech. deon = Pflicht) verfährt fundamental anders. Als bindender Maßstab für moralisch gute Handlungen gelten nicht die Konsequenzen einer Handlung, sondern Regeln und Gebote, an denen sich jede Handlung unabhängig vom Kontext auszurichten hat. Prominentester Vertreter: Immanuel Kant (1724–1804). Ein deontologisch programmiertes Auto würde folglich nicht Leben gegen Leben abwägen, sondern etwa der Regel folgen: Schütze immer die Insassen.

Jean-François Bonnefon sieht dies anders: "Als Psychologe denke ich, dass wir eine grundlegende Heuchelei bekämpfen müssen. Bestimmte moralische Entscheidungen sind schmerzhaft, wir denken ungern über sie nach. Deshalb vertreten wir die Auffassung, es gebe halt Zufälle, das gehöre zur menschlichen Existenz. Mit einer gewissen Feigheit sagen wir uns: 'Wir brauchen keine systematische Herangehensweise. Wenn eine Extremsituation eintritt, werden wir schon sehen, je nach der Eingebung, die wir in dem Augenblick haben.' Das Problem, das selbstfahrende Autos aufwerfen – und das ich persönlich für eine Chance halte –, ist, dass sie uns zwingen, die Karten auf den Tisch zu legen. Wir müssen uns über Prinzipien verständigen, die Fälle identifizieren, in denen sie nicht befriedigend sind, und diese Fälle diskutieren und klären. Wir müssen uns also in eine Grauzone begeben, die wir bislang lieber gemieden haben."

Die Grauzone ausleuchten – kann man das überhaupt? Nicholas Evans ist in dieser Hinsicht skeptisch: "Das Problem ist, dass wir nicht wissen, was ein wirklich deontologisches Auto sein sollte. Nehmen wir eines der universellsten moralischen Gebote: 'Du sollst nicht töten.' Ist ein Auto vorstellbar, das dieses Gebot respektiert? Nein! Die schlichte Tatsache, dass wir eine Maschine programmieren, zwingt uns zur Einnahme einer konsequenzialistischen und utilitaristischen Perspektive, auch wenn uns diese philosophischen Optionen abstoßen."

Kampfroboter im Anmarsch?

Es gibt Maschinen, die im Unterschied zu selbstfahrenden Autos ausdrücklich dafür konzipiert sind zu töten: Drohnen. Seit einigen Jahren bietet die Rüstungsindustrie – besonders in den USA – die Entwicklung autonomer Kampfroboter an, etwa von Drohnen, die nicht mehr von einem Soldaten ferngesteuert werden, sondern selbstständig ihren Dienstbefehl ausführen, sobald sie einmal in den Einsatz geschickt wurden.

Eines der Hauptargumente für solche Roboter, das auf den Robotikforscher Ronald C. Arkin zurückgeht, lautet, dass sie die Fähigkeit zur Selbstzerstörung hätten, während ein Soldat im Einsatz um jeden Preis seine Haut zu retten versuche und notfalls wahllos um sich schieße. Eine Drohne zum Beispiel werde eher implodieren, als das Risiko eingehen, einen Zivilisten oder ein Kind zu töten. "Dieses Argument überzeugt mich nicht", erklärt Peter Asaro, Dozent an der New Yorker New School und Experte für Roboterethik. "Zum einen ist das Verhalten von Menschen im Kampfeinsatz schwer vorherzusagen, und wir wissen aus Erfahrung, dass sich viele Soldaten opfern, um ihre Kameraden zu retten oder eine Stellung zu halten. Zum anderen kenne ich kaum Beispiele für militärische Befehle, hochwertiges technologisches Material aufzugeben. Welche Armee hätte schon ihre eigenen Panzer, Helikopter oder Drohnen zerstört, um Zivilisten zu schonen?"

Asaro ist Mitgründer des International Committee for Robot Arms Control (ICRAC), einer Nichtregierungsorganisation von Forschern, die Vorschläge für eine gesetzliche Regulierung des militärischen Einsatzes von Maschinen ausarbeitet; ein Erfolg der Organisation war die Gründung der "Campaign to Stop Killer Robots", die 2015 mit einem Appell zum Verbot autonomer Drohnen an die Öffentlichkeit trat, unterzeichnet von 1.500 namhaften Persönlichkeiten wie Stephen Hawking, dem Philosophen Daniel Dennett und dem Unternehmer Elon Musk.

Nun lautet ein weiteres Argument der Befürworter autonomer Kampfsysteme, man könne Maschinen so programmieren, dass sie nie Fehlverhalten begehen, also etwa das Feuer auf Zivilisten, Frauen, Alte oder Kinder eröffnen. "Ein Grundprinzip des Kriegsrechts", erläutert Asaro, "ist die Unterscheidung, das heißt: die Fähigkeit zur Unterscheidung zwischen Zivilbevölkerung und Kombattanten. Ginge es dabei allein um das visuelle Erkennen, dann wären Maschinen dazu zweifellos bestens geeignet. Aber so einfach ist es nicht, weil es auch die Kategorie der 'an Kampfhandlungen beteiligten Zivilisten' gibt. Hier ist das Kriterium nichts, das unmittelbar sichtbar wäre, sondern betrifft ihr Verhalten. Hebt dieser Zivilist dort bloß aus Wut einen Stein auf und wirft ihn auf das Kampffahrzeug, oder ist an der Art und Weise, wie er sich im Gelände bewegt, erkennbar, dass er einen militärischen Befehl ausführt? Stellt er eine Bedrohung dar? Solche Verhaltensaspekte lassen sich nur mit einem gewissen Verständnis sozialer Interaktionen, von Psychologie entziffern. Das Kriegsrecht erlaubt Angriffe auf Zivilisten nur dann, wenn sie direkt am Kampfgeschehen beteiligt sind, und das können Maschinen nicht erkennen."

Das zweite bedeutende Prinzip des Kriegsrechts heißt Verhältnismäßigkeit: Man zerstört nicht ein gesamtes Dorf, um fünf Personen auszuschalten – der Einsatz von Gewalt muss den militärischen Zielen und den realen Bedrohungen angemessen sein. "Auch dieses Prinzip der Verhältnismäßigkeit erfordert menschliches Urteilsvermögen", meint Asaro. "Da stellen sich mitunter heikle Dilemmata: Welche Infrastruktur riskieren Sie zu treffen, um Ihr militärisches Ziel zu erreichen? Angenommen, neben einem Munitionsdepot befindet sich ein Krankenhaus oder eine Schule, greifen Sie es dann trotzdem an? Wenn die Gefahr besteht, dass Sie eine Schule treffen, können Sie nachts bombardieren, aber bei einem Krankenhaus ist das keine Lösung. Es gibt hier keine Standardantwort. Militärische Strategien und Ziele können sich von Stunde zu Stunde ändern. Deshalb muss ein Militärkommandant die rechtliche Verantwortung für seine Befehle übernehmen. Wenn eine Maschine entscheidet und eine Schule mit 300 Kindern bombardiert wird, wer ist dann für dieses Massaker verantwortlich? Die Maschine? Der Programmierer? Wir haben keine Wahl: Wir können auf Menschen nicht verzichten."

Unersetzliche Spannung

So sieht es auch Nolen Gertz, Philosophieprofessor an der Universität Twente (Niederlande): "Die auf Augustinus zurückgehende Tradition des 'gerechten Krieges' lehrt uns, dass es, moralisch betrachtet, schlecht ist, wenn Kombattanten mit Freude töten. Ein gerechter Krieg ist nur möglich, wenn die Akteure weder Nihilisten noch Sadisten sind, wenn es ihnen grundsätzlich zuwider ist zu töten, sie aber gegen ihre moralischen Prinzipien handeln, weil aus ihrer Sicht ein Fall von legitimer Verteidigung oder von höherer Gewalt vorliegt. Das ist eine komplizierte Situation: Ein Krieg ist nur dann gerecht, wenn die, die ihn führen, dies widerwillig tun. Mit Kampfmaschinen verschwindet diese Spannung."

Gewiss, doch das Argument lässt sich auch umkehren: Sollte man jemals über Roboter verfügen, die den Menschen in der Kriegsführung vollständig ersetzen können – sodass man einen militärischen Sieg erringen kann, ohne das Leben eines einzigen Soldaten aufs Spiel zu setzen und ohne dass tödliche Entscheidungen das Gewissen von Drohnenpiloten belasten –, warum sollte man dann nicht der eigenen Bevölkerung dergestalt jedes Leid ersparen? "Dieses Argument scheint mir nicht zulässig", erklärt Gertz, "denn die Rolle von Technologie ist nicht einfach eine instrumentelle, neutrale. Die Technik berührt, prägt und beeinflusst unser Verhalten und ethische Entscheidungsprozesse. Angenommen, es sei, wie Sie eben meinten, mit keinerlei menschlichen Kosten verbunden, nicht einmal mit psychologischen, wenn man Krieg führt und den Gegner dezimiert, weil Roboter die schmutzige Arbeit machen. Das würde in den Augen der Öffentlichkeit, einer Regierung oder eines Generalstabs die Akzeptanzschwelle des Krieges dramatisch senken. Anders gesagt, es würde den Akt des Tötens erheblich erleichtern. Stellen Sie sich eine Welt voller Roboter mit einer Lizenz zum Töten vor. Erscheint Ihnen eine solche Welt wünschenswert?"

Es gibt jedoch noch ein drittes Feld mit gewichtigen ethischen Implikationen, auf dem KI rapide Fortschritte macht: die Medizin. Der IBM-Computer Watson, der bereits einen Jeopardy-Wettbewerb gewann, diagnostizierte kürzlich an der Universität Tokio bei einer Patientin eine seltene Art von Leukämie, nachdem er binnen zehn Minuten 20 Millionen Forschungsberichte ausgewertet hatte; der Computer schlug sogar eine geeignete Therapie vor. Doch angenommen, einer KI unterläuft ein schwerer Diagnosefehler – wer ist dann verantwortlich? "Hier liegt ein gewaltiges Problem der Zurechnung von Handlungen vor", hebt Kenneth W. Goodman, Medizinprofessor und Leiter des Instituts für Bioethik an der Universität Miami, an.

"Nehmen wir den Fall eines Chirurgen, der seit zehn Jahren erfolgreich mit einer Sonde arbeitet; bei einer schwierigen Operation hat die Sonde eine Panne, der Patient wird geschädigt. Ist der Chirurg dafür verantwortlich? Ja, wenn man bedenkt, dass er denselben Status hat wie ein Schiffskapitän und folglich für den Lauf der Ereignisse geradestehen muss. Aber meines Erachtens geht es hier eher um eine Frage von geteilter Verantwortung. Die Unterstützungssysteme für klinische Entscheidungen, die immer häufiger zum Einsatz kommen, befördern uns in eine Ära, in der es viele Ebenen der Verantwortung gibt. Wer hat die Datenbank konstruiert, auf die die KI zurückgreift? Wer hat das Programm geschrieben? Das sind umso vertracktere Fragen, als die meisten verwendeten Codes von mehreren Personen geschrieben wurden, manche stammen aus Open-Source-Programmen, die von Forschern oder Unternehmen für eine bestimmte Anwendung abgeändert wurden. Für dieses Niemandsland werden wir internationale Normen vereinbaren müssen."

Peter Asaro, der auch die Entwicklung der KI im Feld der Medizin verfolgt, meint ergänzend, wenngleich etwas kühl: "Die Krankenhäuser stehen bei der Zuteilung knapper Ressourcen, etwa von Blut für Transfusionen oder Organen für Transplantationen, vor schwierigen ethischen Abwägungen. Welchen Patienten soll man vorziehen? Hier haben wir einen Fall, bei dem die Subjektivität der Ärzte, ihre Sympathie für bestimmte Patienten oder sogar die Geldsumme, die ein Patient für seine lebenswichtige Behandlung aufbringen kann, Entscheidungen zu verzerren drohen. In diesem klar eingegrenzten Bereich kann es sein, dass die Entscheidungen einer KI objektiver, ethisch besser sind."

Nur eine Frage der Zeit?

Das ist einer der Fälle – der recht seltenen Fälle, wie es nach unseren Erkundungen scheint –, in denen der Mensch Gefahr läuft, ethisch weniger triftig zu urteilen als ein Computer. Und jenseits dessen? "Es gibt eine Geschichte aus den Anfängen der KI, die ich wunderbar finde", berichtet Goodman. "Ein Roboter hat drei Objekte vor sich: eine Kugel, eine Pyramide und einen Würfel aus Holz. Der Testleiter fordert ihn auf, die Pyramide auf den Würfel zu stellen. Das gelingt ihm. Bravo! Nun soll er die Kugel auf den Würfel zu stellen. Er versucht es, die Kugel rollt herunter. Er versucht es noch mal und noch mal und noch mal … Der Roboter weiß nicht, dass es unmöglich ist. Diese Geschichte ist eine aufschlussreiche Parabel für unsere Zeit: Unsere moralischen Urteile setzen im Hintergrund implizite Kenntnisse voraus, die nicht immer explizierbar und programmierbar sind, weil es zahllose von ihnen gibt. Wittgenstein fasst dies als den Bereich der Gewissheit." Mir fällt da ein prägnantes Beispiel ein, das Wittgenstein anführt: Ein Mensch, der seinem Nachbarn den Arm abtrennt, um zu sehen, ob er nachwächst, ist kein Wissenschaftler, der ein Experiment durchführt, sondern ein Verrückter.

"Genau! Das ist das Problem! Wir Menschen geben uns nie damit zufrieden, einfach eine Regel zu befolgen. Denn explizite Regeln gelten nur für einen kleinen Bereich des Handelns. Der Unterschied zwischen KI und dem Menschen besteht nicht nur in der Interpretation von Kontexten, sondern auch darin, dass der Mensch eine enorme Zahl von Prinzipien als derart gesichert und evident betrachtet, dass sie gar nicht ausgesprochen werden. Und eben deshalb bleibt das ethische Urteil des Menschen unverzichtbar." Müsste man vielleicht hinzufügen: beim aktuellen Stand der Technik?

Quelle: https://www.zeit.de/kultur/2018-05/kuenstliche-intelligenz-moral-menschen-maschinen-werte

Abtreibungsdebatte in Irland

„Die Debatte hat auch das irische Fernsehen RTÉ in einen Konflikt gestürzt. Wie soll Abtreibung in den Nachrichten für Gehörlose dargestellt werden? Wenn es nach den Abtreibungsgegnern ginge, würde das Wort als Messerstich in den Bauch gezeigt, während andere für den Buchstaben „A“ plädieren. In der US-amerikanischen Gebärdensprache wird symbolisiert, wie ein Kind kurz im Arm gewiegt wird, dann wird es entfernt und fallengelassen.“

Quelle