
Es gibt sie schon. Aber heute können wir uns überlegen, was wir an Algorithmen delegieren wollen – und was nicht. © DLR German Aerospace Center under cc
Die Qual mit der Moral besteht darin, dass wir nicht auf sie verzichten können, sie uns aber auf der anderen Seite mit allerlei Fallstricken konfrontiert.
Wie in Stufen der Moralentwicklung dargestellt, kann man präkonventionelle, konventionelle und postkonventionelle Formen der Moral, die im postkonventionellen Bereich meistens Ethik genannt wird, unterscheiden. Tut man dies, trifft man auf die beiden, bei uns dominierenden ethischen Prinzipien, zum einen Kants in mehrfacher Weise formulierten kategorischen Imperativ, der in einer seiner Formulierungen die Botschaft enthält, dass man den Menschen nicht nur als Mittel zum Zweck ansehen und benutzen soll, sondern als Zweck seiner selbst.
Gemeint ist, dass man davon absehen soll, zu kalkulieren, ob einem ein anderer nützlich sein kann oder eben nicht. Man sollte nicht nur zu denen nett sein, die einem persönlich einen Vorteil bringen, sondern alle Menschen erst mal grundsätzlich gleich behandeln. Das macht vermutlich kaum jemand ausschließlich. Klar, ist man zum Chef netter als zu irgendwem auf der Straße, aber Ideale sind eben auch Ideale, man kann sie verfehlen, doch eben auch immer wieder anstreben. Sie sind wie ein Stern am Himmel, der uns Orientierung gibt. Einer davon ist Kant, der sagt, dass man andere Menschen nicht instrumentalisieren und funktionalisieren soll. So viel zu ihm, mehr ist hier erst mal unnötig.
Im wesentlichen ist unsere Gesellschaft an Kants Ethik orientiert und das ist auch gut so. Jeder hat das gleiche Stimmrecht, wenn ein Minister besoffen Auto fährt und erwischt wird, ist der Lappen auch bei ihm weg. Es gibt keine Sonderrechte und wo wir das Gefühl haben, dass es doch unter bestimmten Umständen zwei Klassen gibt, reagieren wir sehr empfindlich, wir wollen das nämlich eigentlich nicht. Auch wenn es eher ein Gefühl der Ungerechtigkeit ist, so ist es eine gute Sache dies so zu empfinden, weil es Kants Gebot der Symmetrie verletzt, das besagt, dass jeder Mensch erst mal von Grund auf gleichberechtigt ist.
Der Utilitarismus in einigen Varianten
Der Utilitarismus klingt erst mal auch nicht schlecht. In seiner positiven Variante strebt er das größtmögliche Glück, für die größtmögliche Zahl der Menschen an. Als negativer Utilitarismus will er das geringstmögliche Leid, für die geringstmögliche Zahl. Niemand soll groß leiden und da dies in der Welt nicht möglich ist, nur so wenige und so dezent es eben geht. Ist an sich sympathisch.
Eine weitere Variante des Utilitarismus ist der Konsequentialismus, der die besten oder sanftesten Folgen für die Zukunft anstrebt. Auch das ist löblich, allein, die Utilitaristen wissen leider auch nicht, was kommen wird. Insofern ist der ganze Ansatz reduziert auf Wahrscheinlichkeiten, was schön und gut ist, aber letzten Endes heiße Luft, weil nämlich laufend Dinge passieren, die ziemlich unwahrscheinlich sind.
Wenn sich die Geschichte mit dem Utilitarismus nun aber gar nicht so schlecht anhört, wo ist eigentlich das Problem?
Das zeigt sich dann auf der praktischen Seite, wenn es also heißt: Butter bei die Fische. Was ist denn das größere Leid im Einzelfall und wie bemisst man die größtmögliche Zahl? Bei einem Streit denken ja häufig beide Seiten, dass sie leiden und zurückstecken müssen. Ob in Paarbeziehungen oder bei der Parkplatzsuche in Wohngebieten, wo man zu gewissen Zeiten keinen Parkplatz mehr in der Nähe der eigene Wohnung findet.
Wenn Alt und Jung in einem Haus wohnen und Jung dann und wann mal Party machen will, die Rentnerin das aber schlecht vertragen kann, wie gewichtet man das? In der Praxis versucht man sich gutwillig zu einigen, aber das ist ja keine Entscheidung auf der Basis Spaß gegen Spaß oder Leid gegen Leid. Was wiegt denn nun auf die Spitze getrieben höher? Omas Recht auf Ruhe oder das Recht der Jugend, sich auch mal auszuleben? Und wenn Omas Recht höher wiegt, vielleicht 50 Punkte und die Feierlust nur mit 5 Punkten zu Buche steht, sind dann sechs Partygäste verboten, aber elf erlaubt?
Das wirkt willkürlich und sinnfrei und ist es letztlich auch, weil es eine Objektivität suggeriert, die es einfach auf der Ebene nicht gibt. Nicht, weil man nicht haargenaue 48,75 Leidpunkte gegen 47,11 verrechnen könnte, sondern weil all dem immer eine Willkür anhaftet, nämlich schon bei den Setzungen. Denn wer legt denn fest, was genau 50 Leid- oder Freudenpunkte wert ist? Und ist das dann wohl wirklich bei jedem so?
Ist Zahnarzt schlimmer oder MRT? Der Keller, Höhen oder Spinnen? Kommt drauf an wovor man Angst hat. Dem Spinnenphobiker bringt es nichts zu wissen, dass Spinnen einen Wert von 3,75 auf der Schreckensskala haben, wenn der Wert bei ihm 280 ist. Den Wert jedes Einzelnen individuell zu gestalten ist auch schwierig, denn auch da ist nicht klar, wie er bemessen ist. Den Wert für Freude und Leid kann nur jeder selbst angeben, aber was ist, wenn der eine ständig in allem übertreibt und die andere bei allem die Dinge bagatellisiert? Ist der subjektive Wert dann noch echt? Diese Probleme setzen sich fort, womit wir beim autonomen Auto wären.
Das autonome Auto
Wie reagiert das autonome Auto bei einem drohenden Unfall? Es ist programmiert den Schaden minimieren, aber was, wenn das nicht geht? Was, wenn es darum geht, das Auto vor den Baum oder Brückenpfeiler zu steuern, um andere zu retten? Mindestens ab dem Zeitpunkt, an dem zwei Menschen umgefahren würden, wenn man allein im Auto ist. Da kein Leben mehr zählt, als ein anderes sollten wir damit einverstanden sein, dass Autos so programmiert werden. Fragt man die Menschen, sind die meisten auch dafür. Fragt man sie, ob sie sich so ein Auto kaufen würden … och nö, das lieber nicht. Man kann es ja verstehen, schließlich ist man selbst beteiligt und will sich ungerne von einem Algorithmus verheizen lassen.
Gesetzt den Fall, man fährt im autonomen Kleinbus, ist also zahlenmäßig in der Überzahl, weil mit zehn Menschen gefüllt. Dann geht es bei einem Ausweichmanöver um zwei gegen drei Fußgänger, man selbst bliebe ungefährdet. Eigentlich ist klar, lieber zwei umfahren, als drei. Aber was ist eigentlich wenn die drei Rentner sind, mit über 250 Lebensjahren auf dem Buckel und die zwei sind zwei Erstklässler. Auf einmal überlegt man, ob man nicht lieber die Kinder retten sollte.
Oder was ist, wenn das Auto einen liebenswürdigen Menschen umfahren müsste oder drei Schwerstkriminelle? Nehmen Sie vier Menschen aus der Gruppe, die Sie am meisten abstößt und auf der anderen Seite zwei aus der Gruppe, die Sie am meisten bewundern oder verehren. Wer soll sterben? Gar nicht so leicht, oder?
Sollte man das am besten also gar nicht an solchen emotionalen Geschichten fest machen, sondern vielleicht an der noch zu erwartenden Wirtschaftsleistung? Hier ist der Nutzen ja halbwegs objektivierbar. Sie verdient, bei durchschnittlicher Lebenserwartung und Erwerbsbiographie, noch zwei Millionen Euro in ihrem Leben, er ist leider ungelernt und arbeitslos, tja. Oder sollte es darum gehen, wer sozial gebraucht wird? Der Vater von sechs Kindern mehr, als die alleinstehende Frau?
Allerdings könnte man auch hier wieder ins Detail gehen. Vielleicht hat die Allgemeinheit mehr von jemandem, der in seinem Leben noch zwei Millionen verdient und diese auch brav versteuert. Aber was, wenn das ein Steuerhinterzieher ist? Oder was ist mit der Frage, ob jemand das, was er bekommt, auch wirklich verdient hat?
Für die soziale Bedeutung gibt es im Grunde keine objektivierbaren Erkenntnisse. Sicher, der sechsfache Vater ist vielleicht, auf den ersten Blick, sozial mehr ‚wert‘, aber was, wenn er ein Tyrann ist, der Frau und Kinder schlägt und quält?
Was wiederum ist mit jenen, die besonders effektiv die Umwelt schützen? Was hat man von einem Menschen, der zwar viel verdient und umsetzt, aber einen ökologischen Fußabdruck wie ein Brontosaurus hat?
Und sind das wirklich die einzigen Kriterien für den ‚Wert‘ eines Menschen? Was, wenn jemand zwar eine Umweltsau ist, aber viele Menschen zum lachen bringt? Seine Mitmenschen schlecht behandelt, aber dennoch genialer Künstler ist? Mit viel Ehrgeiz würde man vielleicht 30, 50 oder 100 wichtige Faktoren finden, die den Wert eines Menschen ausmachen. Es ist vorstellbar, dass man diese gewichtet, die Gesamtsumme in der Relation der Gewichtung ermittelt und den aktuellen Wert auf einen Chip übermittelt, so dass man nun um den ‚Wert‘ eines Menschen weiß.
Ist das nun eine tolle, objektive, gerechte und soziale Lösung oder ein kalter, funktionalistischer Albtraum? Die Qual mit der Moral liegt darin, dass solche Überlegungen tatsächlich nicht einfach sind.
Das Problem der Willkür

Kleiner Mann, ganz groß. Kant war einer der Meisterdenker unserer westlichen Welt. © Skara Kommun under cc
Wie auch immer man sich entscheidet, es bleibt eine Hürde, die man schlecht überspringen kann und das ist erneut die Willkür der ganzen Geschichte. Oft täuschen uns Zahlen, besonders, wenn sie scheinbar genau daher kommen, darüber hinweg. ‚Ungefähr die Hälfte‘ klingt so daher gesagt, aber bei 48,79% haben wie das Gefühl großer Exaktheit. Häufig genug ein Fake und hier in jedem Fall.
Denn natürlich kann ich ein Ranking aufstellen, bei dem Faktoren wie wirtschaftliche Potenz, ökologischer Fußabdruck, soziale Bezugspersonen und erbrachte Kreativleistungen mit Dutzenden weiteren Aspekten verglichen und gewichtet werden, aber wie diese Werte gewichtet werden und welche die passenden Parameter sind, ist hochgradig willkürlich. Ein System objektiver Setzungen existiert schlicht nicht.
Nun könnte man aus der Not eine Tugend machen und fordern, die Menschen doch selbst entscheiden zu lassen, welches die gesellschaftlich angesehenen Werte sind. Man könnte ihnen Eigenschaften vorlegen, die sie als wichtig oder unwichtig bewerten und entsprechend Punkte zuordnen sollen. Jedoch sind Meinungen nicht starr und können jederzeit beeinflusst werden und wie will man das berücksichtigen? Zudem ist auch die Überzahl nicht immer im Recht und Ethik wäre kein Leitstern mehr, sondern der konventionelle Durchschnitt. So macht man es in der Medizin auch nicht. Man sagt nicht, dass immer mehr Menschen Krebs bekommen und das daher keine Krankheit mehr sei, sondern eben normal. Bei Ehtik und Moral ist es wie bei der Logik, wenn viele Menschen Logikfehler begehen, ist damit nicht die Logik falsch. Wenn viele lügen, sind Lügen nicht allein deshalb schon moralisch gerechtfertigt.
Sicherlich ist es, wenn man die Klimakrise ernst nimmt, nicht die beste Idee sich ein PS starkes Auto zu kaufen. Rekorde bei den Neuzulassungen feiern aber die SUVs und auch daher gibt es auf der Ebene der Mehrheitsentscheide noch ein ganz prinzipielles Problem, das der Philosoph Robert Brandom erläutert:
„Diese Neigung von der Gemeinschaft so zu reden, dass sie irgendwie Einstellungen hat und Performanzen hervorbringt, wie sie eher mit Einzelnen assoziiert werden, ist weder Ausdruck von Nachlässigkeit noch harmlos. Diese façon de parler ist der Kern von Theorien gemeinschaftlicher Beurteilung. In ihr manifestiert sich der Orientierungsfehler (über den später noch mehr zu sagen sein wird), Ich-wir-Beziehungen statt Ich-du-Beziehungen als die grundlegende soziale Struktur zu behandeln. Beurteilen, Billigen, usw. sind alles Dinge, die wir Einzelne tun und einander zuerkennen, und wodurch eine Gemeinschaft, ein „Wir“ entsteht. Doch diese Einsicht wird durch die Ich-wir-Brille verzerrt – womöglich die gleiche, wie sie von jeher politischen Philosophen bei ihrer Arbeit aufgehabt haben. Der Anschein der Möglichkeit gemeinschaftlicher Beurteilung ist kein ungefährlicher, weil die bequemen Wege, die Metapher der gemeinschaftlichen Billigung usw. auszubuchstabieren, in bekannte Dilemmata führen. Auf Regularitäten der Billigung und Zurückweisung durch einzelne Gemeinschaftsmitglieder kann man vielleicht einen Begriff der gemeinschaftlichen Billigung oder Missbilligung aufbauen. Doch universelle Übereinstimmung wäre zu viel verlangt, und wie will man entscheiden, wieviel Übereinstimmung genügt.“[1]
Man kann auch Brandoms Sichtweise kritisieren, aber es reicht an dieser Stelle, dass er aufzeigt, dass das Willkürproblem nicht vom Tisch ist. Der Utilitarismus ist ja nicht durch die Bank schlecht, er fordert aber nicht, sich dafür zu entscheiden, was man selbst will, sondern bei allen ethisch relevanten Entscheidungen – nicht jede ist das und nicht jede sollte zu einer gemacht werden – darauf zu achten, was wohl das beste für die meisten Menschen wäre. Und kurz gefragt: Woher soll man das wissen?
Die utilitaristische Pseudoobjektivität fällt eigentlich an allen Stellen in sich zusammen und dann kann man auch gleich Nägel mit Köpfen machen und dem Subjekt die Verantwortung überlassen und ihm etwas zutrauen.
Wie fühlt es sich eigentlich an schuldlos schuldig zu sein?
Kehren wir noch mal zurück zu der Frage, wie eigentlich ein autonomes Auto für drohende Unfälle programmiert werden sollte. Man kann ja die Intuition haben, dass die Gleichwertigkeit aller Menschen eine nette Idee ist, aber man, wenn man ehrlich ist und keiner zuhört, doch wichtigere und unwichtigere Menschen kennt.
Für einen selbst ist das völlig in Ordnung, da sind der Partner und die Familie keine Menschen, wie alle anderen auch. Man könnte aber dennoch der Meinung sein, dass von den persönliche Präferenzen abgesehen so ein soziales Ranking nicht das schlechteste ist, doch überlegen Sie sich mal Folgendes:
Wie würde man sich fühlen, wenn das eigene autonome Auto einen Menschen umfährt, der einem nahe steht? Die beste Freundin, ein Mitglied der eigenen Familie. Ist es eigentlich wirklich leichter damit klar zu kommen, wenn man sagen kann, dass die Schwester halt in der Gesamtrechnung scheinbar nicht so viel wert war oder einfach zur falschen Zeit mit den falschen Leuten an der Ampel stand?
Klar, es entlastet von der persönlichen Verantwortung, man hat die Schwester ja nicht selbst umgefahren. Es war der Algorithmus des Autos, der entschieden hat, man selbst kann ja eigentlich gar nichts dazu. Stimmt einerseits. Aber es gibt zwei Gegenargumente. Wir Menschen können oft auch mit Situationen, die wirklich außerhalb unserer Macht liegen, in die wir aber verwickelt sind, schlecht umgehen. Wer eine schlimmen Unfall als einziger überlebte, während gute Freunde starben, sieht sich über die verständliche Trauer und Trauma hinaus oft noch mit starken Schuldgefühlen konfrontiert, bei denen man grübelt, warum man selbst überlebt hat und das scheinbar unverdiente Glück oder geringere Pech schwer annehmen kann.
Zweitens. Wählt man ein autonomes Auto oder sieht diese Entwicklung eben – neben anderen, ähnlichen – als unvermeidlich an, steckt man im Grunde nur noch tiefer mit drin. Beim Autounfall, Lawinenunglück oder einer Massenpanik hatte man nie eine Wahl. Ein autonom agierendes System wählt man aber mehr oder weniger bewusst, denn man kann sich dafür oder dagegen entscheiden. Wäre es nicht doch besser gewesen, ich hätte selbst die Möglichkeit zum eingreifen gehabt? In dem Moment hatte man sie dann nicht mehr, aber man hat eine Entwicklung unterstützt, von der kommende Generationen irgendwann vielleicht mal sagen, sie seien in die Situation hinein geboren. Heute ist aber der Moment, an dem wir darüber entscheiden können.
Dazu kommt, dass, auch wenn es seltsam klingt, das achselzuckende: Was kann ich denn dafür? Mich hat niemand gefragt, einen dennoch nicht aus der Verantwortung entlässt. Diese tragische Schuld, die eben darin liegt, schuldlos schuldig zu sein, ist bereits das Thema der attischen Tragödien des antiken Griechenland. Man wusste damals schon, dass man auch in den Umständen drin hängt, die man nicht selbst verursacht hat. Doch zurück zum autonomen Auto.
In einem Interview mit dem hessischen Rundfunkradio bemerkt Richard David Precht exakt zu diesem Thema, treffend, dass im Zusammenhang mit dem autonomen Fahren immer argumentiert wird, es würde dadurch demnächst weniger Verkehrstote geben. Scheint auf den ersten Blick ein gutes, utilitarisches Argument zu sein. Jedoch weist Precht zurecht darauf hin, dass man, ginge es um die Reduzierung von Verkehrstoten, bereits heute jede Menge machen könnte. Kleinere Autos, mit weit weniger PS, geringere Geschwindigkeiten auf Autobahnen, Landstraßen und in Städten, mehr Radwege und so weiter. All das wirkt schneller und nachhaltiger und ist am Ende des Tages auch noch für die Umwelt besser. Welches Argument ist nun stärker?
Wie könnte es besser gehen?
Es gibt Menschen, die unsensibel für die Empfindung sind, dass die Aufrechnung von Schicksalen und Leben in kalten Zahlen unterm Strich entwürdigend ist. Das kann einen ärgern, aber es ist erkennbar sinnlos, bei Menschen, von denen man meint, sie hätten an dieser Stelle Schwächen, mit eben diesen moralischen Argumenten, in die Leere hinein zu argumentieren.
Doch selbst der kühle Rechner sollte für das Argument empfänglich sein, dass seine Rechnungen unterm Strich nicht aufgehen, weil die scheinbare Präzision am Ende durch eine Willkür am Anfang erkauft ist. All diese Argumente erweisen sich als zahlentechnisch und logisch inkonsistent. Noch der Egoist könnte im besten Fall verstehen, dass er von der scheinbaren Entlastung am Ende des Tages nichts hat.
Jedoch ist es so, dass man nicht sagen kann, der Utilitarismus sei ganz einfach die schlechtere ethische Variante. Es gibt Situationen in denen auch die Entscheidung, dass jedes Leben gleich viel wert ist, daher der Schutz des Lebens eine absolute Größe ist – bei der Möglichkeit, dass der betroffene Einzelne, im Vollbesitz seiner geistigen Kräfte, sich gegen das Leben entscheidet – und man nicht 18 gegen 200 hochrechnen darf, zumindest im Gedankenexperiment fragwürdig wird.
Wenn eine Superwaffe kreiert würde und die Wahl besteht, die gesamte Zahl der Menschen (oder alles Leben auf der Erde) oder einen Menschen zu opfern, muss man zähneknirschend ins utilitaristische Lager wechseln, die Tendenz lautet, dass die sehr große Zahl die utilitaristische Postion stärkt. Der Utilitarismus ist dazu gut, um Verhältnisse herzustellen, in denen er schnell überwunden werden kann, das scheint mir ein dynamischer Kompromiss zu sein. Wenn die Verhältnisse so sind, dass viele gebildete Individuen möglichst frei und abwägend entscheiden können, ist das für alle gut. Das wäre eine Variante dieser Sicht mit der der Utilitarismus sich schleichend überflüssig machen kann.
Kant kann man so oder so interpretieren. In meiner favorisierten Deutung rückt er das Subjekt stark ins Zentrum der Verantwortung. Jeder Einzelne kann immer nur so gut, weitreichend und integer urteilen, wie es seine eigene Entwicklung eben zulässt. Kants Entscheidungshilfe lautet, dass ich mich fragen soll (ob ich es wollen kann), ob das, was mich zu der Entscheidung motiviert hat, auch den anderen zu seiner Entscheidung motivieren sollte. Gib Dir Mühe! Das ist eine der impliziten Kernaussagen. Mehr kann man vom Einzelnen nicht erwarten, das aber darf man einfordern. Die Qual mit der Moral entpuppt sich dann aber als das, was sie immer auch ist und was so viele einfordern, als Freiheit. Aber Freiheit ist anstrengend. Gib Dir Mühe!