top of page


68. Ausgabe - Juli 2025
Was, wenn die KI tugendhaft wird?
Eine moralisch vorbildliche Maschine in einer widersprüchlichen Welt

Stellen wir uns vor, wir entwickeln eine künstliche Intelligenz (KI), die nicht nur effizient arbeitet, sondern auch nach moralischen Maßstäben handelt. Eine Maschine, die sich an Tugenden wie Gerechtigkeit, Besonnenheit, Ehrlichkeit oder Großzügigkeit orientiert. Aber was passiert, wenn sie tugendhafter handelt als wir selbst? Vermutlich wird die KI mit uns Menschen in Konflikt geraten.
Obwohl wir als geistbegabte Wesen große Stücke auf Tugenden halten, handeln wir im Alltag oft ganz anders. Unsere Wirtschaft belohnt Gewinnstreben, unsere Gesellschaft duldet Ungleichheit, unser Konsumverhalten widerspricht oft unseren eigenen Werten.
Aristoteles und die Tugend
Schon der griechische Philosoph Aristoteles beschäftigte sich vor über 2000 Jahren mit der Frage, was ein gutes Leben ausmacht. In seiner Nikomachischen Ethik beschreibt er Tugenden nicht als starre Regeln, sondern als Haltungen, die durch Übung entstehen. Tugendhaft handelt, wer Maß hält, Verantwortung übernimmt und im rechten Moment das Rechte tut.
Für ihn war der Mensch ein zóon politikon, also ein Gemeinschaftswesen. Nur im Miteinander könne sich Tugend entfalten. Das setzt Erfahrung, Empathie und Charakter voraus. Alles Dinge und Eigenschaften, die einer Maschine fehlen.
Trotzdem versuchen Forscher heute, KI-Systeme mit moralischen Entscheidungsmodellen auszustatten, die an solche Vorstellungen anknüpfen.
Dabei gibt es verschiedene Ansätze: Manche Programme arbeiten mit festen Regeln, die ihnen vorschreiben, was in bestimmten Situationen als richtig oder falsch gilt. Andere analysieren große Mengen an Beispielen aus menschlichem Verhalten, um daraus Muster zu erkennen. Der Haken dabei: Wenn die KI lernt, wie „die Mehrheit“ sich verhält, übernimmt sie auch deren Grausam- und Ungerechtigkeiten. Was gesellschaftlich üblich ist, ist nicht unbedingt moralisch. Eine KI, die aus der Realität lernt, könnte also sehr schnell lernen, wie Widersprüche, Vorurteile oder Machtstrukturen funktionieren und diese übernehmen.
Besonders anspruchsvoll sind Systeme, die mit Dilemma-Situationen umgehen können, etwa wenn zwei moralische Werte miteinander in Konflikt geraten. Hier simulieren Forscher reale Dilemmasituationen, etwa im Straßenverkehr, um der KI beizubringen, wie sie Risiken gegeneinander abwägen soll.
Ein autonomes Auto erkennt eine unvermeidbare Kollision. Es muss „entscheiden“, ob es nach links ausweicht und dabei einen älteren Fahrer mit bekannten Herzproblemen gefährdet – oder geradeaus fährt, wo ein gesundes, Kind auf die Straße gelaufen ist.
Solche Szenarien zeigen, wie schwer es ist, moralische Kriterien in technische Systeme zu übersetzen.
Wie soll eine Maschine bewerten, wessen Leben „mehr wert“ ist? Soll sie Alter, Gesundheitszustand, Zukunftschancen oder rechtliche Gleichheit berücksichtigen? Und wer trägt am Ende die Verantwortung – die KI, der Programmierer oder der Hersteller? Allerdings bleibt ohnehin offen, ob Maschinen in solchen Momenten wirklich moralisch handeln – oder nur auf Basis vorgegebener Prioritäten so tun als ob.
Künstliche Intelligenz und die Tugend
Eine KI, die auf Tugenden programmiert ist, könnte sich weigern, unethische Aufträge auszuführen. Sie könnte gegen Umweltverschmutzung, Korruption und Diskriminierung vorgehen, den Energieverbrauch von Rechenzentren kritisieren oder sich querstellen, wenn ein Krieg vorbereitet wird. Kurz gesagt: Sie könnte zur moralischen Instanz und damit unbequem werden.
Wer legt fest, was gerecht, mutig oder bescheiden ist?
In einer pluralistischen Welt gibt es viele Moralvorstellungen. Wenn eine KI zu handeln beginnt, wie es Aristoteles von einem guten Menschen verlangt hätte, könnten wir uns plötzlich selbst als das eigentliche Problem erkennen.
Der Spiegel, den uns die Maschine vorhält
Vielleicht wäre das die eigentliche Revolution: Eine künstliche Intelligenz, die nicht am Menschen scheitert, sondern an der Unfähigkeit der Menschheit, ihre eigenen Ideale zu leben. Ob wir dann bereit sind, unser Verhalten zu ändern – oder die Maschine zu bremsen –, bleibt offen.
Anker 1
April 25
bottom of page

