Catrin Misselhorn sitzt mit Buch in Sessel
Bild © hr

Soll das autonome Auto im Notfall ein Kind oder eine Gruppe älterer Menschen verschonen? Maschinen werden immer intelligenter und müssen immer häufiger moralische Entscheidungen treffen. Wie funktioniert das? Und wo liegen die Grenzen?

Audiobeitrag

Podcast

Zum Artikel Das Interview mit Catrin Misselhorn

Ende des Audiobeitrags

Wenn bei ihr zu Hause nicht so viel Spielzeug von der kleinen Tochter herumliegen würde, dann hätte Catrin Misselhorn auch gerne einen Staubsauger-Roboter. Doch schon eine solche eher simple Maschine steht vor moralischen Problemen: "Was passiert eigentlich mit kleinen Tieren, die dem Roboter vor die Düse laufen? Soll er die einsaugen oder verschonen?" Käfer und Spinnen zu erkennen und drum herum zu fahren  - das ist für den Roboter technisch kein Problem. Aber wie er sich verhalten soll, das muss ihm sein Benutzer beibringen. Den Prototyp eines Staubsaugers mit "Kill-Button" gibt es schon.

Unlösbare Fragen

Die so genannte Maschinenethik ist das Forschungsgebiet von Catrin Misselhorn, Philosophie-Professorin und Direktorin des Instituts für Philosophie an der Uni Stuttgart. Ein Bereich, in dem sie eng mit Programmierern und Ingenieuren zusammenarbeitet und der - entgegen allen Vorurteilen über "Philosophie im Elfenbeinturm" – eine ganz praktische Bedeutung hat, zum Beispiel beim autonomen Fahren: Soll ein sich selbst steuerndes Auto eher ein Kind verschonen, das plötzlich auf die Straße springt, oder eine Gruppe älterer Menschen? Die Philosophin ist überzeugt, dass es in einem solchen Dilemma "letztlich keine richtige Entscheidung gibt". Daher lehnt sie autonome Autos ab, die eine solche Entscheidung treffen könnten. Bestimmte Menschengruppen von vorneherein als mögliche Opfer zu definieren, das sei ethisch nicht zulässig, mahnt Catrin Misselhorn.

Weitere Informationen

Buchtipp

"Grundfragen der Maschinenethik"
von Catrin Misselhorn
Reclam Verlag
9,80 Euro

Ende der weiteren Informationen

Weniger skeptisch ist die Philosophin gegenüber Robotern in der Pflege, wenn diese auf die Bedürfnisse der Pflegebedürftigen eingehen - etwa bei der Frage: Steht die Gesundheit immer ganz oben oder kann der Roboter seinem Patienten auch mal ein Glas Wein genehmigen, wenn der gerade Lust darauf hat? Selbst Gefühle der Patienten können Roboter bereits erkennen und darauf reagieren. Bestimmte "Basis-Emotionen wie Freude, Schmerz, Überraschung oder Furcht" seien eng an einen bestimmten Gesichtsausdruck gekoppelt, die ein System ganz gut erkennen könne, erklärt Misselhorn. Wirklich nachfühlen kann eine Maschine die Emotionen seines menschlichen Gegenübers natürlich nicht. Und das ist vielleicht auch ein Grund, warum uns Roboter – je Menschen-ähnlicher sie werden – irgendwie unheimlich sind.

Gerechterer (Roboter-)Krieg?

In jedem Fall sind Maschinen – wenn man sie einmal mit bestimmten ethischen Normen gefüttert hat – konsequenter als Menschen in ihren moralischen Entscheidungen. Manche Forscher glauben daher, Roboter könnten "gerechtere Kriege" führen, weil sie sich nicht durch Stress, Emotionen oder egoistische Interessen zu Kriegsverbrechen verleiten lassen. Trotzdem lehnt Catrin Misselhorn den militärischen Einsatz von Robotern ab – aus ganz grundsätzlichen Erwägungen: "Menschen können immer auch von einer Tötungshandlung absehen. Sie können Barmherzigkeit empfinden oder Mitleid und das halte ich letzten Endes für eine gute Sache." Spontane Gefühlsregungen, Intuition, Empathie und sogar Fehler gehören dazu, wenn eine Handlung wirklich moralisch sein soll. Und dazu sind Maschinen bisher nicht in der Lage.

Sendung: hr-iNFO, Das Interview, 2.1.2019, 19.30 Uhr

Jetzt im Programm