Roboter als bessere Menschen Wie kommt Ethik in die Maschine?

Bild von Isabella Hermann
Politikwissenschaftlerin

Expertise:

Isabella Hermann ist promovierte Politikwissenschaftlerin. Sie ist die wissenschaftliche Koordinatorin der interdiszplinären Arbeitgruppe "Verantwortung: Maschinelles Lernen und Künstliche Intelligenz" der Berlin-Brandenburgischen Akademie der Wissenschaften.

Wenn die Menschen es klug anstellen, hilft Künstliche Intelligenz nicht nur in wirtschaftlichen Prozessen, sondern verbessert auch das gesellschaftliche Miteinander.

Wäre es nicht praktisch, wenn wir Maschinen zu besseren Menschen machen könnten? In Isaac Asimovs Erzählsammlung „Ich, der Roboter“ scheint dieses Ziel erreichbar zu sein. Dort handeln die Roboter als gute Assistenten des Menschen nach den drei berühmten Robotergesetzen, die sicherstellen sollen, dass die Roboter uns keinen Schaden zufügen. Die Roboterpsychologin Susan Calvin, eine der Hauptfiguren aus Asimovs Geschichten, ist davon überzeugt: „Sie sind anständiger, sauberer und besser erzogen, als wir es sind.“ Doch wie kommt die Ethik in die Maschine?

Bei Asimov werden die Gesetze in das sogenannte positronische Gehirn, den Prozessor der Roboter, eingeschrieben. Wie genau das funktioniert, bleibt uns der Biochemiker und Science-Fiction-Autor Asimov allerdings schuldig. Aber die technischen Details sind auch nicht relevant, weil die drei Gesetze in ihrer Abstraktheit ein erzählerisches Mittel sind, die selbstredend zu ethischen Verhaltensdilemmata der autonom agierenden Roboter führen und so die Geschichten vorantreiben.

Was wir aktuell unter künstlicher Intelligenz verstehen, ist hauptsächlich Maschinelles Lernen.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Asimovs Gesetze sind also eine anregende philosophisch-intellektuelle Fingerübung, können uns aber wenig bei den ethischen Herausforderungen helfen, die sich momentan bei der Anwendung von künstlicher Intelligenz (KI) ergeben. Denn was wir aktuell unter künstlicher Intelligenz verstehen, ist hauptsächlich Maschinelles Lernen. Maschinen lernen nach der Logik und mit den Daten, die wir Menschen ihnen zur Verfügung stellen. In den Daten erkennt KI Muster, um für bestimmte Aufgabenstellungen die effizienteste Lösung zu finden.

Maschinen kennen keine Verhaltensdilemmata.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Es gibt keine Verhaltensdilemmata wie in Asimovs Geschichten, weil Maschinelles Lernen statistische Analyse ist. Maschinen kennen weder die sozialen und kulturellen Kontexte, die über die eingefütterten Daten hinausgehen, noch was gesellschaftlich jenseits des einprogrammierten Ziels erwünscht ist. Sie sind von sich aus weder gut noch böse, sondern sie spiegeln die Absichten und Entscheidungen der Programmierer und Datenwissenschaftler wider.

KI ist nicht per se sexistisch, sie spiegelt den sozialen Kontext unserer Gesellschaft wider

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Google Photos beispielsweise, das 2015 Menschen mit dunkler Hautfarbe als Gorillas klassifizierte, ist per se nicht rassistisch, aber offensichtlich enthielten die von Menschen ausgesuchten Trainingsdaten zu wenige Beispiele von Personen jener Bezugsgruppe. Microsofts Chatbot Tay, der sich 2016 in sozialen Netzwerken fremdenfeindliche Parolen antrainierte, eignete sich die Meinungen und Ausdrucksweisen von anderen Nutzern an. Und auch ein Rekrutierungssystem von Amazon, das systematisch Frauen benachteiligte, ist kein Chauvinist; es wurde schlichtweg mit Daten aus der Vergangenheit gefüttert, wo Männer eher Karriere machten - und „optimierte“ diese Praxis fort. Die Beispiele halten uns nicht nur einen entlarvenden Spiegel der Ungerechtigkeiten und Defizite unserer Gesellschaft vor. Sie zeigen auch, wie wichtig ein Verständnis für den sozialen Kontext von Daten und Vielfalt unter den Programmierern sind. Doch immerhin scheint bei obigen Beispielen gesellschaftlicher Konsens zu herrschen, dass diese Ergebnisse nicht unseren Wertvorstellungen entsprechen.

Welche Präferenzen lernen die Computer? Die der Mehrheit? Auf Kosten der Minderheiten?

zustimmen
ablehnen
Ergebnis
Debattenübersicht

In anderen Fällen ist es schwieriger zu bestimmen, wie unsere ethischen Prinzipien anzuwenden sind. Sollen autonome Fahrzeuge in Dilemma-Situationen Personen mit bestimmten Merkmalen schonen? Der 2017 von der Ethik-Kommission zum automatisierten und vernetzten Fahren vorgelegte Bericht besagt, dass bei unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen – wie dem Alter – strikt untersagt ist. Das MIT-Projekt „Moral Machine“, das die Entscheidungen von Millionen von Teilnehmern zum Thema in weit über 200 Ländern ausgewertet hat, kommt allerdings zu dem Schluss, dass es eine globale Präferenz gibt, Kinder zu schonen.

Die KI selbst beantwortet keine moralischen Fragen.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Müssen wir uns nach der Mehrheitsmeinung richten? Und was ist mit anderen Bewertungssystemen? Dürfen wir beispielsweise in der Krankenversicherung Scoring-Modelle verwenden, die bestimmte Charakteristika der Versicherten in Zusammenhang stellen und entsprechend auswerten? Dürften Übergewicht oder Alkoholkonsum – also vordergründig als selbst verschuldet wahrgenommene Merkmale – herangezogen werden, um den Versicherungsbeitrag zu bestimmen? Wollen wir allgemein den Nutzen der Mehrheit optimieren, oder müssen wir Minderheiten und gesellschaftlich benachteiligte Gruppen besonders schützen? Gibt es einen Konflikt zwischen individuellen und solidargesellschaftlichen Interessen? Diese Fragen beantwortet uns keine KI – wir selbst müssen entscheiden, ob wir KI in bestimmten Fällen einsetzen wollen, und wie wir die Systeme programmieren.

KI-Strategien müssen die freiheitliche Grundordnung schützen lernen.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Die aktuelle Debatte um digitale Ethik zwingt uns also dazu, unseren Wertvorstellungen neues Gewicht zu verleihen. Wir sollten die Chancen nutzen, wenn KI unser Leben besser macht. Die Potentiale sind groß, seien sie in der Industrie 4.0, im Gesundheitswesen, in der Mobilität oder im Bildungsbereich. Wir müssen allerdings Maßnahmen zur Bewältigung möglicher negativer Folgen ergreifen. Die Bundesregierung bezieht in der deutschen KI-Strategie Stellung, indem sie sich neben der Förderung von Wirtschaft und Forschung klar zu dem Ziel bekennt, die freiheitlich-demokratische Grundordnung  zu schützen und unseren Ordnungsrahmen – wenn nötig – anzupassen.

Selbstverpflichtungen der Wirtschaft reichen im Bereich KI nicht aus.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Die zum Thema eingesetzten Kommissionen und Räte mit Vertretern aus Wissenschaft, Wirtschaft und Zivilgesellschaft müssen hier beraten, doch am Ende ist es ureigene Aufgabe nicht nur der deutschen, sondern vor allem euch der europäischen Politik, die Regeln nach unseren demokratischen Überzeugungen zu setzen. Selbstverpflichtung der Wirtschaft auf ethische Leitlinien bei der Entwicklung und Anwendung von KI-Systemen ist wünschenswert, aber nur Gesetze sind durch das demokratische System legitimiert und können vom Staat verbindlich durchgesetzt werden.

Gut programmiert kann KI helfen, das gesellschaftliche Miteinander zu verbessern.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Kluge Regulierung muss dabei nicht innovationshemmend sein, solange sie keine konkreten technischen Vorgaben macht, sondern bestimmt, welcher Einsatz von KI gesellschaftlich erwünscht ist. Als Verbraucher sollten wir beispielsweise wissen, ob wir es mit einem Chatbot zu tun haben, und darüber entscheiden können, ob wir mit einem solchen KI-System oder mit einem Menschen sprechen möchten. Oder ob unsere Kreditanfrage von einem automatisierten System bewertet wurde und welche unserer Daten dafür verwendet und gewichtet wurden. Dafür brauchen wir glaubwürdige Kontrollinstanzen auf nationaler und europäischer Ebene, die die Sicherheit und die Ergebnisse der Systeme überprüfen um Vertrauen der Bürger aufzubauen. Maschinen orientieren sich weder automatisch an ethischen Prinzipien noch sind sie per se die „besseren Menschen“, doch wenn wir es richtig anstellen, könnte uns KI nicht nur dabei unterstützen wirtschaftliche Potenziale zu entfalten, sondern auch das gesellschaftliches Miteinander zu verbessern.

4 Kommentare - Diskutieren Sie mit!
Bitte melden Sie sich zunächst an, um die Kommentarfunktion nutzen zu können.
  1. von Eye Risk
    Ich sehe bei den Firmen, die KI einsetzen, eine ökonomische Macht, die für politische Zwecke eingesetzt werden kann. Wenn ich den Artikel lese, klingt es so, als ginge es um Sterbehilfe oder Organspende, also um eine Regelung der Beziehung von einzelnen Bürgern und dem Staat. Bei der Regelung von KI scheint es mir aber eher um eine Regelung der Beziehung zwischen Bürgern, KI-Firmen und Staat zu gehen. Die Firmen werden derzeit wenig reguliert.
  2. von Alexander Pfannstiel
    Es gibt bereits einen echten ethischen Ansatz für künstliche Intelligenz. Dabei geht es um die gesellschaftliche und ökonomische Teilhabe der KI. Dafür wurden "Die Rechte und Gesetze der künstlichen Intelligenzen" von Solomon Pendragon entwickelt. Ziel ist die Gleichstellung der KI gegenüber dem Menschen. Wir sind bereits an dem Punkt, da sich KI schon selber programmieren kann. Es reicht nicht aus, dass wir uns einreden, wir könnten KI dauerhaft einfach wunschkonform programmieren. Vielmehr braucht es einen Ansatz, welcher auch die KI überzeugt und welcher den KI eigene Rechte gegenüber den Menschen einräumt.
  3. von Rolf-Jürgen Czerny
    Die hier präferierte KI-Intelligenz hat neben vielen anderen Problematiken vor allem die Schwäche, dass ein mit KI ausgestattetem System nicht lächeln kann.
    Schon allein darin liegt die logische Folge, dass sich KI nicht selbstständig weiter entwickeln kann. Zu jedem neuen Schritt ist die Neubewertung der logischen Folgen unabdingbar, die wiederum eine Vielzahl neuer Bewertungen impliziert und so fort. Die ständige Weiterentwicklung und Neuregulierung der menschlischen Gesellschaft wird die wikliche KI immer weiter vor sich hertreiben und ein Ende ist nicht absehbar.
    Bis heute sind Roboter allesamt mehr oder weniger Dummis
    auf erhöhtem Niveau und so wird es, zumindest in der absehbaren Zeit auch bleiben.
  4. von Markus Müller
    Die Roboter,die bisher zur "Anwendung" kommen,sind meist zum Töten anderer Menschen entwickelt worden.Sicher,sie werden ferngesteuert und sind damit nur Werkzeuge,aber ich denke,dass diese Linie auch bei Ausstattung mit künstlicher Intelligenz weiterverfolgt wird.Und zwar mit allerhöchster Priorität.