Roboter als bessere Menschen : Wie kommt Ethik in die Maschine?

Wäre es nicht praktisch, wenn wir Maschinen zu besseren Menschen machen könnten? In Isaac Asimovs Erzählsammlung „Ich, der Roboter“ scheint dieses Ziel erreichbar zu sein. Dort handeln die Roboter als gute Assistenten des Menschen nach den drei berühmten Robotergesetzen, die sicherstellen sollen, dass die Roboter uns keinen Schaden zufügen. Die Roboterpsychologin Susan Calvin, eine der Hauptfiguren aus Asimovs Geschichten, ist davon überzeugt: „Sie sind anständiger, sauberer und besser erzogen, als wir es sind.“ Doch wie kommt die Ethik in die Maschine?
Bei Asimov werden die Gesetze in das sogenannte positronische Gehirn, den Prozessor der Roboter, eingeschrieben. Wie genau das funktioniert, bleibt uns der Biochemiker und Science-Fiction-Autor Asimov allerdings schuldig. Aber die technischen Details sind auch nicht relevant, weil die drei Gesetze in ihrer Abstraktheit ein erzählerisches Mittel sind, die selbstredend zu ethischen Verhaltensdilemmata der autonom agierenden Roboter führen und so die Geschichten vorantreiben. Was wir aktuell unter künstlicher Intelligenz verstehen, ist hauptsächlich Maschinelles Lernen.
Asimovs Gesetze sind also eine anregende philosophisch-intellektuelle Fingerübung, können uns aber wenig bei den ethischen Herausforderungen helfen, die sich momentan bei der Anwendung von künstlicher Intelligenz (KI) ergeben. Denn was wir aktuell unter künstlicher Intelligenz verstehen, ist hauptsächlich Maschinelles Lernen. Maschinen lernen nach der Logik und mit den Daten, die wir Menschen ihnen zur Verfügung stellen. In den Daten erkennt KI Muster, um für bestimmte Aufgabenstellungen die effizienteste Lösung zu finden. Maschinen kennen keine Verhaltensdilemmata.
Es gibt keine Verhaltensdilemmata wie in Asimovs Geschichten, weil Maschinelles Lernen statistische Analyse ist. Maschinen kennen weder die sozialen und kulturellen Kontexte, die über die eingefütterten Daten hinausgehen, noch was gesellschaftlich jenseits des einprogrammierten Ziels erwünscht ist. Sie sind von sich aus weder gut noch böse, sondern sie spiegeln die Absichten und Entscheidungen der Programmierer und Datenwissenschaftler wider. KI ist nicht per se sexistisch, sie spiegelt den sozialen Kontext unserer Gesellschaft wider
Google Photos beispielsweise, das 2015 Menschen mit dunkler Hautfarbe als Gorillas klassifizierte, ist per se nicht rassistisch, aber offensichtlich enthielten die von Menschen ausgesuchten Trainingsdaten zu wenige Beispiele von Personen jener Bezugsgruppe. Microsofts Chatbot Tay, der sich 2016 in sozialen Netzwerken fremdenfeindliche Parolen antrainierte, eignete sich die Meinungen und Ausdrucksweisen von anderen Nutzern an. Und auch ein Rekrutierungssystem von Amazon, das systematisch Frauen benachteiligte, ist kein Chauvinist; es wurde schlichtweg mit Daten aus der Vergangenheit gefüttert, wo Männer eher Karriere machten - und „optimierte“ diese Praxis fort. Die Beispiele halten uns nicht nur einen entlarvenden Spiegel der Ungerechtigkeiten und Defizite unserer Gesellschaft vor. Sie zeigen auch, wie wichtig ein Verständnis für den sozialen Kontext von Daten und Vielfalt unter den Programmierern sind. Doch immerhin scheint bei obigen Beispielen gesellschaftlicher Konsens zu herrschen, dass diese Ergebnisse nicht unseren Wertvorstellungen entsprechen.Welche Präferenzen lernen die Computer? Die der Mehrheit? Auf Kosten der Minderheiten?
In anderen Fällen ist es schwieriger zu bestimmen, wie unsere ethischen Prinzipien anzuwenden sind. Sollen autonome Fahrzeuge in Dilemma-Situationen Personen mit bestimmten Merkmalen schonen? Der 2017 von der Ethik-Kommission zum automatisierten und vernetzten Fahren vorgelegte Bericht besagt, dass bei unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen – wie dem Alter – strikt untersagt ist. Das MIT-Projekt „Moral Machine“, das die Entscheidungen von Millionen von Teilnehmern zum Thema in weit über 200 Ländern ausgewertet hat, kommt allerdings zu dem Schluss, dass es eine globale Präferenz gibt, Kinder zu schonen.Die KI selbst beantwortet keine moralischen Fragen.
Müssen wir uns nach der Mehrheitsmeinung richten? Und was ist mit anderen Bewertungssystemen? Dürfen wir beispielsweise in der Krankenversicherung Scoring-Modelle verwenden, die bestimmte Charakteristika der Versicherten in Zusammenhang stellen und entsprechend auswerten? Dürften Übergewicht oder Alkoholkonsum – also vordergründig als selbst verschuldet wahrgenommene Merkmale – herangezogen werden, um den Versicherungsbeitrag zu bestimmen? Wollen wir allgemein den Nutzen der Mehrheit optimieren, oder müssen wir Minderheiten und gesellschaftlich benachteiligte Gruppen besonders schützen? Gibt es einen Konflikt zwischen individuellen und solidargesellschaftlichen Interessen? Diese Fragen beantwortet uns keine KI – wir selbst müssen entscheiden, ob wir KI in bestimmten Fällen einsetzen wollen, und wie wir die Systeme programmieren.KI-Strategien müssen die freiheitliche Grundordnung schützen lernen.
Die aktuelle Debatte um digitale Ethik zwingt uns also dazu, unseren Wertvorstellungen neues Gewicht zu verleihen. Wir sollten die Chancen nutzen, wenn KI unser Leben besser macht. Die Potentiale sind groß, seien sie in der Industrie 4.0, im Gesundheitswesen, in der Mobilität oder im Bildungsbereich. Wir müssen allerdings Maßnahmen zur Bewältigung möglicher negativer Folgen ergreifen. Die Bundesregierung bezieht in der deutschen KI-Strategie Stellung, indem sie sich neben der Förderung von Wirtschaft und Forschung klar zu dem Ziel bekennt, die freiheitlich-demokratische Grundordnung zu schützen und unseren Ordnungsrahmen – wenn nötig – anzupassen.Selbstverpflichtungen der Wirtschaft reichen im Bereich KI nicht aus.
Die zum Thema eingesetzten Kommissionen und Räte mit Vertretern aus Wissenschaft, Wirtschaft und Zivilgesellschaft müssen hier beraten, doch am Ende ist es ureigene Aufgabe nicht nur der deutschen, sondern vor allem euch der europäischen Politik, die Regeln nach unseren demokratischen Überzeugungen zu setzen. Selbstverpflichtung der Wirtschaft auf ethische Leitlinien bei der Entwicklung und Anwendung von KI-Systemen ist wünschenswert, aber nur Gesetze sind durch das demokratische System legitimiert und können vom Staat verbindlich durchgesetzt werden.Gut programmiert kann KI helfen, das gesellschaftliche Miteinander zu verbessern.
Kluge Regulierung muss dabei nicht innovationshemmend sein, solange sie keine konkreten technischen Vorgaben macht, sondern bestimmt, welcher Einsatz von KI gesellschaftlich erwünscht ist. Als Verbraucher sollten wir beispielsweise wissen, ob wir es mit einem Chatbot zu tun haben, und darüber entscheiden können, ob wir mit einem solchen KI-System oder mit einem Menschen sprechen möchten. Oder ob unsere Kreditanfrage von einem automatisierten System bewertet wurde und welche unserer Daten dafür verwendet und gewichtet wurden. Dafür brauchen wir glaubwürdige Kontrollinstanzen auf nationaler und europäischer Ebene, die die Sicherheit und die Ergebnisse der Systeme überprüfen um Vertrauen der Bürger aufzubauen. Maschinen orientieren sich weder automatisch an ethischen Prinzipien noch sind sie per se die „besseren Menschen“, doch wenn wir es richtig anstellen, könnte uns KI nicht nur dabei unterstützen wirtschaftliche Potenziale zu entfalten, sondern auch das gesellschaftliches Miteinander zu verbessern.