Schattenblick → INFOPOOL → NATURWISSENSCHAFTEN → TECHNIK


INFORMATIONSTECHNOLOGIE/1223: Die Frage ist warum - Algorithmen erlernen den Sinn für Gerechtigkeit (idw)


Max-Planck-Institut für Intelligente Systeme - 19.12.2017

Die Frage ist warum - Algorithmen erlernen den Sinn für Gerechtigkeit


Nur wenn künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie Menschen, wird sie breite Akzeptanz erfahren. Daher untersuchen Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen Daten auf ihren kausalen Zusammenhang. Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren.

Tübingen - Der Sinn für Gerechtigkeit ist tief in einem Menschen, ja schon von Kindesbeinen an, verwurzelt. Er ist ein wesentlicher Teil seiner Moralvorstellungen, seines Wertegerüstes. Der Anspruch und das Vertrauen darauf, fair behandelt zu werden, bildet die Basis für ein friedliches Zusammenleben in einer Gesellschaft.

Während sich diese immer mehr verändert im Zeitalter der Digitalisierung, die alle Lebensbereiche tangiert, entsteht auch die Notwendigkeit, dass selbstlernende Maschinen, die dem Menschen zuarbeiten, fair handeln. Nur wenn diese künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie Menschen, werden ihre Entscheidungen Akzeptanz finden. Entscheidungen durch selbstlernende Algorithmen, denen möglicherweise rassistische oder sexistische Merkmale unterliegen würden, sind in der Gesellschaft nicht akzeptabel. Gleichzeitig rückt mit zunehmender Tragweite des Einsatzes von künstlicher Intelligenz die Transparenz im Bereich maschinelles Lernen zunehmend in den Fokus.

"Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, da machte sich keiner Gedanken, ob ein Computer fair handelt. Es wurde nicht darauf geachtet, ob man moralische oder ethische Anforderungen an Machine Learning stellen sollte ", sagt Niki Kilbertus, Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen. "Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden muss man sich die Frage stellen: sind diese selbstlernenden Maschinen fair oder diskriminieren sie, wenn auch ungewollt?" Anstatt also wertfreie Entscheidungen zu fällen, tut künstliche Intelligenz manchmal genau das Gegenteil: sie diskriminiert aufgrund der Daten, mit der sie gefüttert wird.

"Diskriminierung vermeiden durch kausale Schlussfolgerungen" heißt die Publikation, die Kilbertus zusammen mit Mateo Rojas-Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing und Bernhard Schölkopf, Direktor der Abteilung für Empirische Inferenz am MPI für Intelligente Systeme, unlängst veröffentlicht hat. Die Veröffentlichung soll als Fingerzeig bei der Anwendung maschinellen Lernens dienen, bei den Faktoren, die Menschen diskriminieren könnten, zweimal hinzusehen und nach dem "warum" zu fragen. Diskriminiert werden könnten Menschen beispielsweise aufgrund ihrer Hautfarbe, ihres Geschlechts, ihrer Religion oder ihrer sexuellen Orientierung.

Doch selbst bereits aufgrund der Postleitzahl, die ein potentieller Kreditnehmer angeben muss, könnte ein Lernalgorithmus diskriminierend gegen eine einzelne Person oder eine bestimmte demographische Gruppe wirken. Beispielsweise könnte eine Bank keine Kredite an Menschen mit einer bestimmten Postleitzahl mehr vergeben, weil der selbstlernende Computer zu dem Schluss kommt, dass in diesem Stadtteil die Ausfallquote höher ist als anderswo. "Würde man den Algorithmus machen lassen, würde der Antragsteller den Kredit vielleicht nicht bekommen, auch wenn er eine hohe Kreditwürdigkeit hat", erklärt Kilbertus.

Kilbertus und seine Kollegen suchen hier nach einer fairen Lösung: sie suchen den kausalen Zusammenhang, warum gerade in diesem besagten Stadtteil das Risiko hoch ist, dass Kreditnehmer ihre Ratenzahlungen nicht mehr bedienen können. "Es kann sein, dass in dieser Postleitzahl die Ausfallquote einfach höher ist, was die Bank dann als Argument nehmen würde, sicherheitshalber gar keine Kredite an Menschen, die dort leben, zu vergeben. Falls aber gleichzeitig in dieser Region vorwiegend eine bestimmte Minderheit wohnt, dann findet hier implizit eine Diskriminierung statt, da diese Minderheit nun systematisch benachteiligt wird." Ein starker Appell an alle, zu hinterfragen, wie Daten zustande kommen. Denn wie sollen wir einer künstlichen Intelligenz unseren Alltag regeln lassen, wenn ihre Entscheidungen Verzerrungen enthalten können?

Das Problem ist die formale Definition von "fairen" Entscheidungen: Fairness ist subjektiv, es gibt keine Definition, die für alle Kulturkreise gleichermaßen gültig ist. Daher besteht Kilbertus Algorithmus, eine mathematische Formel mit vielen Variablen, nur auf dem Papier. Sie ist, wie die meisten Forschungsarbeiten an den Max-Planck-Instituten, Grundlagenforschung. "Es ist bisher nur Theorie. Wir haben keine Experimente gemacht - die Idee ist allein konzeptioneller Natur. Kein Unternehmen dieser Welt verwendet einen fairen Algorithmus, so wie er uns vorschwebt. Das Problem ist, diese kausalen Schlussfolgerungen zu ziehen. Das würde sehr viel Zeit und Kosten verursachen," sagt Kilbertus. "Was wir wissen ist, dass die gängige Praxis nicht ausreicht, um unsere Intuition von Fairness vollständig wiederzugeben."

Die Grundlagenforschung von Kilbertus und seinen Kollegen soll dazu dienen, ein Umdenken in einer Gesellschaft anzuregen, in der maschinelles Lernen und künstliche Intelligenz künftig immer mehr Entscheidungen beeinflussen werden. "Wenn Maschinen unsere eigenen Wertvorstellungen übernehmen sollen, dann darf man Daten nicht einfach blind weiterverwerten. Wir müssen uns fragen: wie kamen sie zustande? Wir müssen Zusammenhänge hinterfragen. Diese müssen wir zuerst verstehen und formal definieren, bevor wir maschinelles Lernen im sozialen Kontext einsetzen und als fair akzeptieren können."


Weitere Informationen unter:
https://is.tuebingen.mpg.de/news

Kontaktdaten zum Absender der Pressemitteilung unter:
http://idw-online.de/de/institution1801

*

Quelle:
Informationsdienst Wissenschaft e. V. - idw - Pressemitteilung
Max-Planck-Institut für Intelligente Systeme, Linda Behringer, 19.12.2017
WWW: http://idw-online.de
E-Mail: service@idw-online.de


veröffentlicht im Schattenblick zum 21. Dezember 2017

Zur Tagesausgabe / Zum Seitenanfang