Home/Psychologische Studie: Warum bei Entscheidungen von Computern Vorsicht angesagt ist

Psychologische Studie: Warum bei Entscheidungen von Computern Vorsicht angesagt ist

Computer berechnen Dinge wertneutral. Daher vertrauen Menschen ihnen auch auf ethischer Ebene objektive Entscheidungen eher zu als anderen Menschen. Damit wiegen sie sich aber in trügerischer Sicherheit, hat ein Team der Saar-Universität nachgewiesen.

Universität des Saarlandes15.7.20223"
In einer Studie im Journal of Business and Psychology konnten die Forscher zeigen, dass Menschen gar nicht damit rechnen, dass ein Computer voreingenommene Entscheidungen treffen könnte, so dass es unbeabsichtigt zu Ungerechtigkeiten kommen kann.

Wo Menschen arbeiten, passieren Fehler. Wie schön wäre es da, einen Computer zu Rate zu ziehen und diesen ganz unvoreingenommen und mit der Nüchternheit einer kalten Maschine Entscheidungen treffen zu lassen, auf dass der fehlbare Mensch Unterstützung von der unfehlbaren Maschine erhalte!

In einigen Bereichen ist dieser Traum bereits wahr geworden. So gibt es zum Beispiel Software, die Personalern bei Stellenbesetzungen hilft. Den – meist unabsichtlich – voreingenommenen Menschen, die letzten Endes die Entscheidung über die Stellenbesetzung treffen, können solche Programme eine grosse Hilfe sein. Schliesslich müssen sich die Personalverantwortlichen am Ende nur noch mit einem Bruchteil der Bewerbungen befassen. Die Maschine hat ja mit kühler Präzision bereits die fachlich ungeeigneten Personen rausgefiltert, und das ganz unabhängig von Geschlecht, Alter, Nationalität, Hautfarbe und anderen Kriterien, die bei Menschen oft vorurteilsbehaftete Reaktionen auslösen.

Erwartungen an KI hinterfragen
«Genau hier liegt die Gefahr», warnt Dr. Markus Langer. «Wenn ich erwarte, dass ein Computersystem unvoreingenommen entscheidet, dann schlägt auch niemand Alarm, wenn das Ergebnis der Maschine dann doch von Parametern wie dem Geschlecht oder der Ethnie beeinflusst wird.» Anders bei menschlichen Entscheidungen, wo es inzwischen eine Vielzahl von Alarmsystemen, wenn man es so nennen will, gibt: Diversity-Beauftragte, Personalräte und viele andere begleiten Stellenbesetzungen von der Ausschreibung bis zur Personalentscheidung und sorgen für Fairness. Beim Computer hingegen rechnen solche Kontrollinstanzen eventuell nicht damit, dass es hier zu grösseren Fehlentscheidungen kommen könnte, schliesslich sind sie ja objektiv bis ins letzte Bit.

Versuchsaufbau: Personalverantwortliche vs. KI
Klingt zu schön, um wahr zu sein. Ist es auch: «Wir haben den Studienteilnehmern gesagt, sie seien Personalverantwortliche für ein grosses Versicherungsunternehmen. In insgesamt zwölf Runden haben wir ihnen dann Bilder von Bewerbern gezeigt, die entweder von einer Person oder einem Computer aus einer grösseren Zahl vorausgewählt wurden», erklärt Markus Langer das Ausgangsszenario, welches den Teilnehmern präsentiert wurde.

In den ersten vier Runden haben sie den Freiwilligen suggeriert, dass sowohl Computer als auch Mensch eine ausgewogene Geschlechterverteilung für die Endrunde der Personalauswahl vorgeschlagen haben, also zum Beispiel 5 Männer und 5 Frauen oder 4:6 oder 6:4, jedenfalls in etwa ausgewogen. Die Freiwilligen wurden gefragt, ob sie dem Computer bzw. den menschlichen Vorentscheidern unvoreingenommene Entscheidungen zutrauten. «Hier wurde schon zu Beginn der Befragung klar, dass die Teilnehmerinnen das Computersystem für unvoreingenommener halten als den Menschen», so Markus Langer.

«Ab der fünften Runde waren dann deutlich mehr Männer als Frauen in die Endauswahl gekommen, und zwar sowohl vom Computer als auch vom Menschen ausgewählt», erklärt der Psychologe. «In dieser Phase stürzt das Vertrauen in die Fähigkeit des Menschen, eine Vorauswahl zu treffen, stark ab. Das Computersystem hingegen wurde von den Probanden nach wie vor als weniger vorurteilshaft betrachtet, auch wenn es ein krasses Missverhältnis hinsichtlich der Geschlechterverteilung getroffen hat», unterstreicht der promovierte Psychologe.

In der dritten Phase schliesslich erklärten Langer und sein Team den Teilnehmern, dass Fehler passiert sind und die Vorauswahl nun wieder fair getroffen werde. Im Anschluss daran fassten die Studienteilnehmer wieder mehr Vertrauen in die menschliche Vorauswahl.

KI lernt aus vorhandenen Daten
«Das Problem hier ist nicht, dass ein Computersystem mutmasslich auch voreingenommen urteilen kann», erläutert Markus Langer den dahinterstehenden Gedanken. Viel mehr legt die Studie den Finger in eine andere Wunde: «Wenn ich die Erwartung habe, dass ein Computer gerechtere Entscheidungen trifft als ein Mensch, schlägt womöglich niemand Alarm, wenn es dann doch ungerecht zugeht, einfach, weil niemand damit rechnet, dass das Computerprogramm voreingenommen urteilen könnte.» Dabei sei keineswegs klar, dass ein Computer nicht auch unfaire Entscheidungen produzieren kann. Künstliche Intelligenz lernt schliesslich aus vorhandenen Daten, und wenn in der Vergangenheit viele «mittelalte weisse Männer» ausgewählt wurden, wird das Computerprogramm dies in der Vorauswahl berücksichtigen, wenn man in der Entwicklung nicht wirklich gut aufpasst.

Der überwiegende Teil der 121 Freiwilligen, die an der Studie teilgenommen haben, war übrigens sehr jung (ca. 23 Jahre) und weiblich (79 Prozent). Insbesondere in Zeiten, in denen Frauen nach wie vor um eine gleichberechtigte Behandlung in der Berufswelt kämpfen müssen, ist es umso wichtiger, ein Bewusstsein dafür zu entwickeln, dass sich auch Computer irren können.PS

  • Zur Originalpublikation
Langer M et al.: Trust in Artificial Intelligence: Comparing trust processes between human and automated trustees in light of unfair bias. Journal of Business and Psychology. 2022. Advance online publication. doi:10.1007/s10869-022-09829-9

Quelle: Universität des Saarlandes/Pressemitteilung, 07.07.2022

Rosenbergstrasse 115
8212 Neuhausen am Rheinfall
Telefon: +41 52 675 51 74
info@docinside.ch
www.docinside.ch

Handelsregistereintrag
Firmenname: DOCINSIDE AG
UID: CHE-412.607.286

Über uns
Bankverbindung

Schaffhauser Kantonalbank
8200 Schaffhausen
IBAN: CH76 0078 2008 2797 0810 2

Mehrwertsteuer-Nummer
CHE-412.607.286

Kontakte

Dr. med. Adrian Müller
Betrieb und Inhalte
adrian.mueller@docinside.ch

Dr. med. Richard Altorfer
Inhalte und Redaktion
richard.altorfer@docinside.ch

Dr. med. Christine Mücke
Inhalte und Redaktion
christine.muecke@docinside.ch

Copyright © 2021 Alle Rechte vorbehalten.
Powered by Deep Impact / Spectra