Psychologie
32
Vorsicht bei Entscheidungen von Computern
<p>&nbsp;<br /> <strong>Computer berechnen Dinge wertneutral. Daher vertrauen Menschen ihnen auch auf ethischer Ebene objektive Entscheidungen eher zu als anderen Menschen. Damit wiegen sie sich aber in tr&uuml;gerischer Sicherheit, hat ein Team der Saar-Universit&auml;t nachgewiesen. In einer Studie im Journal of Business and Psychology konnten die Forscher zeigen, dass Menschen gar nicht damit rechnen, dass ein Computer voreingenommene Entscheidungen treffen k&ouml;nnte, so dass es unbeabsichtigt zu Ungerechtigkeiten kommen kann.</strong></p>
© Thorsten Mohr
<p>Wo Menschen arbeiten, passieren Fehler. Wie sch&ouml;n w&auml;re es da, einen Computer zu Rate zu ziehen und diesen ganz unvoreingenommen und mit der N&uuml;chternheit einer kalten Maschine Entscheidungen treffen zu lassen, auf dass der fehlbare Mensch Unterst&uuml;tzung von der unfehlbaren Maschine erhalte!<br /> &nbsp;<br /> In einigen Bereichen ist dieser Traum bereits wahr geworden. So gibt es zum Beispiel Software, die Personalern bei Stellenbesetzungen hilft. Den &ndash; meist unabsichtlich &ndash; voreingenommenen Menschen, die letzten Endes die Entscheidung &uuml;ber die Stellenbesetzung treffen, k&ouml;nnen solche Programme eine gro&szlig;e Hilfe sein. Schlie&szlig;lich m&uuml;ssen sich die Personalverantwortlichen am Ende nur noch mit einem Bruchteil der Bewerbungen befassen. Die Maschine hat ja mit k&uuml;hler Pr&auml;zision bereits die fachlich ungeeigneten Personen rausgefiltert, und das ganz unabh&auml;ngig von Geschlecht, Alter, Nationalit&auml;t, Hautfarbe und anderen Kriterien, die bei Menschen oft vorurteilsbehaftete Reaktionen ausl&ouml;sen.<br /> &nbsp;<br /> &bdquo;Genau hier liegt die Gefahr&ldquo;, warnt Dr. Markus Langer. &bdquo;Wenn ich erwarte, dass ein Computersystem unvoreingenommen entscheidet, dann schl&auml;gt auch niemand Alarm, wenn das Ergebnis der Maschine dann doch von Parametern wie dem Geschlecht oder der Ethnie beeinflusst wird.&ldquo; Anders bei menschlichen Entscheidungen, wo es inzwischen eine Vielzahl von &bdquo;Alarmsystemen&ldquo;, wenn man es so nennen will, gibt: Diversity-Beauftragte, Personalr&auml;te und viele andere begleiten Stellenbesetzungen von der Ausschreibung bis zur Personalentscheidung und sorgen f&uuml;r Fairness. Beim Computer hingegen rechnen solche Kontrollinstanzen eventuell nicht damit, dass es hier zu gr&ouml;&szlig;eren Fehlentscheidungen kommen k&ouml;nnte, schlie&szlig;lich sind sie ja objektiv bis ins letzte Bit.<br /> &nbsp;<br /> Klingt zu sch&ouml;n um wahr zu sein. Ist es auch: &bdquo;Wir haben den Studienteilnehmerinnen gesagt, sie seien Personalverantwortliche f&uuml;r ein gro&szlig;es Versicherungsunternehmen. In insgesamt zw&ouml;lf Runden haben wir ihnen dann Bilder von Bewerbern gezeigt, die entweder von einer Person oder einem Computer aus einer gr&ouml;&szlig;eren Zahl vorausgew&auml;hlt wurden&ldquo;, erkl&auml;rt Markus Langer das Ausgangsszenario, welches den Teilnehmerinnen und Teilnehmern pr&auml;sentiert wurde. In den ersten vier Runden haben sie den Freiwilligen suggeriert, dass sowohl Computer als auch Mensch eine ausgewogene Geschlechterverteilung f&uuml;r die Endrunde der Personalauswahl vorgeschlagen haben, also zum Beispiel 5 M&auml;nner und 5 Frauen oder 4:6 oder 6:4, jedenfalls in etwa ausgewogen. Die Freiwilligen wurden gefragt, ob sie dem Computer bzw. den menschlichen &bdquo;Vorentscheidern&ldquo; unvoreingenommene Entscheidungen zutrauten. &bdquo;Hier wurde schon zu Beginn der Befragung klar, dass die Teilnehmerinnen das Computersystem f&uuml;r unvoreingenommener halten als den Menschen&ldquo;, so Markus Langer.<br /> &nbsp;<br /> &bdquo;Ab der f&uuml;nften Runde waren dann deutlich mehr M&auml;nner als Frauen in die Endauswahl gekommen, und zwar sowohl vom Computer als auch vom Menschen ausgew&auml;hlt&ldquo;, erkl&auml;rt der Psychologe. &bdquo;In dieser Phase st&uuml;rzt das Vertrauen in die F&auml;higkeit des Menschen, eine Vorauswahl zu treffen, stark ab. Das Computersystem hingegen wurde von den Probandinnen nach wie vor als weniger vorurteilshaft betrachtet, auch wenn es ein krasses Missverh&auml;ltnis hinsichtlich der Geschlechterverteilung getroffen hat&ldquo;, unterstreicht der promovierte Psychologe. In der dritten Phase schlie&szlig;lich erkl&auml;rten Langer und sein Team den Teilnehmern, dass Fehler passiert sind und die Vorauswahl nun wieder fair getroffen werde. Im Anschluss daran fassten die Studienteilnehmer wieder mehr Vertrauen in die menschliche Vorauswahl.<br /> &nbsp;<br /> &bdquo;Das Problem hier ist nicht, dass ein Computersystem mutma&szlig;lich auch voreingenommen urteilen kann&ldquo;, erl&auml;utert Markus Langer den dahinterstehenden Gedanken. Viel mehr legt die Studie den Finger in eine andere Wunde: &bdquo;Wenn ich die Erwartung habe, dass ein Computer &sbquo;gerechtere&lsquo; Entscheidungen trifft als ein Mensch, schl&auml;gt wom&ouml;glich niemand Alarm, wenn es dann doch ungerecht zugeht, einfach, weil niemand damit rechnet, dass das Computerprogramm voreingenommen urteilen k&ouml;nnte.&ldquo; Dabei sei keineswegs klar, dass ein Computer nicht auch &bdquo;unfaire&ldquo; Entscheidungen produzieren kann. K&uuml;nstliche Intelligenz lernt schlie&szlig;lich aus vorhandenen Daten, und wenn in der Vergangenheit viele &bdquo;mittelalte wei&szlig;e M&auml;nner&ldquo; ausgew&auml;hlt wurden, wird das Computerprogramm dies in der Vorauswahl ber&uuml;cksichtigen, wenn man in der Entwicklung nicht wirklich gut aufpasst.<br /> &nbsp;<br /> Der &uuml;berwiegende Teil der 121 Freiwilligen, die an der Studie teilgenommen haben, war &uuml;brigens sehr jung (ca. 23 Jahre) und weiblich (79 Prozent). Insbesondere in Zeiten, in denen Frauen nach wie vor um eine gleichberechtigte Behandlung in der Berufswelt k&auml;mpfen m&uuml;ssen, ist es umso wichtiger, ein Bewusstsein daf&uuml;r zu entwickeln, dass sich auch Computer irren k&ouml;nnen.</p> <p><strong><u>Originalpublikation:</u></strong><br /> Langer, M., K&ouml;nig, C. J., Back, C., &amp; Hemsing, V. (2022). Trust in Artificial Intelligence: Comparing trust processes between human and automated trustees in light of unfair bias. <strong>Journal of Business and Psychology. </strong>Advance online publication. doi:10.1007/s10869-022-09829-9</p>
Text:Thorsten Mohr
Thorsten Mohr
07.07.2022
Back to top of page

Share