Eigentlich wollte Amazon ein System entwickeln, um sich den Bewerbungsprozess zu erleichtern: Das Recruiting-Tool sollte mittels künstlicher Intelligenz (KI) unter Bewerbern die besten für das Unternehmen herausfiltern. Seit 2014 arbeiteten die Entwickler des E-Commerce-Riesen an dem schlauen Algorithmus, der aus 100 eingereichten Bewerbungen automatisch die geeignetesten Kandidaten herauspickt. 2015 stellte sich dann aber heraus: Die automatische Bewerberprüfung arbeitete nicht geschlechtsneutral, sondern benachteiligte systematisch Frauen. Das fand jüngst die Nachrichtenagentur Reuters heraus. Der Grund für das sexistische Verhalten: Die Software nutzte größtenteils Bewerbungen der vergangenen zehn Jahre von Amazon als Lernmaterial für das System. Diese stammten aber vor allem von Männern, sodass sich der Algorithmus das Fehlverhalten selbst antrainierte. Männliche Bewerber wurden in der Skala von ein bis fünf Sterne grundsätzlich besser eingestuft, weil das KI-Tool die Eigenschaft „männlich“ hoch bewertete. Ergo: Bewerbungen von Frauen sind schlechter einzuordnen – so die Denke der Software. An sich ja auch nicht verkehrt. Zwar änderten die Entwickler das Verhalten des Systems dahingehend, dass der Algorithmus das Wort „Frau” neutral einstufte, trotzdem half dies nicht wie gewünscht. 2017 wurde das Projekt laut Unternehmensangaben eingestellt. Was lernen wir daraus? Traue keinen Daten. nu