Stand jetzt … ist das so und bleibt das so.

Mitte Oktober ist bekannt geworden, dass Amazon bei der Auswahl von Bewerbern auf ein KI-System zurückgreift, also auf Künstliche Intelligenz (KI). Wie diverse Medien berichteten, war diese „Intelligenz“ frauenfeindlich. Offenbar erhält Amazon sehr viele Bewerbungen. Der Aufwand, diese alle durchzusehen und daraus potentielle Kandidaten auszuwählen und zu einem Vorstellungsgespräch einzuladen, scheint so groß gewesen zu sein, dass es sich lohnte, diesen Arbeitsgang einem Computer zu überlassen. Damit der Computer aus der Vielzahl an Bewerbern die Besten erkennen kann, muss es lernen, wie das geht. KI-Systeme beobachten dazu die Wirklichkeit, werten eine Vielzahl an bisher bekannten Datenquellen aus und eignen sie daraus ein Verhaltensmuster an. Einfach ausgedrückt: eine KI betrachtet viele, viele Statistiken und passt sein eigenes Verhalten daran an.

Ein Beispiel: Ein KI-System, das ein Kartenspiel erlernen soll, wird schnell merken, dass man beim Pokern mit vier Assen gute Karten hat. Und zwar deshalb, weil mit vier Assen bisher fast jeder die Runde gewonnen hat. Die KI wird daher seinen Einsatz erhöhen. Oder: Ein KI-System, das ein Auto steuert, wird schnell merken, dass (fast) alle anderen Autos in einer 30er-Zone 42km/h fahren. Es lernt und glaubt daher, dass ein 30-Schild bedeutet, dass man hier 42km/h fahren soll. Ganz egal, was das Schild sagt.

Das Personalauswahl-System von Amazon hat anhand von Statistiken gesehen, dass gerade in den IT-Berufen Stand heute deutlich mehr Männer arbeiten, als Frauen. Es ging daher davon aus, dass das sinnvoll und richtig ist – und wählte in ähnlichem Verhältnis mehr Männer als Frauen für Bewerbungsgespräche aus. Kurzum – Frauen mit gleicher Befähigung schieden von vorneherein aus, nur, weil sie Frauen waren und weil historisch gesehen, schon immer deutlich mehr Männer einem IT-Beruf nachgehen. Die Personalabteilungs-KI dachte, das sei richtig.

Wenn KI anhand von Statistiken lernt, was richtig ist, dann … ja, dann ändert sich ja nix?

Demnach würde eine Geschmacksprüfer-KI – selbst ohne Geschmackssinn – weiterhin bevorzugt männlichen Köchen einen Stern geben. Eine Jury-KI würde deutlich mehr weißen Menschen einen Oskar verleihen, als Menschen mit dunkler Hautfarbe. Eine KI beim Hermes-Paketdienst würde bei meinen Paketen gefühlt fast immer gar nicht erst vorbeifahren, einen „Nicht angetroffen“ Vermerkt ins System eingeben und das Paket mit Dutzenden anderen zur Selbstabholung im Paketshop ablegen. Eine Friseur-KI würde das Schneiden von Frauenhaaren komplizierter einschätzen und daher mehr Geld verlangen. Und: eine Fernsehzuschauer-KI würde das Dschungelcamp auf RTL gucken, dies aber vehement bestreiten.

6 Kommentare zu “Stand jetzt … ist das so und bleibt das so.

  1. Das passt hervorragend zum menschlichen Verhalten. Wir haben über Jahrtausende der Evolution ja auch nicht viel dazu gelernt :D! Wir sind bei dem, was wir falsch machen, nur effizienter geworden.

  2. Ich denke, das Problem saß sicher hinter der Tastatur: Hätten diejenigen, die das maschinelles Lernen Programm mit Daten betankt haben, sich mal mit Diskriminierung beschäftigt und einfach Daten wie Geschlecht, Alter, usw. weggelassen, dann wäre alles gut gelaufen. Also für die „KI“. Um die Diskriminierung hätten sich dann die Menschen gekümmert, die die Endauswahl der Bewerber treffen. Und das wäre keinem eine aufgefallen.

  3. Das Problem ist dass KI menschliche Arbeit überflüssige machen sollte.
    Wenn man dabei aber wieder so viele Kontrollinstanzen braucht, ist die KI überflüssig.
    Außerdem ist Diskriminierung ein schweiriger Sachverhalt… Es gibt nunmal biologische Unterschiede zwischen Jungen und Mädchen… das kann wohl keiner ernsthaft bestreiten.
    Und dass es traditionell ein Risiko für Unternehmer war junge Frauen anzustellen, die dann evtl. nach wenigen Jahren in Mutterschutz gehen und damit eher zum Kostenfaktor werden anstatt zur arbeitskraft, ist auch keine Diskriminierung sondern Tatsache.
    Heutzutage ist alles sofort Diskriminierung was ein Fragezeichen hinter das Postulat alle Menschen wären gleich stellt. – Und dass das eben nicht so ist, lehrt uns Biologie, Geschichte und Gegenwart.
    Warum in aller Welt versucht man krampfhaft imemr alles gleich zu machen als wären wir Menschen austauschbare Fließbandprodukte anstatt die individuellen Unterschiede hervorzuheben und gut zu heißen! – Willkommen in der Diskrepanz zwischen Wirtschaftstheoreit und Wirklichkeit…

  4. Ein Computer diskriminiert nicht sondern entscheidet emotionslos basierend auf Fakten.
    Es ist nun am Programmierer daraus Lehren zu ziehen und die Logik anzupassen sodass den dokumentierten Fähigkeiten eine höhere Gewichtung beigem säen wird. Am Schluss sollte der Mensch entscheiden, wer für eine definierte Aufgabe die Kenntnisse und das “Flair und die benötigte Sozialkompetenz” mitbringt. Flair und Sozialkompetenz – hier wird es wieder schwierig – für den Computer als auch den Menschen:>).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.