Maschinen entscheiden immer mehr über Menschen. Ob beim Bewerbungsgespräch, bei der Wohnungssuche, der Kreditvergabe oder im Justizvollzug: Algorithmen wägen ab, wählen aus, stellen ein. Davon versprechen wir uns möglichst objektive und faire Entscheide.
Künstliche Intelligenzen sind aber keine besseren Menschen. Sämtliche Algorithmen basieren auf unseren Daten und reproduzieren so unser Verhalten – inklusive unsere Fehler. Immer wieder erfahren wir, wie diskriminierend Algorithmen wirken können. Amazon hat etwa einen Algorithmus gebaut, um den Bewerbungsprozess zu unterstützen. Das Programm wurde mit den alten Rekrutierungsdaten der letzten zehn Jahre gefüttert, damit es davon lernen kann. Was ist passiert? Der Algorithmus hat nicht die besten Dossiers ausgewählt, sondern Männer bevorzugt – unabhängig von ihren Qualifikationen. Das Programm hatte das Muster der HR-Angestellten, wonach Männer häufiger angestellt wurden, erkannt und automatisiert. Die Empörung war gross, der Algorithmus wurde ersatzlos gestrichen.
Seit 2018 ist die 28-Jährige Geschäftsführerin des Schweizerischen Frauenverbands Alliance F. Sie ist Co-Projektleiterin von «Stop Hate Speech», einem Projekt, das sie 2019 gegen Hass im Netz lanciert hat. Sie war Schweizer Jugenddelegierte an der Uno und mitverantwortlich für den Aufbau des Jugendparlaments der Stadt Bern. Achermann lebt in Bern Bümpliz, ist verheiratet und zweifache Mutter.
Genau da zeigt sich das Potenzial von künstlicher Intelligenz. Viele Diskriminierungen geschehen nicht bewusst, sondern unbewusst. Über Jahre stellen Firmen mehr Männer ein, geben ihnen höhere Löhne oder bevorzugen sie bei der Vergabe von Krediten. Die Datensätze sind aber oft so riesig, dass es schwie-rig ist, Befangenheiten daraus abzu-lesen. Algorithmen hingegen legen diskriminierende Praxen brutal offen.
Dieser schonungslose Einblick in die Datenwelt ist aber ein Glücksfall. Erst wenn wir verstehen, wie ein Algorithmus zu seinen Entscheiden gelangt, können wir die Daten so bearbeiten, dass er fairer wird. Und erst dann wird der Algorithmus gerechtere Entscheide treffen können als der Mensch. Werden Befangenheiten vom Unbewusstsein an die Oberfläche gespült, sterben Diskriminierungen langsam aus. Und das sollte 50 Jahre nach der Einführung des Frauenstimmrechts erwartet werden dürfen – in allen Bereichen, die unser Leben stark prägen (Gesundheit, Hypotheken, Arbeitsleben).