Matthias Spielkamp, Katharina Simbeck, Simon Hegelich
Unternehmen wie IBM oder SAP versprechen, mit Hilfe „künstlicher Intelligenz“ Entscheidungen auf eine sichere und objektive Grundlage zu stellen. Um den Schein der Objektivität zu durchbrechen, schauen wir uns in einer Beispielsimulation an, wie solche Algorithmen arbeiten und wie sie analysiert werden können. Als Beispiel dient ein Testdatensatz von IBM zum Talent Development für das Personalwesen. Welche Probleme können bei einer (Teil-)Automatisierung der Personalplanung per Algorithmus auftreten? Wie wird über die scheinbare Objektivität der Algorithmen Macht ausgeübt? Welche Formen der Gegenmacht sind denkbar?