In dieser aufschlussreichen Folge begrüßen Alwine und Matúš einen ganz besonderen Gast: Alex Ulbricht, frisch gekürte IT Woman of the Year 2025.
Gemeinsam diskutieren wir über Schattenseite der KI: algorithmischer Bias und Diskriminierung. Alex erklärt eindrücklich, wie verzerrte historische Daten unbemerkt in KI-Systeme gelangen und zu voreingenommenen Entscheidungen in kritischen Bereichen wie Recruiting, Kreditvergabe und sogar in der Medizin führen können.
Doch es bleibt nicht bei der Problembeschreibung. Die Folge liefert konkrete Lösungsansätze: Alex stellt Strategien und spezialisierte Tools vor, mit denen Unternehmen Bias nicht nur erkennen, sondern auch aktiv neutralisieren können. Sie betont, dass eine saubere Data Governance und menschliche Expertise ("Human in the Loop") keine optionalen Extras, sondern die Grundlage für eine faire und erfolgreiche KI-Implementierung sind. Am Ende wird klar: Fairness in der KI ist nicht nur eine ethische Verpflichtung, sondern auch ein knallharter Wirtschaftsfaktor.
00:00 Intro & Vorstellung Alex Ulbricht
02:07 Alex's Spezialisierung auf KI-Fairness (Responsible AI)
04:52 Die Hauptrisiken von KI & die Definition von Bias
10:50 Strategien gegen Bias: Tools, Prozesse und der "Human in the Loop"
37:47 Das Buch "Unsichtbare Frauen" & die realen Konsequenzen von Datenlücken
Buchtipp: Unsichtbare Frauen von Caroline Criado-Perez
LinkedIn von Alex Ulbricht: Profil von Alex Ulbricht
LinkedIn von Klartext KI: Klartext KI