Systemen, die automatisch Entscheidungen fällen und sich durch maschinelles Lernen ständig verbessern, sagt man immer noch einen fehlenden „menschlichen Blickwinkel“ nach. Auch seien sie nicht flexibel genug, um sich auf einzelne Fälle entsprechend einzustellen. Ihre Entscheidungen fallen anhand von sorgfältig ausgewählten Daten – sie sind voreingenommen, doch anders als ihre menschlichen Gegenstücke machen sie keinen Hehl daraus. Sind ihre Entscheidungen deshalb vielleicht sogar gerechter?