Wenn man Fairness beiseite lässt, sind voreingenommene KI-Modelle einfach schlechtere Modelle: Sie machen häufiger Fehler. Bemühungen, durch Vorurteile verursachte Fehler zu reduzieren, selbst wenn man die Reduzierung "woke" nennt, werden letztendlich die Modelle genauer machen, nicht weniger.
5,62K