Die bekannten Vorwürfe gegen Algorithmen und KI, dass sie aufgrund ihrer Trainingsdaten die Einstellungen und Kategorisierungen vornehmen würden (und so rassistisch oder anders diskriminierend sein können, vgl. “Can a machine be racist?” The Conversation 6.3.2023), die auch die sie umgebende Gesellschaft hat und lebt, werden in den Artikeln und Berichten zu dem Thema immer wieder erzählt. Das ist, wenn man sich viel damit beschäftigt, etwas langweilig, aber nie unbedeutend.
Wired hat eine sehr schönen Zugang dazu gefunden, neben einer ästhetisch charmanten Webseite. Der Bericht Inside the Suspicion Machine betrachtet die Kategorisierungen unter dem Aspekt des Verdachts – einem Aspekt sozialem Phänomen, das viel zu wenig thematisiert wird. Wir sprechen immer von den Werbewirkungen, die Kategorisierungen und anhängenden Diskriminierungen, aber selten vom Verdacht. Ich finde zu Unrecht, denn die Figur des Verdachts kann die Argumente nochmal anders einordnen und bewusst machen, worum es bei den Kategorien auch gehen kann und welche Vorstellungen und hierarchischen Vorstellungen möglicherweise hinter KI steht – die alles andere als neutral ist, sondern ja gerade ein Symbol und eine Projektionsfläche für Utopien und Wünsche (auch krude) ist.
Inside the Suspicion Machine. Obscure government algorithms are making life-changing decisions about millions of people around the world. Here, for the first time, we reveal how one of these systems works. Wired, 6.3.2023