Beängstigende Zukunftsvision, radikaler Denkanstoß? Die Meinungen über das Video “The Selfish Ledger” von Google gehen auseinander.
Sicher ist, dass die Idee verstört, ein Protokoll des ganzen Lebens in all seinen Verästelungen würde dort erstellt und vorgehalten. Für wen? Unklar. Auch warum das gut sein soll ist nicht offensichtlich. Für das “gute Leben”, das dann von den Maschinen gelesen, gesteuert und bewertet wird? Die SZ und FAZ haben dem Video längere Texte gewidmet:
- Der Nutzer degeneriert zur fernsteuerbaren Drohne, SZ 26.6.2018
- Wir Datenträger, FAZ, 28.6.2018
Das Thema ist nicht neu, auch nicht hier im Blog, wo ich es unter den Aspekten Kontrolle und Konsum schon öfter diskutiert habe. Das Video zeigt nochmal eine neue Qualität und neue Ebenen dessen, was möglich sein könnte (oder schon ist?).
Der FAZ-Artikel “Die Macht der Maschinen” (leider nicht frei online zu lesen, so auch nicht ein Interview im Hamburger Abendblatt zwischen einer Philosophin und einem Mathematiker zum gleichen Thema) liefert dazu interessante Einblicke in die Forschung zu automatischen Entscheidungsapparaten, die auch Recht sprechen sollen und weitreichend unser Leben eingreifen sollen. Warum, frage ich mich, wollen wir das überhaupt? Weil es geht? Weil es modern ist? Weil dahinter Geschäftsmodelle stecken? Warum trauen sich Menschen so wenig Verantwortung zu? Beim Thema Strafrecht, Verbrechen und Urteile finde ich, dass sowohl die Techniker als auch manche Philosophen Recht zu einfach und mechanistisch denken, denn die Ursprünge von Gesetzen, ihr allgemeines und spezielles Zustandekommen werden nicht berücksichtigt. Und hier liegen bereits erste Machtverschiebungen und Diskriminierungen, auch wenn später eine Maschine farbenblind entscheiden mag.
So muss man in den USA die dort gebräuchliche Kategorie “Rasse” (race) nicht in automatische Urteile einbeziehen, kann also “farbenblind” sein, wenn die Kategorie Wohnort entsprechend von den Algorithmen ausgewertet wird. Mit einer segregierten Wohnbevölkerung wie sie in vielen Städten der USA vorzufinden ist, wird nur ein anderer Weg einer möglichen Diskriminierung genommen, diese aber nicht ausgeschlossen. Ganz abgesehen davon wer welche Gesetze wie ausformuliert und wer davon dann entsprechend betroffen ist.
Karten, die diese Segregierung amerikanischer Wohnbevölkerung zeigen finden sich hier:
- Mapping Segregation, NY Times
- The racial dot map, Demographics Research Group
In anderen Ländern und Kontexten sind andere Kategorien wirksam. Doch eine Nichtbeachtung der Konstruktion von Gesetzen, kann nicht von einer algorithmisierten Rechtssprechung aufgehoben werden.
Zukunftsvisionen wie The Ledger erscheinen mir zu technizistisch gedacht, wenn man bedenkt, dass die Grauzonen, die Ambivalenzen vieles im täglichen Leben ausmachen, insbesondere in solchen Bereichen wie Recht. Mit einer algorithmisierten Gesellschaft könnten diese Graustufen verloren gehen, aber nur so würde eine Kontrolle, basierend auf Standards und Normalisierungen von Alltag überhaupt nachvollziehbar funktionieren. Die Frage ist wer die Normen macht, für wen sie da sind, oder ob die Menschen für die Normen da sind, damit die Algorithmen und mit ihnen Geschäftsmodelle oder Herrschaftskonstrukte nachhaltig wirken können?