Tödliche Algorithmen?

Zugegeben, der Titel ist eher eine dubiose Schlagzeile, denn ein seriöse Überschrift. Dennoch, der Artikel aus der New York Times über Risikoeinschätzungen zu häuslicher Gewalt lassen diese Verbindung zumindest als Schlagzeile zu, wenn es auch so nicht stimmt. Algorithmen töten nicht. Ihre Bedeutung bei der Entscheidungsfindung allerdings erreicht zunehmend immer neue Bereiche, auch Bereiche, in denen es um sensible Einschätzungen gehen kann, wie hier im Fall von Sicherheit und Unsicherheit von Opfern häuslicher Gewalt – was dann bei falscher Einschätzung zu tödlichen Konsequenzen führen kann.

An Algorithm Told Police She Was Safe. Then Her Husband Killed Her. NY Times, 18. Juli 2024

Nun sind solche fatalen Einschätzungen nicht allein auf Algorithmen zu schieben. Auch Menschen können sich entsprechend irren, wenn man das so nennen mag, bzw. Entscheidungen treffen, deren Grundannahmen problematisch sind, weil man z.B. Frauen nicht glaubt, Vorwürfe häuslicher Gewalt für Hysterie hält oder dergleichen. Das scheint hier nicht der Fall zu sein – im Gegenteil besteht eine hohe Aufmerksamkeit für das Thema und mit einem Algorithmus will man diese noch verbessern.

Grundlage für einen solchen Algorithmus ist der alte Wunsch der Vorhersage von Verbrechen. Und ich würde dabei gar nicht so sehr auf die Ethik der Verwendung schauen wollen, ist auch eher nicht mein Interesse, sondern wieder einmal ergründen wollen, was hinter diesem Wunsch steckt. Warum eine Maschine, wenn sie doch dann doch solche Folgen hat? Nur ein Kollateralschaden, weil eben nichts perfekt ist? Einsparung? Erleichterung und Unterstützung bei der Entscheidungsfindung, weil es so viele Fälle sind? Im letzteren Fall wäre dann noch ein ganz anderes Thema wichtig und Maßnahmen dagegen entsprechend angesagt, die dann wohl eher nicht algorithmisch gelöst werden könnten. Die Frage ist, ob häusliche Gewalt ein statistisches Problem ist und so entsprechend runtergebrochen werden kann – in mancherlei Hinsicht vielleicht – aber generell?

Auch in Deutschland gibt es solche Vorhersage-Tools für häusliche Gewalt, auch hier wird Skepsis vorgetragen (Does a simple algorithm help against domestic violence? Algorithm Watch, 13.1.2023). Neu ist das alles also nicht, allein mit der gerade stattfindenden Revolution, was KI angeht, werden solche Systeme eher mehr, denn weniger werden. Der Wunsch nach der technischen Kontrollierbarkeit von Gesellschaft und Umwelt wird wachsen, auch weil viele Probleme und überhautp Welt so komplex erscheint, das man diese Hilfe dazu braucht (oder meint zu brauchen…?) und weil es natürlich ein Ausweis von Modernität ist, für jedes Problem auch eine digitale Lösung zu haben. Und das betrifft auch und insbesondere den Bereich von (staatlicher) Fürsorge, menschlichen Beziehungen, dem Strafrechtssystem, Bereiche, wo dann niemand mehr verantwortliche sein muss, wenn die Maschine die Antwort ausspuckt.

Das mag kulturpessimistisch klingen, soll es aber nicht sein. Die Frage aber nach der Kultur und den Narrativen von KI, Automatisierung von Gesellschaft um ihrer Beherrschbarkeit Willen, stellt sich hier erneut und sollte, m.E.n., wenn nicht vor der Ethik, so doch immer auch mit gedacht werden. Wie ich finde passiert das zu wenig.