Category: Algorithmen

Palantir – Film und Analyse

Ein weiteres Posting aus der der Abteilung Silicon Valleys Techno-Faschisten

Am 13.2. gab es im Weizenbaum-institut eine Vorführung des Films Watching You – Die Welt von Palantir und Alex Karp von Regisseur Klaus Stern, der auch anwesend war. Ein kleiner Trailer als Appetiizer hier schon mal:

Klaus Stern: Watching You, 2024

Nach dem Film gab es auf der gut besuchten Veranstaltung eine Diskussion mit dem Regisseur, mit Constanze Kurz (CCC / netzpolitik.org, 3 Fragen an CK bei Weizenbaum), Lena Ulbricht (Weizenbaum-Institut / Universität Hildesheim) und Simon Egbert (Universität Bielefeld). Dass hier kein Fanclub von Palantir saß, war klar, das hatte das Publikum auch nicht erwartet und so gab es spannende Information zu den Hintergründen des Film, der Verfassungsklagen gegen die Nutzung der Software durch deutsche Polizeibehörden (wozu es auch schon ein erfreuliches Urteil gibt), sowie zu Forschungen zu dem Thema von Simon und Lena.

Die Welt von Palantir

Eine Veranstaltung am Weizenbaum-Institut am 13. Februar, Film und Diskussion.

Watching You – Die Welt von Palantir und Alex Karp, 13.2.2025, 18-21 Uhr

Im Anschluss an den Film diskutiert Regisseur Klaus Stern mit Lena Ulbricht (Weizenbaum-Institut und Universität Hildesheim), Constanze Kurz (Chaos Computer Club und netzpolitik.org) und Simon Egbert (Universität Bielefeld) über die gesellschaftlichen Auswirkungen von Überwachungstechnologien und Big Data.

Ethnografie in Polizei-Daten

“Data are constructed, not found (Gitelman, 2013Kitchin and Lauriault, 2014)” Der Satz mag die Leserschaft dieses Blogs nicht überraschen, komisch klingen tut er dennoch. Worum geht es? Um einen sehr empfehlenswerten Aufsatz zur Konstruktion von Daten durch Polizei in und durch ihre Arbeit: …”the term “datafication” implies that something is made into data’ (Mejias and Couldry, 2019: 1). In this study, the ‘something’ concerns the street-level cognitions at the Netherlands Police.”

Donatz-Fest, I. (2024). The ‘doings’ behind data: An ethnography of police data construction. Big Data & Society, 11(3). https://doi.org/10.1177/20539517241270695

Was hat das mit Überwachung zu tun? Nichts und alles. Da es um Kategorien geht, um Einpassungen, Entscheidungen und oft, wie hier auch, die Technik, mit und in der dieses geschieht. Hier ist es die Eingabemaske des polizeilichen Systems, in dem Informationen, Daten, festgehalten werden.

Mehr zur Gesichtserkennung

Dieses Mal in Supermärkten. Dieser Artikel ist bereits vom April (ich komme oft nicht schnell genug dazu die Fundstücke zu verarbeiten ;-)), passt aber hervorragend zu dem Artikel davor.

Supermarket facial recognition failure: why automated systems must put the human factor first (The Conversation, 22.4.2024

In dem Artikel geht es vor allem darum, in welchem Kontext diese Technologien eingesetzt werden, was das für Konsequenzen haben kann und warum es wichtig ist darüber auch bei so scheinbar alltäglichen und nebensächlichen Dingen wie dem täglichen Einkauf zu sprechen.

Supermarkets may now be at the forefront of a technological shift in the shopping experience. Moving towards a surveillance culture where every customer is monitored as a potential thief is reminiscent of the ways global airport security changed after 9/11.

Tödliche Algorithmen?

Zugegeben, der Titel ist eher eine dubiose Schlagzeile, denn ein seriöse Überschrift. Dennoch, der Artikel aus der New York Times über Risikoeinschätzungen zu häuslicher Gewalt lassen diese Verbindung zumindest als Schlagzeile zu, wenn es auch so nicht stimmt. Algorithmen töten nicht. Ihre Bedeutung bei der Entscheidungsfindung allerdings erreicht zunehmend immer neue Bereiche, auch Bereiche, in denen es um sensible Einschätzungen gehen kann, wie hier im Fall von Sicherheit und Unsicherheit von Opfern häuslicher Gewalt – was dann bei falscher Einschätzung zu tödlichen Konsequenzen führen kann.

An Algorithm Told Police She Was Safe. Then Her Husband Killed Her. NY Times, 18. Juli 2024

Nun sind solche fatalen Einschätzungen nicht allein auf Algorithmen zu schieben. Auch Menschen können sich entsprechend irren, wenn man das so nennen mag, bzw. Entscheidungen treffen, deren Grundannahmen problematisch sind, weil man z.B. Frauen nicht glaubt, Vorwürfe häuslicher Gewalt für Hysterie hält oder dergleichen. Das scheint hier nicht der Fall zu sein – im Gegenteil besteht eine hohe Aufmerksamkeit für das Thema und mit einem Algorithmus will man diese noch verbessern.

Was ist eigentlich diese Digitalisierung?

Diese Recherche und Analyse von Bianca Kastl hat sie die Webseiten der Ministerien und Behörden durchforstet, die sich mit Digitalisierung auf Landes- bzw. Bundesebene befassen. Die Analyse zeigt, u.a. mit sehr anschaulichen Bildern der Bubbles (wörtlich und bildlich zu verstehen), worüber da so genau gesprochen wird. Es ist ja immerhin ein Zukunftsthema, auch wenn die Zukunft seit 25 Jahren begonnen hat (wenn man großzügig rechnet, sonst länger), aber manches in der Politik und vor allem in der Verwaltung braucht halt länger.

Die Recherche sind auch ohne großen Kommentar so gut und bemerkenswert, dass ich hier nicht auf den Hinweis verzichten wollte.

Klicken Sie auf den unteren Button, um den Inhalt von netzpolitik.org zu laden.

Inhalt laden

KI als Verheißung

Dass Künstliche Intelligenz mehr ist als nur eine Technologie bzw. wie alle Technologien auch Symbol für etwas, Projektionsfläche für Wünsche, ja gar für Utopien einer besseren Welt sind, ist nichts neues, schon gar nicht hier im Blog. Dass es jetzt ein Buch dazu gibt, ist daher umso schöner.

Der geschätzte Kollege Stefan Selke hat mit “Technik als Trost. Verheißungen künstlicher Intelligenz” (transcript, leider nicht open access) eine Analyse veröffentlicht, die einen Blick wert ist. Gerade weil sie jenseits der Technik geht, jenseits der Profit-orientierten Werbesprüche von Politik, Unternehmen und der vielen Blender geht, die damit alles so schön praktisch machen wollen.

Verheißungen über Künstliche Intelligenz (KI) sind spekulative Bedeutungszuschreibungen und Heilsversprechen, die aus KI ein kollektives Tröstungsprojekt machen – so die These von Stefan Selke. In einer Metastudie vergleicht er vier prototypische Zukunftsnarrative und zieht dazu Quellen von Fachtexten bis zu Science-Fiction heran.

Aus der Werbung zum Buch

In diesem Zusammenhang sei dann auch nochmal an das wundervolle Buch von Robert Feustel erinnert: „Am Anfang war die Information. Digitalisierung als Religion”, welches sich hier mit Gewinn als Ergänzung lesen lässt.

Krypto und die NSA

Der Sprektrum-Podcast von Detektor.fm befasst sich hier mal mit Kryptografie und dem, was unter dem Namen der Kryptokriege bekannt geworden ist. Wer es noch nicht kennt (hier wohl eher viele, aber dennoch): Der Algorithmus, der die NSA in den Wahnsinn trieb.

Die Frage ob Kryptografie ein Grundrecht sein könnte, ähnlich oder viel drastischer als das Briefgeheimnis, ist eine wirklich interessante Frage, der man aus verfassungsrechtlicher Sicht nachgehen müsste, weniger aus soziologischer. Wobei hier die Frage der sozialen Bedeutung von Geheimnissen und ihrer Funktion in Gesellschaften nicht unwichtig sein könnte.

Eine revolutionäre Idee der Verschlüsselung und ein besorgter Geheimdienst: In den 1970er-Jahren entwickelten Mathematiker eine neue Form der Kryptografie. Wer sicher kommunizieren wollte, veröffentlichte seine Schlüssel. Es war der Beginn eines regelrechten Krypto-Kriegs.

Die Verdachtsmachine

Die bekannten Vorwürfe gegen Algorithmen und KI, dass sie aufgrund ihrer Trainingsdaten die Einstellungen und Kategorisierungen vornehmen würden (und so rassistisch oder anders diskriminierend sein können, vgl. “Can a machine be racist?” The Conversation 6.3.2023), die auch die sie umgebende Gesellschaft hat und lebt, werden in den Artikeln und Berichten zu dem Thema immer wieder erzählt. Das ist, wenn man sich viel damit beschäftigt, etwas langweilig, aber nie unbedeutend.

Wired hat eine sehr schönen Zugang dazu gefunden, neben einer ästhetisch charmanten Webseite. Der Bericht Inside the Suspicion Machine betrachtet die Kategorisierungen unter dem Aspekt des Verdachts – einem Aspekt sozialem Phänomen, das viel zu wenig thematisiert wird. Wir sprechen immer von den Werbewirkungen, die Kategorisierungen und anhängenden Diskriminierungen, aber selten vom Verdacht. Ich finde zu Unrecht, denn die Figur des Verdachts kann die Argumente nochmal anders einordnen und bewusst machen, worum es bei den Kategorien auch gehen kann und welche Vorstellungen und hierarchischen Vorstellungen möglicherweise hinter KI steht – die alles andere als neutral ist, sondern ja gerade ein Symbol und eine Projektionsfläche für Utopien und Wünsche (auch krude) ist.

Inside the Suspicion Machine. Obscure government algorithms are making life-changing decisions about millions of people around the world. Here, for the first time, we reveal how one of these systems works. Wired, 6.3.2023

Roboter und Überwachung

Über Roboter habe ich ja schon das eine oder andere geschrieben, es gibt auch eine Folge der Berichte aus Panoptopia dazu, und es ist immer wieder ein interessantes Thema, weil es sich vermischt mit Überwachung, KI, Algorithmen, aber eben auch gesellschaftlichen Fragen.

Hier ein Artikel zu Informationen, Überwachung und Robotern und wie sie der Polizei helfen und den öffentlichen Raum einnehmen. Vieles ist bekannt, aber hier noch mal gut zusammengefasst.

Klicken Sie auf den unteren Button, um den Inhalt von www.stopkillerrobots.org zu laden.

Inhalt laden

Responisble IA und PreCrime

Die Gruppe Responsible AI@ARIC lädt ein zu Filmvorführung und Diskussion zum Film PreCrime.

7. Dezember 2022, 19:00 Uhr im Alabama Kino auf Kampnagel (Jarrestr. 20) in Hamburg

Das Artificial Intelligence Center (ARIC) beschäftigt sich seit seiner Gründung unter dem Rubrum „responsible AI“ mit dem verantwortungsvollen Einsatz von Künstlicher Intelligenz und Datentechniken.
Mit der Filmvorführung will das ARIC einen Diskussions-Impuls dafür geben, wo und wie daten- und KI-gestützte Maßnahmen in der Polizeiarbeit eingesetzt werden.