Category: Algorithmen

Vom Äußeren auf das Innere schließen….

und natürlich soll auch das KI (AI) tun können. Warum auch nicht, kann doch auch sonst fast alles. Mich hat der Bluesky-Thread vor allem wegen des Kommentars angesprochen: Phrenology. Eine Pseudowissenschaft im 19 Jahrhundert (Wikipedia, allerdings recht oberflächlich, was die kritische Einschätzung angeht)

Computer scientists: "So with machine learning we can extract subtle patterns from massive datasets. What shall we do with it?"Business school professors, every single time: "You know, I think phrenology got a raw deal in the late 1800s."

Carl T. Bergstrom (@carlbergstrom.com) 2025-12-11T19:36:35.138Z

AI is all around

Man und frau muss nicht technophob sein, um kritisch über AI nachzudenken. Gerade mit einem Faible für Technik scheint es mir, ist das genaue Hinsehen auf die Entwicklungen im Bereich der Künstlichen Intelligenz wichtiger denn je. Insbesondere, und hier vor allem meinem Interesse geschuldet, wenn es um die symbolischen Bedeutungen der Technologie(n) geht, die mit dem Kürzel KI/AI verbunden sind –und nicht selten einfach ein Verkaufsargument darstellen, denn irgendeinen Mehrwert in der Praxis für irgendwen oder gar die Gesellschaft als Ganzes haben. Der Begriff wird dann recht schnell recht leer und beliebig. Die Beschreibung, die mein geschätzter Kollege David Murakami Wood für AI, gefunden hat, finde ich dabei noch immer sehr auf den Punkt:

In other words, they produce patterns, which sometimes (increasingly frequently) appear good enough to fool pattern-recognizing brains like our own. 

… und immer wieder Palantir

Es wird gegenwärtig viel geschrieben, analysiert und gewarnt über, zu und vor Palantir. Bevor ich eine Liste der Artikel und Beiträge dazu mache, verlinke ich erstmal den Film “Watching You” von Klaus Stern zu Alex Karp, den es gerade in der ARD-Mediathek zu sehen gibt.

Ich habe den Film im Februar bei einer Vorführung im Weizenbaum-Institut gesehen, Klaus Stern war da vor Ort. Dazu hatte ich schon mal einen Eintrag gemacht mit Hintergrundinfos, immer noch lesenswert, da die Infos sehr gute wissenschaftliche Analysen sehr geschätzter Kolleg:innen sind.

Und Herbst habe ich Klaus Stern nach Hamburg eingeladen, ich zeige den Film als Teil der Ringvorlesung Friedensbildung, und hier wird der Regisseur dann dabei sein für Fragen und Diskussion.

Algorithmische Narrative und der Zeitgeist

Heute möchte ich auf den Aufsatz des Kollegen Rainer Rehak hinweisen, der sich der Narrative rund um KI angenommen hat. Der Artikel ist wirklich lesenswert, wenn auch notwendigerweise lang und ausführlich. Rainer Rehak nimmt sich darin prominenter Erzählungen zu KI – oder das was so mancher dafür hält – vor, u.a. Agency, Autonomie, Wissensverarbeitung, Vorhersage, Objektivität.

AI Narrative Breakdown. A Critical Assessment of Power and Promise, 23.6.2025, in FAccT ’25: Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, Pages 1250 – 1260, https://doi.org/10.1145/3715275.3732083

Wer in der DB den vielen Business-Typ:innen mal so beim Telefonieren zuhört – immer ein großer Spaß für mich – der hört immer öfter auch etwas von KI, in nahezu jedem Zusammenhang. Rehak nennt das “Zeitgeist-KI”, ein wirklich charmanter, aber vor allem treffender Begriff

To characterize the regularly (too) vague use of the term artificial intelligence in societal discourse, I propose the term “Zeitgeist AI” [96]. “Zeitgeist AI” can mean anything from big data, algorithms, apps and statistics to software, robots, digital technology, all the way to the internet and digitalization in general. In political discourse, too, there is often a blanket reference to “artificial intelligence,” 

Also, ein Lesetipp, denn die symbolische Bedeutung der Technologie KI ist bestimmt so groß, wenn nicht größer als ihre tatsächlichen Möglichkeiten. Hier gibt es ein paar interessante Gedanken und Erkenntnisse zu lesen.

KI als Religion

Über die symbolischen Bedeutungen von KI denke ich schon länger nach und je mehr ich lese was alles mit KI gemacht und dann vor allem besser sein soll, desto mehr bin ich davon überzeugt, dass zu wenig über den symbolischen Gehalt von Technik nachgedacht wird, nicht unbedingt in der Wissenschaft, aber auch hier. Über das “wie” wird viel nachgedacht, u.a. in der Ethik, aber über das “warum” eher weniger. Und ich frage mich auch, welche (unerfüllten?) Bedürfnisse möglicherweise KI befriedigt, die in der Gesellschaft vorhanden sind. Da liegt es nicht weit auch einmal über KI als Religion nachzudenken.

Hier tut das Claudia Paganini beim Deutschlandfunk und ich fand das durchaus hörenswert.

Palantir – Film und Analyse

Ein weiteres Posting aus der Abteilung Silicon Valleys Techno-Faschisten

Am 13.2. gab es im Weizenbaum-institut eine Vorführung des Films Watching You – Die Welt von Palantir und Alex Karp von Regisseur Klaus Stern, der auch anwesend war. Ein kleiner Trailer als Appetiizer hier schon mal:

Klaus Stern: Watching You, 2024

Nach dem Film gab es auf der gut besuchten Veranstaltung eine Diskussion mit dem Regisseur, mit Constanze Kurz (CCC / netzpolitik.org, 3 Fragen an CK bei Weizenbaum), Lena Ulbricht (Weizenbaum-Institut / Universität Hildesheim) und Simon Egbert (Universität Bielefeld). Dass hier kein Fanclub von Palantir saß, war klar, das hatte das Publikum auch nicht erwartet und so gab es spannende Information zu den Hintergründen des Film, der Verfassungsklagen gegen die Nutzung der Software durch deutsche Polizeibehörden (wozu es auch schon ein erfreuliches Urteil gibt), sowie zu Forschungen zu dem Thema von Simon und Lena.

Die Welt von Palantir

Eine Veranstaltung am Weizenbaum-Institut am 13. Februar, Film und Diskussion.

Watching You – Die Welt von Palantir und Alex Karp, 13.2.2025, 18-21 Uhr

Im Anschluss an den Film diskutiert Regisseur Klaus Stern mit Lena Ulbricht (Weizenbaum-Institut und Universität Hildesheim), Constanze Kurz (Chaos Computer Club und netzpolitik.org) und Simon Egbert (Universität Bielefeld) über die gesellschaftlichen Auswirkungen von Überwachungstechnologien und Big Data.

Ethnografie in Polizei-Daten

“Data are constructed, not found (Gitelman, 2013Kitchin and Lauriault, 2014)” Der Satz mag die Leserschaft dieses Blogs nicht überraschen, komisch klingen tut er dennoch. Worum geht es? Um einen sehr empfehlenswerten Aufsatz zur Konstruktion von Daten durch Polizei in und durch ihre Arbeit: …”the term “datafication” implies that something is made into data’ (Mejias and Couldry, 2019: 1). In this study, the ‘something’ concerns the street-level cognitions at the Netherlands Police.”

Donatz-Fest, I. (2024). The ‘doings’ behind data: An ethnography of police data construction. Big Data & Society, 11(3). https://doi.org/10.1177/20539517241270695

Was hat das mit Überwachung zu tun? Nichts und alles. Da es um Kategorien geht, um Einpassungen, Entscheidungen und oft, wie hier auch, die Technik, mit und in der dieses geschieht. Hier ist es die Eingabemaske des polizeilichen Systems, in dem Informationen, Daten, festgehalten werden.

Mehr zur Gesichtserkennung

Dieses Mal in Supermärkten. Dieser Artikel ist bereits vom April (ich komme oft nicht schnell genug dazu die Fundstücke zu verarbeiten ;-)), passt aber hervorragend zu dem Artikel davor.

Supermarket facial recognition failure: why automated systems must put the human factor first (The Conversation, 22.4.2024

In dem Artikel geht es vor allem darum, in welchem Kontext diese Technologien eingesetzt werden, was das für Konsequenzen haben kann und warum es wichtig ist darüber auch bei so scheinbar alltäglichen und nebensächlichen Dingen wie dem täglichen Einkauf zu sprechen.

Supermarkets may now be at the forefront of a technological shift in the shopping experience. Moving towards a surveillance culture where every customer is monitored as a potential thief is reminiscent of the ways global airport security changed after 9/11.

Tödliche Algorithmen?

Zugegeben, der Titel ist eher eine dubiose Schlagzeile, denn ein seriöse Überschrift. Dennoch, der Artikel aus der New York Times über Risikoeinschätzungen zu häuslicher Gewalt lassen diese Verbindung zumindest als Schlagzeile zu, wenn es auch so nicht stimmt. Algorithmen töten nicht. Ihre Bedeutung bei der Entscheidungsfindung allerdings erreicht zunehmend immer neue Bereiche, auch Bereiche, in denen es um sensible Einschätzungen gehen kann, wie hier im Fall von Sicherheit und Unsicherheit von Opfern häuslicher Gewalt – was dann bei falscher Einschätzung zu tödlichen Konsequenzen führen kann.

An Algorithm Told Police She Was Safe. Then Her Husband Killed Her. NY Times, 18. Juli 2024

Nun sind solche fatalen Einschätzungen nicht allein auf Algorithmen zu schieben. Auch Menschen können sich entsprechend irren, wenn man das so nennen mag, bzw. Entscheidungen treffen, deren Grundannahmen problematisch sind, weil man z.B. Frauen nicht glaubt, Vorwürfe häuslicher Gewalt für Hysterie hält oder dergleichen. Das scheint hier nicht der Fall zu sein – im Gegenteil besteht eine hohe Aufmerksamkeit für das Thema und mit einem Algorithmus will man diese noch verbessern.