Kategorie: Algorithmen

Das Ende des freien Intenets?

Neben der Diskussion um Open Access in den Wissenschaften (dazu erscheint in Kürze eine Themenausgabe des Journal kommunikation@gesellschaft) tranportierte das Internet auch immer die Idee freie Informationen, insbsondere was Nachrichten angeht. Das Feld ist lange bereits umkämpft und mit dem Beginn der Kommerzialisierung des Netzes vor 25, vielleicht sogar 30 Jahren steht diese Idee immer schon zur Disposition, wenn sie nicht in Gefahr ist. Freie Zugänge und diese Idee werden im großen Maßstab u.a. von Wikipedia oder der Wayback Machine, dem Archiv des Internet, hoch gehalten. Letzteres scheint nun in Gefahr zu sein, wie The Conversation berichtet.

News sites are locking out the Internet Archive to stop AI crawling. Is the ‘open web’ closing? (5.2.2026)

Dass die freie Zugänglichkeit nicht ganz ohne Dilemmata ist, wird in dem Artikel klar. Ob aber die kommerzielle Schließung die Lösung sein wird, die dann die „freien“ sozialen Medien mit den vermeintlichen News für alle noch mehr zu den allverfügbaren Quellen von wenn schon nicht sklavisch „obhektiver“, vor allem aber faktenbasierter Berichterstattung machen würde, ist eine genauere Betrachtung wert. Muss es sein, die Ergebnisse dessen sieht man bereits jetzt.

Sehr passend dazu findet im September die Tagung Tagung „Utopien und Dystopien der digitalen Gesellschaft: 30 Jahre Forschung zu computervermittelter Kommunikation“ zusammen mit dem Weizenbaum-Institut statt.

Autonom oder gesteuert aus der Ferne?

Man könnte meinen das sei doch eins oder so ähnlich, irgendwie, weil autonome Vehikel doch irgendwie das Netz brauchen, schon zur Orientierung, GPS und so. Nein, es scheint dann doch noch einen menschlichen Faktor zu geben. Die Webseite Futurism berichtet in ihrem Artikel

It Turns Out That When Waymos Are Stumped, They Get Intervention From Workers in the Philippines (6.2.2026)

von Menschen auf Philipinen, die im Hintergrund steuernd auf die Fahrzeuge eingreifen. Ähnliches war doch auch bei Alexa der Fall, anders, aber eben nicht dem Versprechen nach, dass alles eine KI, das Gerät oder die Technologie selbst macht… mmmhhh

* Ich lese machen Artikel von Futurism, kenne aber die Hintergründe der Webseite nicht. Nicht immer leicht rauszufinden, wer für wen da was schreibt. Hier ein Check von Futurism https://mediabiasfactcheck.com/futurism/

Vom Äußeren auf das Innere schließen….

und natürlich soll auch das KI (AI) tun können. Warum auch nicht, kann doch auch sonst fast alles. Mich hat der Bluesky-Thread vor allem wegen des Kommentars angesprochen: Phrenology. Eine Pseudowissenschaft im 19 Jahrhundert (Wikipedia, allerdings recht oberflächlich, was die kritische Einschätzung angeht)

Computer scientists: "So with machine learning we can extract subtle patterns from massive datasets. What shall we do with it?"Business school professors, every single time: "You know, I think phrenology got a raw deal in the late 1800s."

Carl T. Bergstrom (@carlbergstrom.com) 2025-12-11T19:36:35.138Z

AI is all around

Man und frau muss nicht technophob sein, um kritisch über AI nachzudenken. Gerade mit einem Faible für Technik scheint es mir, ist das genaue Hinsehen auf die Entwicklungen im Bereich der Künstlichen Intelligenz wichtiger denn je. Insbesondere, und hier vor allem meinem Interesse geschuldet, wenn es um die symbolischen Bedeutungen der Technologie(n) geht, die mit dem Kürzel KI/AI verbunden sind –und nicht selten einfach ein Verkaufsargument darstellen, denn irgendeinen Mehrwert in der Praxis für irgendwen oder gar die Gesellschaft als Ganzes haben. Der Begriff wird dann recht schnell recht leer und beliebig. Die Beschreibung, die mein geschätzter Kollege David Murakami Wood für AI, gefunden hat, finde ich dabei noch immer sehr auf den Punkt:

In other words, they produce patterns, which sometimes (increasingly frequently) appear good enough to fool pattern-recognizing brains like our own. 

… und immer wieder Palantir

Es wird gegenwärtig viel geschrieben, analysiert und gewarnt über, zu und vor Palantir. Bevor ich eine Liste der Artikel und Beiträge dazu mache, verlinke ich erstmal den Film „Watching You“ von Klaus Stern zu Alex Karp, den es gerade in der ARD-Mediathek zu sehen gibt.

Ich habe den Film im Februar bei einer Vorführung im Weizenbaum-Institut gesehen, Klaus Stern war da vor Ort. Dazu hatte ich schon mal einen Eintrag gemacht mit Hintergrundinfos, immer noch lesenswert, da die Infos sehr gute wissenschaftliche Analysen sehr geschätzter Kolleg:innen sind.

Und Herbst habe ich Klaus Stern nach Hamburg eingeladen, ich zeige den Film als Teil der Ringvorlesung Friedensbildung, und hier wird der Regisseur dann dabei sein für Fragen und Diskussion.

Algorithmische Narrative und der Zeitgeist

Heute möchte ich auf den Aufsatz des Kollegen Rainer Rehak hinweisen, der sich der Narrative rund um KI angenommen hat. Der Artikel ist wirklich lesenswert, wenn auch notwendigerweise lang und ausführlich. Rainer Rehak nimmt sich darin prominenter Erzählungen zu KI – oder das was so mancher dafür hält – vor, u.a. Agency, Autonomie, Wissensverarbeitung, Vorhersage, Objektivität.

AI Narrative Breakdown. A Critical Assessment of Power and Promise, 23.6.2025, in FAccT ’25: Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, Pages 1250 – 1260, https://doi.org/10.1145/3715275.3732083

Wer in der DB den vielen Business-Typ:innen mal so beim Telefonieren zuhört – immer ein großer Spaß für mich – der hört immer öfter auch etwas von KI, in nahezu jedem Zusammenhang. Rehak nennt das „Zeitgeist-KI“, ein wirklich charmanter, aber vor allem treffender Begriff

To characterize the regularly (too) vague use of the term artificial intelligence in societal discourse, I propose the term „Zeitgeist AI“ [96]. „Zeitgeist AI“ can mean anything from big data, algorithms, apps and statistics to software, robots, digital technology, all the way to the internet and digitalization in general. In political discourse, too, there is often a blanket reference to „artificial intelligence,“ 

Also, ein Lesetipp, denn die symbolische Bedeutung der Technologie KI ist bestimmt so groß, wenn nicht größer als ihre tatsächlichen Möglichkeiten. Hier gibt es ein paar interessante Gedanken und Erkenntnisse zu lesen.

KI als Religion

Über die symbolischen Bedeutungen von KI denke ich schon länger nach und je mehr ich lese was alles mit KI gemacht und dann vor allem besser sein soll, desto mehr bin ich davon überzeugt, dass zu wenig über den symbolischen Gehalt von Technik nachgedacht wird, nicht unbedingt in der Wissenschaft, aber auch hier. Über das „wie“ wird viel nachgedacht, u.a. in der Ethik, aber über das „warum“ eher weniger. Und ich frage mich auch, welche (unerfüllten?) Bedürfnisse möglicherweise KI befriedigt, die in der Gesellschaft vorhanden sind. Da liegt es nicht weit auch einmal über KI als Religion nachzudenken.

Hier tut das Claudia Paganini beim Deutschlandfunk und ich fand das durchaus hörenswert.

Palantir – Film und Analyse

Ein weiteres Posting aus der Abteilung Silicon Valleys Techno-Faschisten

Am 13.2. gab es im Weizenbaum-institut eine Vorführung des Films Watching You – Die Welt von Palantir und Alex Karp von Regisseur Klaus Stern, der auch anwesend war. Ein kleiner Trailer als Appetiizer hier schon mal:

Klaus Stern: Watching You, 2024

Nach dem Film gab es auf der gut besuchten Veranstaltung eine Diskussion mit dem Regisseur, mit Constanze Kurz (CCC / netzpolitik.org, 3 Fragen an CK bei Weizenbaum), Lena Ulbricht (Weizenbaum-Institut / Universität Hildesheim) und Simon Egbert (Universität Bielefeld). Dass hier kein Fanclub von Palantir saß, war klar, das hatte das Publikum auch nicht erwartet und so gab es spannende Information zu den Hintergründen des Film, der Verfassungsklagen gegen die Nutzung der Software durch deutsche Polizeibehörden (wozu es auch schon ein erfreuliches Urteil gibt), sowie zu Forschungen zu dem Thema von Simon und Lena.

Die Welt von Palantir

Eine Veranstaltung am Weizenbaum-Institut am 13. Februar, Film und Diskussion.

Watching You – Die Welt von Palantir und Alex Karp, 13.2.2025, 18-21 Uhr

Im Anschluss an den Film diskutiert Regisseur Klaus Stern mit Lena Ulbricht (Weizenbaum-Institut und Universität Hildesheim), Constanze Kurz (Chaos Computer Club und netzpolitik.org) und Simon Egbert (Universität Bielefeld) über die gesellschaftlichen Auswirkungen von Überwachungstechnologien und Big Data.

Ethnografie in Polizei-Daten

„Data are constructed, not found (Gitelman, 2013Kitchin and Lauriault, 2014)“ Der Satz mag die Leserschaft dieses Blogs nicht überraschen, komisch klingen tut er dennoch. Worum geht es? Um einen sehr empfehlenswerten Aufsatz zur Konstruktion von Daten durch Polizei in und durch ihre Arbeit: …“the term “datafication” implies that something is made into data’ (Mejias and Couldry, 2019: 1). In this study, the ‘something’ concerns the street-level cognitions at the Netherlands Police.“

Donatz-Fest, I. (2024). The ‘doings’ behind data: An ethnography of police data construction. Big Data & Society, 11(3). https://doi.org/10.1177/20539517241270695

Was hat das mit Überwachung zu tun? Nichts und alles. Da es um Kategorien geht, um Einpassungen, Entscheidungen und oft, wie hier auch, die Technik, mit und in der dieses geschieht. Hier ist es die Eingabemaske des polizeilichen Systems, in dem Informationen, Daten, festgehalten werden.