Author: Nils Zurawski

Dr. habil. Nils Zurawski, ist Soziologe und Ethnologe und Initiator des Forschungs-Netzwerkes Surveillance-Studies. Er arbeitet als Wissenschaftler am Institut für kriminologische Sozialforschung an der Universität Hamburg sowie als freier Mediator/Moderator/Konfliktberater. Hier gibt es mehr Informationen zu seiner Arbeit: https://www.surveillance-studies.org/zurawski

Palantir cont.

Dazu gibt es eigentlich wenig mehr zu sagen, liebe Innenpolitiker und Sicherheitsbehörden

Klicken Sie auf den unteren Button, um den Inhalt von netzpolitik.org zu laden.

Inhalt laden

Ist das noch Freizeit?

Schneller, weiter, krasser – so der Titel eines sehr ausführlichen Artikels in der taz am 25.2.2025, in der die Autorin (Sophie Fichtner) von den Erlebnissen ihrer Protagonistin Kira Gerlach mit einer Fitness-App berichtet und darüber reflektiert, welche Folgen diese haben können.

Freizeitsport wird immer kompetitiver, auch wegen Apps wie Strava. Dort pushen sich Nut­ze­r gegenseitig immer weiter – bis es ungesund wird.

In dem Artikel geht es dabei sowohl um Leistungsvergleiche online, also den sozialen Druck durch den Vergleich, möglich über die digitale Verfügbarkeit von Daten, bereitgestellt von den Nutzern selbst im Rahmen konsumistischer Praktiken. Es geht aber auch um Leistung selbst, um Sport, um Perfektion, um das Messen von Leistung im Freizeitsport (wenn man davon noch so sprechen kann), es geht um Gesundheit und deren mögliche Gefährdung.

Damit sind gleich mehrere meiner wissenschaftlichen Interessen berührtn – Konsum, Doping/Sport/Leistung, Messen und die Indikatoren des Messens als Form der Überwachung – und vor allem zum Punkt des Messens kann ich auf diesen bereits erwähnten Artikel nochmal verweisen:

  • Zählen, messen, kontrollieren. Über eine ambivalente Technik der (Post)Moderne oder: wie aus persönlichem Geltungsdrang ein gesellschaftliches Problem werden kann, Zeitschrift für Semiotik, Vol 45, Heft 3-4, 2023. (erschienen 2024).

Authoritarian Surveillance

Die aktuelle Ausgabe von Surveillance & Society widmet sich u.a. dem Schwerpunkt (“Authoritarian Surveillance”. (Vol. 23, No 1, 2025, zu finden unter Dialogue) .

Darin beschäftigen sich u.a. Azadeh Akbari und David Murakami Wood ihrem Beitrag Towards a Critical Political Economy of Surveillance and Digital Authoritarianism mit Elon Musk und seinen Mars-Plänen.

“It is no accident that, for Elon Musk, the immediate utopia is the Mars colony, a project whose technological dependencies and challenges of extreme environments appear to mandate a highly selective society; tight, hierarchical organization; and total social and environmental surveillance as a foundation (cf. Grove 2021). It is also a kind of release: the “final frontier” is an ostensibly guilt-free version of settler-colonialism, a genuine tabula rasa, but one to be built on the backs of people left behind on an Earth in polycrisis. The Mars colony is therefore the speculative apogee of a new totalitarian-colonial vision of total surveillance to be achieved by the alignment of the states with the goals and values of platform corporations.”

Über das Zitat hinaus lesenswert. Es folgen weitere Hinweise auf ähnliche Entwicklungen, u.a. die Ideen der eigenen Städte, der Entstaatlichung von Gesellschaften, Ländern und Gemeinwesen durch superreiche Tech-Bros.

Telepolis und die Vergangenheit des Internet

Das Telepolis einige Jahre auch der Sponsor des Surveillance Studies-Preises war, möchte ich an dieser Stelle diesen Artikel aus der Zeitschrift Kontext nicht vorenthalten. Ich finde das ebenso wunderlich wie der Autor selbst. Was ist passiert? Telepolis”-Archiv gelöscht. Das Internet vergisst. Hier als Kurzzusammenfassung der Teaser:

Eines der ältesten Online-Magazine der Republik hat alle Artikel gelöscht, die dort vor 2021 erschienen sind. Der frühere “Telepolis”-Chefredakteur Florian Rötzer verweist auf große Löcher im digitalen Gedächtnis. Was dokumentiert bleibt, entpuppt sich als Machtfrage.

KI, dicke Dollars und Halluziationen

Dieser Text von Constanze Kurz und Stefan Ullrich ist eine echte Empfehlung. Vor allem, weil er eine sehr schöne Illustration zur symbolischen Bedeutung von KI in vielen gegenwärtigen Diskursen ist – was wollen wir sehen, worauf springen wir, die Wirtschaft, all die “Gläubigen” an, die sich von KI das Heil erhoffen. Technologie als Symbol, vor allem aber als Marketing-Hype. Das Zitat aus dem Text bringt es auf den Punkt.

Wir müssen dringend kurz noch über diese „Halluzinationen“ sprechen. Es wird fälschlicherweise davon ausgegangen, dass die Maschine halluziniert. Es sind aber tatsächlich die Menschen, die Täuschungen unterliegen und die LLM-Ergebnisse schlicht überinterpretieren. Es ist ein bisschen so, wie wir Figuren in den Wolken zu erkennen glauben.

Klicken Sie auf den unteren Button, um den Inhalt von netzpolitik.org zu laden.

Inhalt laden

Training, Deeskalation und VR

Am 10. Dezember war ich am Weizenbaum-Institut für eine kleine Veranstaltung verantwortlich. Das Thema war VR und polizeiliches Deeskalationstraining. Hier sind die jeweiligen Eingangsinputs meiner Gäste aufgeführt, die ihr auch im Youtube-Kanal des Weizenbaum-Instituts sehen könnt. Viel Spaß.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Podcast zu Strafen und Knästen

Im Podcast Schuld, Strafe, Recht? des Fritz Bauer Forums spricht Thomas Galli mit seinem Gästen über verschiedene Aspekte des Themas – wobei es dabei nicht gehen dürfte, wäre eine Forderung nach härteren Strafen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

In dem Podcast will Thomas Galli mit seinen Gästen über die Sinnhaftigkeit unserer Strafen und unseres Strafvollzugs ins Gespräch kommen. Nach Fritz Bauer stammt unser Schuldstrafrecht aus der Affenzeit. Sollten wir es überwinden, und wie könnte ein humaner Umgang mit Straftaten aussehen? Darüber spricht Thomas Galli unter anderem mit Opfern, Tätern, Inhaftierten, Angehörigen und Wissenschaftler*innen.

Es gibt online 5 Folgen, die einen Besuch lohnen.

Technologie als Gesellschaftsmechanik

Zugegeben eine etwas sehr grobe, pauschalisierende Überschrift, mit der ich die letzten Posts fortsetzen möchte und damit auf die auch im Film vorkommende Macy-Konferenzen hinweisen möchte.

Auf dieser Serie von Zusammenkünften – 10 Konferenzen zwischen 1946 und 1953 – wurden die Grundlagen dessen gelegt, was unter dem Namen “Cybernetics” bekannt wurde. Eine sehr amerikanische Veranstaltung, wo Menschen (hauptsächlich Männer) aus verschiedenen Disziplinen zusammenkamen und über den neuen Menschen mit neuen Technologien zu sprechen. Aus soziologischer Sicht kann man durchaus sagen, dass hier über eine neues Menschenbild nachgedacht wurde, welches auch auf Grundlage der damaligen technischen Möglichkeiten eine Hinwendung soziale Mechanik, zu menschlicher Beeinflussung – Psychologen waren ebenfalls anwesend – erkennen ließen. Die heutigen Tech-Bros, die Oligarchen, die schon länger unsere digitale Welt prägen, nehmen ihre häufig anti-demokratischen Ideen aus den dort gelegten Grundlagen.

As Hayles laments in “How We Became Posthuman,” the Macy conferences helped usher in a world where everything—including our subjectivity—could be reduced to flows of fungible information, information that can be commodified and manipulated. From this perspective, the Macy conferences were a first salvo in what Haraway would call the “Informatics of Domination,” (Haraway, 1991), in which, as Bateson later suggested, “control” was elevated over “communication” (Bateson, 1991). (vgl. Collins 2025*)

LSD, Hippies, Computer und die Welt von heute

We create tools, then we mould ourselves to our use of them” JZ Young zitiert* im Film The Net – the Unabomber, LSD and the Internet | Lutz Dammbeck [2003]

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Der Film folgt den Spuren der Kybernetiker, den Hippies, dem Internet und warum Ted Kaczynski der Unabomber wurde. Hier liegen einige interessante Hintergründe für den Aufstieg der Ideen des Silicon Valleys… Ich bekam den Tipp von einem Zuschauer bei der Weizenbaum-Veranstaltung gestern, daher teile ich das hier gern. Es passt in das fortgeführte Bild und die Einträge zum Silicon Valley und der Technoelite, wie wir sie heute erleben….

*Zitiert von John Brockman, von dem inzwischen Verbindungen mit Jeffrey Epstein bekannt sind, die für dieses Zitat keine Rolle spielen. 

Palantir – Film und Analyse

Ein weiteres Posting aus der Abteilung Silicon Valleys Techno-Faschisten

Am 13.2. gab es im Weizenbaum-institut eine Vorführung des Films Watching You – Die Welt von Palantir und Alex Karp von Regisseur Klaus Stern, der auch anwesend war. Ein kleiner Trailer als Appetiizer hier schon mal:

Klaus Stern: Watching You, 2024

Nach dem Film gab es auf der gut besuchten Veranstaltung eine Diskussion mit dem Regisseur, mit Constanze Kurz (CCC / netzpolitik.org, 3 Fragen an CK bei Weizenbaum), Lena Ulbricht (Weizenbaum-Institut / Universität Hildesheim) und Simon Egbert (Universität Bielefeld). Dass hier kein Fanclub von Palantir saß, war klar, das hatte das Publikum auch nicht erwartet und so gab es spannende Information zu den Hintergründen des Film, der Verfassungsklagen gegen die Nutzung der Software durch deutsche Polizeibehörden (wozu es auch schon ein erfreuliches Urteil gibt), sowie zu Forschungen zu dem Thema von Simon und Lena.

Stasi, Staat, Überwachung

Eher per Zufall bin ich in einer Buchhandlung in Greifswald auf dieses Buch hier gestoßen: Der Freund. Im Visier der Stasi, von Peter Volkmann. Ein Roman, halb autobiografisch, der sehr beklemmend die Geschichte der Repression, der Überwachung, der perfiden Macht des DDR-Regimes, der Stasi und der Vergiftung einer ganzen Gesellschaft beschreibt. Lesenswert, nicht immer angenehm.

Hier ein Interview mit dem Autor bei DeutschlandFunk Kultur vom 5.11.2024: Wenn der Freund ein Stasi-Spitzel ist.

Machines that fail us

Ein Hinweis auf einen interessanten Podcast aus St. Gallen.

A podcast by the Media and Culture Research Group at the University of St. Gallen about the human rights implications of AI errors and failures and our future with artificial intelligence.

Machines that fail us

Gehören tut er wohl zum Human Error Project, https://thehumanerrorproject.ch, welches u.a. mit folgenden Gedanken die Hintergründe für seine Forschung bescheibt.

But are these machines objective and fair in judging us? Our answer is no. These technologies are often used to make the process of decision making more efficient and objective and to ‘avoid the human error’. Yet paradoxically they are filled with systemic ‘errors’, ‘biases’ and ‘inaccuracies’ when it comes to human profiling.