Kategorie: Kommentar

Die Zukunft ohne Menschen

Nun ist die Vorstellung, dass eine Zukunft ohne Menschen dem Planeten, dem Klima und der Umwelt nicht unbedingt schaden würde, nicht tröstlich, aber doch eine Warnung, was wir als Spezies bereits alles verbockt haben. Die Ideen aus dem Silicon Valley zu dem Thema gehen allerdings in ganz andere Richtungen, haben quasi religiöse Züge mit KI als Gottheit (oder Götzen) und irgendwas mit digital. Wer weiß schon was passiert – aber warum die Tech-Freaks und Gurus aus Californien davon so begeistert sind und was das mit dem jetzt zu tun hat, diskutiert dieser Skeet auf Bluesky.

Silicon Valley is run by people who genuinely think the world as we know it is going to end in the next few decades. Many also WANT this to happen: they WANT the biological world to be replaced by a new digital world. They WANT „posthumans“ to take the place of humans. A ?:

— Dr. Émile P. Torres (@xriskology.bsky.social) 25. April 2025 um 21:58

Telepolis und die Vergangenheit des Internet

Das Telepolis einige Jahre auch der Sponsor des Surveillance Studies-Preises war, möchte ich an dieser Stelle diesen Artikel aus der Zeitschrift Kontext nicht vorenthalten. Ich finde das ebenso wunderlich wie der Autor selbst. Was ist passiert? Telepolis“-Archiv gelöscht. Das Internet vergisst. Hier als Kurzzusammenfassung der Teaser:

Eines der ältesten Online-Magazine der Republik hat alle Artikel gelöscht, die dort vor 2021 erschienen sind. Der frühere „Telepolis“-Chefredakteur Florian Rötzer verweist auf große Löcher im digitalen Gedächtnis. Was dokumentiert bleibt, entpuppt sich als Machtfrage.

KI, dicke Dollars und Halluziationen

Dieser Text von Constanze Kurz und Stefan Ullrich ist eine echte Empfehlung. Vor allem, weil er eine sehr schöne Illustration zur symbolischen Bedeutung von KI in vielen gegenwärtigen Diskursen ist – was wollen wir sehen, worauf springen wir, die Wirtschaft, all die „Gläubigen“ an, die sich von KI das Heil erhoffen. Technologie als Symbol, vor allem aber als Marketing-Hype. Das Zitat aus dem Text bringt es auf den Punkt.

Wir müssen dringend kurz noch über diese „Halluzinationen“ sprechen. Es wird fälschlicherweise davon ausgegangen, dass die Maschine halluziniert. Es sind aber tatsächlich die Menschen, die Täuschungen unterliegen und die LLM-Ergebnisse schlicht überinterpretieren. Es ist ein bisschen so, wie wir Figuren in den Wolken zu erkennen glauben.

Technologie als Gesellschaftsmechanik

Zugegeben eine etwas sehr grobe, pauschalisierende Überschrift, mit der ich die letzten Posts fortsetzen möchte und damit auf die auch im Film vorkommende Macy-Konferenzen hinweisen möchte.

Auf dieser Serie von Zusammenkünften – 10 Konferenzen zwischen 1946 und 1953 – wurden die Grundlagen dessen gelegt, was unter dem Namen „Cybernetics“ bekannt wurde. Eine sehr amerikanische Veranstaltung, wo Menschen (hauptsächlich Männer) aus verschiedenen Disziplinen zusammenkamen und über den neuen Menschen mit neuen Technologien zu sprechen. Aus soziologischer Sicht kann man durchaus sagen, dass hier über eine neues Menschenbild nachgedacht wurde, welches auch auf Grundlage der damaligen technischen Möglichkeiten eine Hinwendung soziale Mechanik, zu menschlicher Beeinflussung – Psychologen waren ebenfalls anwesend – erkennen ließen. Die heutigen Tech-Bros, die Oligarchen, die schon länger unsere digitale Welt prägen, nehmen ihre häufig anti-demokratischen Ideen aus den dort gelegten Grundlagen.

As Hayles laments in “How We Became Posthuman,” the Macy conferences helped usher in a world where everything—including our subjectivity—could be reduced to flows of fungible information, information that can be commodified and manipulated. From this perspective, the Macy conferences were a first salvo in what Haraway would call the “Informatics of Domination,” (Haraway, 1991), in which, as Bateson later suggested, “control” was elevated over “communication” (Bateson, 1991). (vgl. Collins 2025*)

Und dann noch: Nein!

und weil es gerade an der Zeit ist, nutze ich diesen Blog, der sonst eher sehr thematisch gehalten ist, für diese Botschaft: Sage nein! Das Video ist schon älter, der Song noch mal mehr, aber die Zeit ist eben nicht vorbei und momentan ist es wichtig und höchste Zeit!

Und letztlich hat auch Überwachung viel mit dem Faschismus zu tun, den wir in den USA gerade am Werke sehen und der auch hierzulande in die Hirne, Herzen und vor allem in die Parlamente kriecht. In diesem Sinne: Sage nein!!

Silicon Valleys Techno-Faschisten

Das ist ein wichtiger Punkt, ob in diesem Artikel oder woanders – und an anderen Stellen (oder hier) habe ich diesen Punkt auch und immer schon mal hervorgehoben: Dass Silicon Valley erscheint liberal, coole Büros und irgendwie woke, aber das täuscht und jetzt wird es umso wichtiger darauf zu schauen, wenn es in den USA nicht gerade schon zu spät ist.

Headed for technofascism’: the rightwing roots of Silicon Valley (Guardian, 29.1.2025 von Becca Lewis)

An influential Silicon Valley publication runs a cover story lamenting the “pussification” of tech. A major tech CEO lambasts a Black civil rights leader’s calls for diversifying the tech workforce. Technologists rage against the “PC police”.

No, this isn’t Silicon Valley in the age of Maga. It’s the tech industry of the 1990s, when observers first raised concerns about the rightwing bend of Silicon Valley and the potential for “technofascism”. Despite the industry’s (often undeserved) reputation for liberalism, its reactionary foundations were baked in almost from the beginning. As Silicon Valley enters a second Trump administration, the gendered roots of its original reactionary movement offer insight into today’s rightward turn.

Biodaten, Überwachung, „Rasse“

Die Story bekommt man so in aller Kürze gar nicht zusammengefasst: ‘Race science’ group say they accessed sensitive UK health data (Guardian 17.10.2024). Sie zeigt aber warum diese abstruse Geschichte auch für ein Blog wie diesen hier interessant ist.

Wie überkommene, falsche, absurde, aber immer weiterlebende „Rasse„-Theorien (race kllingt zwar weicher und wird im englischen Sprachraum zwangloser benutzt, dadurch wird das Konzept dahinter aber nicht besser) benutzt werden, um Menschen zu kategorisieren hat gerade wegen der Kategorisierungen eben auch mit Überwachung zu tun. David Lyon nennt es Social Sorting, wobei er nicht nur vermeintlich ethnische Merkmale (was immer diese sein könnten) mein, sondern allgemein soziale Aspekte, die sich klassifizieren lassen.

Dass es in dem Artikel auch um DNA-Daten von britischen Bürgern in der UK-Biobank geht, ist dann der weitere Link zu den Themen des Blogs. Datenschutz, biometrische Daten, Datensammlungen und vor allem ihre Auswertung für zweifelhafte Forschungen und Zwecke, wie der Artikel es nahelegt – immerhin geht es um „race science“ eingedeutscht etwa „Rassenkunde“.

Erlösung, Technik und Faschismus

Über die religös-technologisch-faschistischen Totalitarismus-Fantasien einiger millardenschwerer Tech-Gurus ist hier und anderswo bereits berichtet worden. Weil ich ein paar scheinbar von einander losgelöste Beiträge gehört/gelesen haben, sei auf diese hier nochmal verwiesen.

Totale Zerstörung des Staates. Trumps Milliardäre träumen von rechter Tech-Diktatur, bei n-tv, 14.10.2024

Scan or no scan?

Gesichtserkennung ist auf dem Vormarsch, nicht länger Science Fiction, sondern schon bei einfachen Videokameras im öffentlichen Raum Gang und Gebe. Ob das immer so funktioniert, wie gewünscht und ob nicht auch hier die Symbolhaftigkeit der Technologie bei der Verbreitung eine entscheidende Rolle mitspielt. Wie auch immer.

Meist ist die Polizei einer der Treiber dahinter (sehr häufig!), die damit fahnden und erkennen will oder das ganze auch international abgleichen möchte, um auch grenzüberschreitend zu fahnden.

Spätestens als das lang gesuchte RAF-Mitglied Daniela Klette damit gefunden wurde, hat das Bedürfnis nach solcher Art von Technologie noch einmal zugenommen. Hier bezogen auf das Internet, aber letztlich ist es unerheblich, welche Art der Bilder in den Blick genommen werden sollen.

Der Widerstand dagegen ist gering, die Aufmerksamkeit scheint nur bei wenigen Spezialisten zu liegen, wie die beiden verlinkten Artikel zeigen. Ob man hierzulande auch eine Ächtung dieser Technologie erreichen könnte, wie dieses eine New Yorker Initiative für ihre Stadt erreichen will, wage ich zu bezweifeln. Darüber zu sprechen könnte sich aber lohnen, denn die mehr oder weniger schleichende Einführung dieser Technologie sollte nicht einfach ohne Diskussion über diese Technologie, die Wünsche, Hoffnungen und ihre Bedeutung im Kontext einer inneren Sicherheit ablaufen. Dafür steht zu viel auf dem Spiel – diesseits von Science Fiction!!

Technik, Probleme, Sicherheit

Wenn Du glaubst, dass Technologie deine Probleme lösen wird, verstehst Du weder Technologie, noch Deine Probleme.

(Laurie Anderson im Zeit Magazin Nr. 35, 15.8.2024, S. 38.)

Die New Yorker Avantgarde-Künstlerin antwortet mit diesem Bonmot, in der Rubrik „was ich gern früher gewusst hätte“ auf eben diese Frage.

Ich finde das Zitat bringt auf den Punkt, was Forschenden von Technik vor allem im Bereich der Überwachung (aber auch anderswo) immer wieder entgegenspringt, nämlich die Verbindung von Technik (sehr bliebt: Videoüberwachung oder Biometrie, oder beides in einem, usw.) dem Phänomnen der Sicherheit, welches als Gefühlt bei den Bürger:innen gestört oder zumindest beeinträchtigt ist und der Lösung eines oft sozialen Problems, wie ein unspezifische Kriminalität, Verwahrlosung öffentlicher Orte, dergleichen halt.

Polizeilicher Umgang mit Vorwürfen

Im Cilip Heft 134 (April 2024) findet sich ein sehr lesenswerter Artikel von Riccarda Gattinger, der sich mit dem Polizeilichen Umgang mit Vorwürfen auseinandersetzt. Sie schildert darin sehr nachvollziehbar die unterschiedlichen Reaktionen von Polizei auf Vorwürfe, insbesondere auf solche, die Rassismus und Diskrimierung adressieren und wie sie von Gattinger besonders beachtet werden. Als ergänzenden Vorschlag zu ihrem Artikel fiel mir eine kleine Skizze ein, die ich für mich verfasst hatte, die sich mehr oder weniger genau damit beschäftigt, vor allem damit, wie sich dieses Thema möglicherweise theoretisch rahmen ließe. Hier ist der Auszug, vielleicht für manchen eine hilfreiche oder einfach auch nur interessante Ergänzung.

Tödliche Algorithmen?

Zugegeben, der Titel ist eher eine dubiose Schlagzeile, denn ein seriöse Überschrift. Dennoch, der Artikel aus der New York Times über Risikoeinschätzungen zu häuslicher Gewalt lassen diese Verbindung zumindest als Schlagzeile zu, wenn es auch so nicht stimmt. Algorithmen töten nicht. Ihre Bedeutung bei der Entscheidungsfindung allerdings erreicht zunehmend immer neue Bereiche, auch Bereiche, in denen es um sensible Einschätzungen gehen kann, wie hier im Fall von Sicherheit und Unsicherheit von Opfern häuslicher Gewalt – was dann bei falscher Einschätzung zu tödlichen Konsequenzen führen kann.

An Algorithm Told Police She Was Safe. Then Her Husband Killed Her. NY Times, 18. Juli 2024

Nun sind solche fatalen Einschätzungen nicht allein auf Algorithmen zu schieben. Auch Menschen können sich entsprechend irren, wenn man das so nennen mag, bzw. Entscheidungen treffen, deren Grundannahmen problematisch sind, weil man z.B. Frauen nicht glaubt, Vorwürfe häuslicher Gewalt für Hysterie hält oder dergleichen. Das scheint hier nicht der Fall zu sein – im Gegenteil besteht eine hohe Aufmerksamkeit für das Thema und mit einem Algorithmus will man diese noch verbessern.