Category: Algorithmen

Alexa als totalitäre Technologie?

Adrian Lobe denkt in der NZZ darüber nach, ob Alexas Stimmenerkennung nicht zu totalitären Ergebnissen führen könnte. Lesenswerter Kommentar zu einer immer alltäglicheren Technologie.

Sprachgesteuerte Computer: An meiner Stimme merkt Alexa bald, dass ich krank bin, bevor ich selber es weiss (NZZ 10.4.2019)

Eine Gesellschaft, in der Kommunikation und letztlich auch Mitsprache nur noch biologisch vermittelt ist, ist totalitär. Womöglich müsste man sich angesichts der Ubiquität der Sprachsteuerung Gedanken über eine Verschlüsselung seiner Stimme oder eine künstliche Taubheit von Maschinen machen, um seine Identität und Souveränität zu wahren. Wenn künftig Maschinen unser innerstes Seelenleben offenlegen und den binären Code Sagen/Nichtsagen zu einer Aussagepflicht umcodieren, dann droht das Kommunikationssystem einzustürzen. Und die freie Gesellschaft, die darauf aufbaut, auch.

Ungeklärt oder wenig beschrieben sind nach wie vor die individuellen und gesellschaftlichen Bedürfnisse, die hinter den Wünschen stehen solche Gimmicks zu haben und zu nutzen – aber was tut man nicht alles um modern zu sein oder zu wirken.

Plattformen und die zukünftigen Gesellschaften

Fahrdienste mit oder irgendwann mal ohne Fahrer sind ja gerade der letzte Schrei. Ich nehme mal den kurzen Nachrichten-Beitrag von NDR Info als Anlass um über ein paar Dinge nachzudenken, inbsbesondere den Grund, warum es möglicherweise lohnt einen kritischen Blick zu riskieren.

Interview zu Big Data Policing

Interview mit Andrew Ferguson, Autor von The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement (hier eine Rezension in diesem Blog).

Chris Richardson spricht mit Ferguson über sein Buch und das Thema Predictive Policing in einem Wissenschaftspodcast “This is not a Pipe Podcast.”

28.3.2019

Überwachung und Klima, Forts.

Gewissermaßen als Fortsetzung des Beitrages zu Überwachung und Klimaschutz (Pol. Feuill. bei Dradio), hat Adrian Lobe jetzt eine Antwort darauf in seiner Kolumne Lobes Digitalfabrik geschrieben (Spektrum der Wissenschaft, 13.3.2019):

Mit Überwachung das Klima retten?

Und er hat ein gewichtiges Argument, dass die Lösung Digitalisierung wohlmöglich in ein anderes Licht setzt – an dem wir aber auch nicht vorbeikommen:

Big Data verbraucht selbst jede Menge Energie. Laut einem Bericht von »Climate Home News« könnte die Datenproduktion bis 2025 20 Prozent des weltweiten Strombedarfs ausmachen. Bis 2040 könnte die Kommunikations- und Informationstechnologie sogar für 14 Prozent der globalen Emissionen verantwortlich sein

Die digitale Zukunft und mit ihr die Überwachungsfantasien der Smart Cities und anderer Pläne wären somit auch schädlich fürs Klima – die alleinige Lösung scheint das also nicht zu sein, wie aber dann?

Der automatisierte Mensch

Ich hatte ja neulich gesagt, dass ich mich frage, ob es noch wirkliches Neues in der Forschung zu Überwachung gibt – Theorien, Felder Anwendungen? Ich bin mir manchmal nicht sicher. Das Feld der Vorhersage, momentan vor allem im Hinblick auf polizeiliche Ermittlungen disktutiert, ist so ein Feld, das mir in den Sinn kommt.

Seit einiger Zeit macht die Harvard-Professorin Shoshana Zuboff mit ihrem Überwachungskapitalismus von sich reden (Eine Kritik des Buches folgt hier im März). Dabei ist vor allem ihr Gedanke zur Automatisierung des Menschen ganz interessant.

Wirklichkeitstechnologien der Kontrolle

Unter dem Titel Tech-Konzerne formatieren die Wirklichkeit (19.12.2018, SZ Online) hat der von mir sehr geschätzte Journalist Adrian Lobe sich Gedanken zur Entwicklung der Zukunft unter den Bedingungen digitalter Technologien gemacht, vor allem wenn diese durch quasi monopolhafte Unternehmen vertreten bzw in unsere Welt gebracht (und entsprechend kontrolliert) werden.

Eine seiner Thesen dabei ist, dass

während Maschinen immer mehr wie Menschen reden, [kommuniziert] der Mensch zunehmend in Maschinencode kommuninziert.

Zu den ohnehin schon guten Gedanken, noch ein paar weitere von mir, inspriert durch den Artikel.

Mit künstlicher Intelligenz Verbrecher fassen

Zugegeben, dass ist kein neues Thema, aber hier ein schöner Artikel dazu.

New Scientist, 26 November 2018: Exclusive: UK police wants AI to stop violent crime before it happens.

Verbrechensvorhersage (generell wohl die Vorhersage aller gesellschaftlichen Entwicklungen, die von Interesse für entweder den Staat in puncto Sicherheit oder die Unternehmen in puncto Umsatz sind) sind die neuen Videokameras, zumindest was die Aufmerksamkeit in den Medien und die Beherrschung des Diskurses in den unterschiedlichen Kontexten angeht. Gewöhnen wir uns draun und diskutieren mit, u.a. bei der Ringvorlesung zu Polizei.

Datenpunkte im Informationszeitalter

Der österreichische Rundfunk (Ö1) hat in seinem Radiokolleg die wundervolle Sendereihe “Datenpunkte im Informationszeitalter” produziert, die derzeit noch in der Mediathek angehört werden kann (man kann sie auch runterladen, muss sich dazu aber registriert)

Die Sendung vom 20.11. beschäftigt sich u.a. mit der Rasterfahndung. Die Autorinnen sind Julia Gindl und Sarah Kriesche (u.a. Surveillance Studies-Preisträgerin), die die gesamte Kolleg-Reihe konzipiert haben.

Neue Literatur: Predictive Policing

Für European Journal for Security Research haben Jens Hälterlein und Lars Ostermeier ein Special Issue zum Thema Predictive Policing zusammengestellt.

European Journal for Security Research, Volume 3, Issue 2, October 2018: Predictive Security Technologies

Als Autoren mit dabei: Simon Egbert, Dominik Gerstner, Lena Ulbrichtm, Robert Pelzer sowie Katharina A. Zweig, Georg Wenzelburger & Tobias D. Krafft.

Online frei verfügbar ist die Einleitung, alle weitere wohl über entsprechende Unizugänge oder gegen Geld.

Einen Bericht von einer Konferenz in Basel (Sept. 2018) zum selben Thema findet ihr auf dem Blog Rechtswirklichkeit. Das Blog des Berliner Arbeitskreises Rechtswirklichkeit.

Internet-Ökonomie: Es geht nicht um Privacy

Ein Artikel aus der New York Times zur Diskussion zu Privatsphäre (privacy) und warum eine Konzentration darauf nicht der richtige Punkt ist. Ähnliches gilt in Deutschland für die Datenschutz-Debatte, da nicht zuletzt die DGSVO weniger unsere Daten schützt, als dass damit erklärt wird, wie Daten benutzt werden.

What is at stake here isn’t privacy, the right not to be observed. It’s how companies can use our data to invisibly shunt us in directions that may benefit them more than us.

Just Don’t Call It Privacy, New York Times, 22.9.2018

Buch des Lebens – Google und der Wissensdurst

Beängstigende Zukunftsvision, radikaler Denkanstoß? Die Meinungen über das Video “The Selfish Ledger” von Google gehen auseinander.

Sicher ist, dass die Idee verstört, ein Protokoll des ganzen Lebens in all seinen Verästelungen würde dort erstellt und vorgehalten. Für wen? Unklar. Auch warum das gut sein soll ist nicht offensichtlich. Für das “gute Leben”, das dann von den Maschinen gelesen, gesteuert und bewertet wird? Die SZ und FAZ haben dem Video längere Texte gewidmet: