Utopien des Sozialen – Demokratie als Risikofaktor

In einem Artikel vom 18.12.2019 schreibt Adrian Lobe über Prognose-Dystopie: Demokratie als Risikofaktor (SZ).

Im wesentlichen geht es um die tieferen Implikationen und Konsequenzen von Vorhersagen, wie sie verbunden mit den Begriffen KI Algorithmen sowie Big Data gegenwärtig sehr en vogue sind. Die Vorausschau als Bedürfnis von Regierungen, die mit den neuen Technologien nun endlich, so meinen viele ihrer Vertreter, das Mittel gefunden haben die Zukunft zu kontrollieren (vgl. dazu auch meinen Aufsatz in der APuZ, 25.4.2014).

In dem Artikel von Adrian Lobe kommen eine Reihe von interessanten Beobachtungen vor, u.a. diese:

Regieren wird zu einem technokratischen Risiko- und Prozessmanagement: Input, Output, fertig.

Dieser Einschätzung kann ich mich sehr gut anschließen. Und auch einer weiteren von Adrian Lobe:

Was an diesem datengetriebenen, deterministischen Governance-Modellen irritiert, ist ja nicht nur die materielle Aushöhlung des Politischen und Ausschaltung diskursiver Verfahren, sondern auch, dass die Zukunft nicht mehr als gestaltbarer Möglichkeitsraum begriffen wird, sondern als latente Bedrohung, ein Risiko, das es zu “managen” gilt – mit der bitteren Pointe, dass Utopien unter dem Datenregime unter Ideologieverdacht stehen, weil sie nicht berechenbar sind.

Politik verliert die Fähigkeit und gibt den Anspruch auf zu gestaltungen, sondern wird zu einer Form des Management. Dass diese Ideen Teile von digitalen Utopien aus dem Silicon Valley sind, ist wenig überraschend. In einem (leider nicht erfolgreichen) Antrag zu diesem Thema, habe ich genau diese Entwicklung und ihre ideologischen Hintergründe in den Blick nehmen wollen – hier ein kleiner Auszug:

Da mit der Digitalisierung auch Wünsche und Hoffnungen verbunden sind, bieten sich als Untersuchungsgegenstand Entwürfe einer Zukunft an, die auf eben diese digitalen Technologien zur Verbesserung von Welt setzen und hier mit dem Begriff der sozialen Utopien des Digitalen bezeichnet werden sollen (vgl. hierzu u.a. Turner 2008; auch Markoff 2005). Insbesondere handelt es sich dabei um Konzepte und Vorschläge, wie man unter Zuhilfenahme von Algorithmen und dem, was man mit „Big Data“ bezeichnet, bessere Vorhersagen über die Zukunft sowie das menschliche und soziale Verhalten machen kann, um so letztlich Gesellschaft besser planen zu können. Solche Entwürfe gibt es vielfach aus dem Umfeld der großen im Silicon Valley (Kalifornien, USA) ansässigen Unternehmen wie etwa Google (unterhält das Government Innovation Lab, vgl. Hamann et al 2014; Siemons 2015), Amazon, einzelner Internet-Entrepreneure (z.B. Peter Thiels Vorschläge zu einem Libertarian Island,  vgl. auch Denuccio 2015) oder von Wissenschaftlern wie Parag Khanna (Technocracy in America. Rise of the Info-State 2017, zur Kritik vgl. Lobe 2017). In solchen Idealvorstellungen einer neuen, durch die Technik bestimmten Welt, lassen sich auch die Ideen ihrer Regelung ablesen, also Vorstellungen davon, wie eine Gesellschaft (nicht nur in der Zukunft) sein sollte. Diese Utopien verweisen auch auf gegenwärtig vorhandene Weltbilder, die im Zuge einer Digitalisierung gesellschaftlich relevant werden können. Auch ohne solche Zukunftsvorstellungen oder Utopien ist anzunehmen, dass eine Digitalisierung, die alle Lebensbereiche umfasst, einen Einfluss auf die Modi sozialer Kontrolle haben wird. Die Frage ist, wie sich der Einfluss bzw. die Wechselwirkungen zwischen Digitalisierung, Normengenese und Kontrolle untersuchen lassen. Eine systematische Untersuchung vorhandener Vorstellungen bietet die Möglichkeit eine Grundlage der Ideen zu erarbeiten, die mit der Digitalisierung verbunden ist, bzw. den ideologischen Hintergrund liefern. Bisher wurden diese vor allem journalistisch beachtet. Diese Darstellungen bieten somit nur Anhaltspunkte, jedoch keine tieferen, systematischen Erkenntnisse. (Nils Zurawski 2018)

Jenseits von den ethischen Rahmenbedingungen, die momentan allerorten als wichtigstes Element im Umgang mit KI und Algorithmen gesehen werden, muss man, so meine ich, tiefer graben um eine Kultur der KI freizulegen und diese zu untersuchen. Denn nur den Umgang mit Technologie zu regulieren, was die meisten Anstrengungen in Richtung Ethik ja tun und wollen (ohne das ich das in Frage stellen möchte), ist zu wenig, wenn man damit eben nicht an die Wurzeln der Ideen geht, die hinter den Anstrengungen stehen, den Menschen zu kopieren, Werkzeuge zu finden, die seine Mühen das soziale Zusammenleben auszuhandeln, seine Institutionen zu erhalten und den jeweiligen Bedürnissen der Zeit nach demokratischen Aspekten einzurichten, mit neuen Technologien abzuschaffen oder so umzugestalten, dass allenfalls neue Formen totalitärer Herrschaft möglich sind. Management statt Gestaltung. Das das Totalitäre daran nicht so sichtbar ist, dafür sorgt dann ein Kontext, der so Technik-verliebt modern ist, dass die Technologien aussehen, wie die Erfüllung unserer innersten Bedürnisse, obschon die Logik und Kausalität genau anders heraum gewesen ist.

In Kürze mehr zu KI und warum der Blick auf eine Kultur der KI so wichtig ist.

 


Erwähnte Referenzen

  • Lobe, Adrian (2017). Mit Befehl und Bing, Bing, Bing. In Süddeutsche Zeitung, 13. Februar 2017, S. 13.
  • Khanna, Parag (2017). Technocracy in America. Rise of the Info-State. CreateSpace.
  • Hamann, Götz, Khuê Pham & Heinrich Wefing (2014). Die Vereinigten Staaten von Google, In Die ZEIT, 7. August 2014, S. 11-13.
  • Markoff, John (2005). What the Dormouse Said: How the Sixties Counterculture Shaped the Personal Computer Industry, New York, Penguin Random House.
  • Siemons, Mark (2015). Google oder die Abschaffung der Politik, in Frankfurter Allgemeine Zeitung, 1. November 2015, S. 47.
  • Turner, Fred (2008). From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism. Chicago, Univ. Chicago Press.