Gesichtserkennung vs. Pornographie

Der NSA/GCHQ-Skandal wird täglich interessanter. Der schönste Aspekt der jüngsten Enthüllung des Guardian (wonach der britische Geheimdienst offenbar weitgehend ungefiltert die Webcams von Yahoo-Kunden mitgeschnitten hat) ist, dass offenbar ein relevanter Anteil an Material darunter war (nach einer statistischen Schätzung des GCHQ: 7.1%), dass von den Spionen als “undesirable nudity” eingestuft wurde. Um seine empfindsamen Angestellten vor dem Material zu schützen(!) und das System “safer to use” zu machen, wurde offenbar eine Software zur automatisierten Gesichtserkennung eingesetzt. Da Gesichter bekanntermaßen nicht das Hauptmotiv von pornographischem Material darstellen, ist das wohl eine kluge Lösung. Allerdings arbeitete die Software wohl nicht perfekt, wie im Dokument eingestanden wird:

“there is no perfect ability to censor material which may be offensive. Users who may feel uncomfortable about such material are advised not to open them”.

Daraus lässt sich ein schöne Frage basteln: Wenn wir alle nackt herumrennen und Obszönitäten ins Telefon schreien, wären wir dann sicher vor Überwachung?

Ein Kommentar

  1. Christian sagt:

    Wie Charles Stross bzw. Rene Walter richtig festgestellt haben (siehe: http://www.crackajack.de/2014/02/28/porn-pareidolia-in-gchqs-yahoo-webcam-surveilance-pic-nsfw-kinda/), bedeutet dies angesichts der demographischen Verteilung der Internet-/ Yahoonutzern auch, dass der britische Geheimdienst eine beachtliche Sammlung kinderpornographischen Materials zusammengeklaubt haben dürfte.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *