Neulich habe ich Minority Report gesehen. In dem Film entkommt Tom Cruise der überall präsenten persönlichen Erkennung, indem er operativ seine Augen austauschen lässt. Was Regisseur Stephen Spielberg 2002 als dystopische Zukunftsvision zeichnete, ist heute von der Realität überholt worden. Die eigenen Augen auszutauschen ist zwar radikal, würde aber in der Realität, in der wir heute leben, auch nicht helfen. Denn Menschen werden nicht über ein einziges Merkmal wie Fingerabdruck, Retina-Struktur oder Physiognomie erkannt.
Am 18. Januar 2020 veröffentlichte die New York Times eine Recherche, die sämtliche Überwachungsfantasien aus Hollywood in den Schatten stellt. Es geht darum um "Clearview AI", einen Dienst, den der Australier Hoan Ton-That entwickelt hat und der inzwischen von mehr als 600 Polizei- und Ermittlungsdienststellen und Sicherheitsfirmen in den USA genutzt wird. "Clearview" kann fast jeden Menschen erkennen, und das schon anhand teilweise verdeckter oder unschafter Bilder.
Grundlage der Technik ist etwas, was verboten ist:
"You take a picture of a person, upload it and get to see public photos of that person, along with links to where those photos appeared. The system — whose backbone is a database of more than three billion images that Clearview claims to have scraped from Facebook, YouTube, Venmo and millions of other websites — goes far beyond anything ever constructed by the United States government or Silicon Valley giants."
Wer ein Bild einer Person hochlädt, bekommt von Clearview alle Fotos angezeigt, die von dieser Person im Internet auffindbar sind. Das geht, weil Clearview einfach alle hochgeladenen Fotos, die sie finden können, durch einen Vergleichs-Algorithmus jagt, egal von wo. Die New York Times berichtet von "employment sites, news sites, educational sites, and social networks including Facebook, YouTube, Twitter, Instagram and even Venmo". Das Ergebnis für den Polizisten an der anderen Seite ist dann eine Liste mit allen Netz-Fundstellen für Personen, die der Algorithmus als identisch mit dem hochgeladenen Suchbild identifiziert hat. Das hilft dabei, Verdächtige zu identifizieren, auch wenn die Treffer nicht alle korrekt sind.
Die Trefferquote liegt laut Firmenangabe bei 75 %. Die Bilderkennungsalgorithmen sind inzwischen so leistungsfähig. Clearview bedient sich als Quelle aber nicht nur bei offiziellen Bildern, die für Sicherheitsbehörden schon immer durchsuchbar waren. Clearview nutzt einfach jedes Bild, das sie finden können. Das ist in den Nutzungsbedingungen der Social-Media-Plattformen explizit ausgeschlossen – Konsequenzen hat der Verstoß aber offenbar keine.
In unserer bildreichen Zeit wird damit fast jeder in der zivilisierten, social-media-getriebenen Welt direkt identifizierbar. Die Technik sieht laut NYT sogar eine Integration für Augmented Reality vor. Die Brille oder sogar Kontaktlinse, die jeden identifizieren kann, der einem begegnet, wäre damit nicht mehr weit weg. Die Wahl, ob und wie weit wir unsere Identität offenlegen, hätten wir in dieser Welt dann gar nicht mehr.
Clearview existiert, weil sein Gründer Hoan Ton-That kein einziges moralisches Hindernis gesehen hat, die Technik zu bauen. Technisch möglich war das schon, die inverse Bildersuche von Google oder Dienste wie TinEye gibt es schon seit Jahren. Clearview ist aber die erste Anwendung, die sämtliche moralische Grenzen um vollständige Gesichtserkennung übertritt.
Immerhin verzichtet Horst Seehofer erstmal auf seinen Wunsch nach Gesichtserkennung auf deutschen Bahnhöfen und Flughäfen. San Francisco hat seiner Polizei verboten, Gesichtserkennung einzusetzen. Aber ohne einen flächendeckenden gesetzlichen Konsens, dass wir diese Technik nicht wollen, hat Clearview den Damm der letzten Hoffnung zur Erhaltung von Anonymität endgültig gebrochen.
Für eine freie Gesellschaft ist das problematisch, weil es das Recht auf Selbstbestimmung wirkungslos macht. Freiheit bedeutet auch, dass ich selbst entscheiden kann, wem ich was von mir erzähle. Ich habe mich schon mehrfach dafür ausgesprochen, dass Datenschutz gegenüber der Notwendigkeit von Kommunikation zurücktreten müsse. Dabei gehe ich aber immer von einer grundsätzlichen Notwendigkeit der Zustimmung zur Nutzung der eigenen Daten aus. Clearview schert sich nicht um Zustimmung und ist im Grunde ein Datenleck allererster Güte, auch wenn es nicht überraschend kommt. Nicht einmal das Prinzip der Verdachtsabhängigkeit von Ermittlungen, an das sich Polizei und Sicherheitsbehörden schon noch halten müssen, wird bei der Sammlung der Bilder berücksichtigt. Denn damit eine Anwendung wie Clearview wirklich funktioniert, braucht sie die größtmögliche Datenmenge. Datensparsamkeit wäre da – wie bei allen Big-Data-Anwendungen – das genaue Gegenteil.
Im NYT-Artikel beklagt sich Clearview-Gründer Hoan Ton-That übrigens, dass Sicherheitskameras heutzutage einfach falsch positioniert seien. Sie würden zu hoch angebracht, "der Winkel ist schlecht für gute Gesichtserkennung". Überwachung auf Augenhöhe – da sind wir dann wieder bei Minority Report. Nur dass die Gegenwart noch viel schlimmer ist.
Vielen Dank für's Lesen und Mitdenken!
Im Blog Confessio Digitalis schreibe ich meine Beobachtungen, Links und Interviews zu den Themen Digitalisierung, Digitale Kirche und digitalisierte Welt auf. Ich bin erreichbar auf Twitter als @dailybug.
P.S.: Leser*innen haben mich darauf hingewiesen, dass Digitalis auch der Name der Fingerhut-Pflanzen ist, die zu Gift verarbeitet werden können. Das lässt den Blogtitel Confessio Digitalis natürlich ein bisschen fies klingen. Andererseits behandelt man mit Digitalis-Präparaten auch Herzprobleme. Und dass das digitale Herz der Kirche besser schlägt, ist mir ein Anliegen. Deswegen lasse ich den Namen des Blogs so - nehmt es als Präparat!