Wall-E oder Terminator? Der Streit um die KI-Zukunft
Müssen wir wissen, ob am anderen Ende der Leitung eine Maschine sitzt? Google hat seinen neuen Sprachassistenten "Duplex" präsentiert. Erstmal nur ein Test - aber einer, der große Wellen schlägt. Es geht um nichts weniger als das Primat des Menschlichen.

Es sollte nur eine Demo sein, wie ein Sprachassistent mit einem Friseursalon einen Termin vereinbart. Was Sundar Pichai, Googles CEO, auf der Googles Entwicklerkonferenz I/O vorstellte, war aber nicht nur eine einfache Demo. Es war ein Moment, der die kommenden Herausforderungen für den Umgang mit Technologie in ein scharfes Licht rückt: Wie gehen wir damit um, wenn wir Maschinen nicht mehr von Menschen unterscheiden können?

Was war passiert? Der Sprachassistent, der eigenständig einen Friseurtermin vereinbart, ruft in der Präsentation eigenständig einen Menschen an. Am anderen Ende der Telefonleitung erkennt die angerufene Person nicht, dass sie von einer Maschine angerufen wurde. "Google Duplex" fügt dabei auch "ähs" und "ems" ein und erscheint dadurch echter.

Das Publikum bei Google I/O beklatschte diese Momente und bejubelte die Demo. Die kontextuelle Spracherkennung, die Google damit demonstrierte, ist in der Tat beeindruckend. Auch wenn es um relativ formalisierte Gespräche ging - Terminvereinbarung -, war es am Ende doch ein Gespräch, dass genau so zwischen zwei Menschen passiert sein könnte.

Dieses eingebettete Video wird von YouTube bereitgestellt.

Beim Abspielen wird eine Verbindung zu den Servern von YouTube hergestellt.

Dabei wird YouTube mitgeteilt, welche Seiten Sie besuchen. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, kann YouTube Ihr Surfverhalten Ihnen persönlich zuordnen. Dies verhindern Sie, indem Sie sich vorher aus Ihrem YouTube-Account ausloggen.

Wird ein YouTube-Video gestartet, setzt der Anbieter Cookies ein, die Hinweise über das Nutzer:innenverhalten sammeln.

Weitere Informationen zum Datenschutz bei YouTube finden Sie in der Datenschutzerklärung des Anbieters unter: https://policies.google.com/privacy

Video abspielen

(längere Zusammenfassung der Keynote hier (14 min), vollständige Präsentation hier (106 min)

Eine "absichtliche Täuschung des Menschen" am anderen Ende des Telefons nannte das Zeynep Tufekci auf Twitter, die sich für die University of North Carolina und die New York Times mit der Auswirkung von Technologie auf die Gesellschaft befasst. Aus ihrer Sicht ist die jubelnde Reaktion auf die Google-Duplex-Demo ein weiteres Zeichen, dass die Menschen im Silicon Valley keinen ethischen Kompass haben. Jeff Jarvis, Journalistik-Professor und Google-Fan, gab das Gegenargument ab: Die technische Demonstration sei noch kein echter Anwendungsfall. Solche Anruf-Assistenten könnten sich beispielsweise über einen Erkennungston identifizieren oder einfach sagen, dass sie ein automatischer Assistent sind.

Bemerkenswert ist, dass in der Google-Keynote zu den ethischen Implikationen der Menschen-Imitation kein Wort fiel. Bei der Präsentation neuer Technologien werden ethische Überlegungen nur selten erwähnt. Dabei hat Google selbst die Frage "was macht das mit dem Menschen?" in seiner Präsentation zum nächsten Android-Update (namens "P") gestellt. Das Betriebssystem soll den Nutzern bei der digitalen Gesundheit ("Digital Wellbeing") helfen - unter anderem dadurch, dass das Telefon anzeigen kann, wie oft und wie lange man das Gerät und welche Apps verwendet.

Wo also geht die Reise hin? Wir haben als Nutzer schon jetzt keine Möglichkeit, zu wissen, wann wir mit selbstlernenden Maschinen interagieren. Die Algorithmen hinter Suchmaschinen, Social-Media-Feeds und Online-Werbung sind für uns intransparent, wir wissen bloß, dass dort welche sind. Die Algorithmen im automatischen Aktienhandel, die aufgrund ihrer eigenen Logik Weltmärkte kurzzeitig zum Absturz bringen können, sind Betriebsgeheimnisse. Von den Algorithmen, die Banken und Versicherungen verwenden, um Teile unseres Lebens zu bestimmen, wissen wir noch viel weniger - wir wissen nicht einmal, ob sie es tun.

Mehr Transparenz, bitte

In allen diesen Fällen würde ich mir ein Signal oder die Möglichkeit zur transparenten Information wünschen, ob Entscheidungen nur von Menschen, unterstützt von Maschinen oder nur von Maschinen getroffen werden. In manchen Fällen traue ich aber der Entscheidung einer KI, die erheblich mehr Informationen verarbeiten kann als ein einzelner Mensch, mehr als der Entscheidung dieses Menschen.

Im medizinischen Bereich beispielsweise kann diese Fähigkeit Leben retten. Eine KI, die alle Röntgenbilder, CTs, MRTs, Biopsie-Ergebnisse und Laborwerte aller bekannten Krebsdiagnosen kennt, kann treffsicherer eine Diagnose stellen als ein Arzt, der so viel einfach nicht wissen kann.

Im Gegenzug will ich aber auch nicht, dass es eine KI gibt, die jeden Krebspatienten des Planeten mit Namen und Adresse identifizieren kann. Denn das wiederum gibt einem Menschen, der Zugriff darauf hat, ungeahnte Möglichkeiten der Diskriminierung und unethischer Selektion.

Deswegen helfen uns Asimovs Robotergesetze an dieser Stelle nicht weiter. So lange KI nur unterstützend für menschliche Entscheidungen arbeitet, ist es der Mensch, der sich an die eigenen Regeln der Menschlichkeit halten muss.

Sobald künstliche Intelligenzen autonom stellvertretend für Menschen handeln, wie Google Duplex bei der Reservierung eines Restaurants, finde ich die Identifikation über natürliche Sprache ebenfalls richtig. Wenn mir am Telefon eine Stimme sagt: "Ich bin Hannos digitaler Assistent und rufe an, um einen Termin zu vereinbaren", dann weiß ich: was ich sage, wird aufgenommen, gespeichert und verarbeitet (sonst würde die KI nicht funktionieren), und ich kann mir den Smalltalk sparen. Das gilt wiederum auch nicht, wenn jemand unmittelbar über einen Sprachassistenten agiert, weil sie beispielsweise stumm ist. Dann darf ich den Smalltalk nicht weglassen. Deswegen muss die Identifikation eindeutig sein.

Kann man künstliches Bewusstsein diskriminieren?

Richtig komplex wird es allerdings, sobald der Turing-Test komplett über den Haufen geworfen ist, sobald man auch im Sprachdialog nicht mehr zwischen menschlichem und künstlichem Bewusstsein unterscheiden kann. Die Frage habe ich in dem Twitterthread auch gestellt: Ist es Diskriminierung, wenn sich eine KI selbst identifizieren muss, weil sie ansonsten gar nicht mehr von Menschen unterscheidbar wäre?

Die Antworten waren sehr unterschiedlich, von "wir lassen das als Definition einfach nicht zu" bis zu "wir dürfen dann keine Diskriminierung zulassen".

###extern|twitter| fizzandvinegar/status/994362566573940736###

In der Science Fiction ist diese Vision sehr unterschiedlich beantwortet worden, meistens dsytopisch. Von "I, Robot" über "Terminator" bis "Matrix" und "The Circle" haben Maschinen in Buch und Film schon öfter die Macht übernommen. Das geht dann in der Regel nicht gut aus. Allerdings: In "Wall-E" hilft ein Roboter, die Menschen aus ihrer selbstgewählten Unmündigkeit aufzurütteln und die verwüstete Erde wieder zu begrünen.

Wann helfen uns autonome Systeme und Maschinen, wann nicht? Wenn die Bewahrung der Schöpfung und das Menschenwohl der Maßstab bleiben, können sie jedenfalls Gutes tun. Aber von den Erschaffern brauchen wir ein ausreichendes Bewusstsein dafür, dass der Einsatz von Maschinen transparent sein muss. Und zwar für die Menschen an beiden Enden der Kette: Sowohl für diejenigen, die Maschinen einsetzen, als auch diejenigen, die mit dem Ergebnis konfrontiert werden. In welcher Form auch immer, von der Terminvereinbarung bis zur Kreditvergabe.

Noch mehr Reaktionen auf Google Duplex: The Verge, Spiegel, Heise.

Vielen Dank für’s Lesen & Mitdenken!


Im Blog #Lattenkreuz schreibe ich meine Beobachtungen, Links und Interviews zu den Themen Digitalisierung, Digitale Kirche und digitalisierte Welt auf. Ich bin erreichbar auf Twitter als @dailybug.