In drei Sätzen, was ist Künstliche Intelligenz, sehr geehrter Herr Kopecz?
Jörg Kopecz: Es gibt viele Formen von Künstlicher Intelligenz: In den 60er, 70er und 80er Jahren waren die ersten Systeme rein regelbasiert - das heißt, wenn Fall A eintritt dann folgte Fall B; so funktioniert der Schachcomputer. Neuere Systeme können nun "lernen", indem sie von Beispielen abstrahieren und daraus Fähigkeiten erwerben. Ein Beispiel hier wäre Google: Hier arbeitet eine KI im Hintergrund, die Ihnen abhängig von Ihrem bisherigen Suchverhalten Vorschläge macht.
Wenn zwei Leute in ihren eigenen Computer bei Google denselben Suchbegriff eingeben, dann kommen sie also höchstwahrscheinlich zu unterscheidlichen Ergebnissen?
Jörg Kopecz: Das stimmt. Und hier stellt sich die Frage: Wie objektiv ist die Wirklichkeit denn überhaupt noch, die wir erleben? Mit dieser schwindenden Objektivität müssen wir lernen, umzugehen.
Kann KI unsere Welt fairer machen?
Jörg Kopecz: Was ist denn fair? Ich halte Vorlesungen zu Wirtschaftsethik und dann stelle ich meinen Studenten manchmal die Frage, ob es denn fair ist, dass eine Grundschullehrerin genauso viel verdient wie ein Facharbeiter. Ist es fair, wenn ein Rentner, der sein Leben lang gearbeitet hat, weniger bekommt, als jemand, der Aktien hat? Wir benutzen diesen Begriff und haben spezifische Bilder vor Augen. Wenn wir aber anfangen, diese unsere Vorstellungen auf eine KI zu übertragen, dann merken wir doch erst, wie unscharf sie sind.
Dann frage ich genauer: Vielleicht können Künstliche Intelligenzen antidiskriminierend eingesetzt werden?
Jörg Kopecz: Ich glaube, wir leben in unserer Natur ganz gut damit, dass wir diskriminieren und zwar im Sinne von unterscheiden, nicht herabsetzen. Und diese Form des Diskriminierens könnten Künstliche Intelligenzen übernehmen. Wenn ich also festlege, dass zum Beispiel die Hautfarbe bei der Jobvergabe keine Rolle spielen sollte, dann ist das eine spezifischere Frage, als wenn ich generell sage, es soll nicht diskriminiert werden.
Und wie verorten sich evangelische Unternehmer beim Thema "Künstliche Intelligenz"?
Jörg Kopecz: Zum einen sind wir als Unternehmer dem wirtschaftlichen Wettbewerb ausgesetzt und daher spielen Künstliche Intelligenz (KI) und die Digitalisierung natürlich eine große Rolle. Um unsere Marktposition zu sichern, müssen wir solche Systeme profitabel einsetzen. Zum anderen geht es uns als evangelische Unternehmer natürlich auch darum, den sozialen Kontext mit zu denken, also Fragen nach Ethik und Werten.
Wo passiert das?
Jörg Kopecz: Noch hat die gesellschaftliche Diskussion gar nicht stattgefunden. Uns geht es also derzeit vor allem darum, diese Debatte überhaupt erst einmal anzustoßen und mitzugestalten. Und zwar aus einer klar protestantischen Haltung heraus. Hier hoffe ich sehr auf die Kirche. Sie ist die Stimme für protestantische, beziehungsweise christliche Werte.
Nun stecken wir ja aber schon mittendrin in der Digitalisierung. Ist es nicht etwas spät für die Debatte?
Jörg Kopecz: Das ist in der Tat eine der Kernherausforderungen, vor denen wir stehen: Die demokratischen Prozesse, die auf Konsens, Diskussion und Abstimmung basieren, sind langsam. Die Geschwindigkeit hingegen, in der die digitale Transformation unserer Welt voranschreitet, verläuft exponentiell dazu, also viel, viel schneller. Wir müssen uns demnach überlegen, ob wir nicht sogar mit Hilfe dieser künstlichen Systeme auch andere Formen der Entscheidungsfindung entwickeln können. Also im Grunde muss sich auch unsere Demokratie transformieren.
Gibt es globale Strategien zum Umgang mit Künstlicher Intelligenz? Gerade auch in Bezug auf Bürgerrechte?
Jörg Kopecz: Ich glaube, dazu brauchen wir erst einmal in Deutschland eine gemeinsame Diskussion und eine gemeinsame Position. Erst dann können wir uns sinnvoll mit anderen Ethiken auseinandersetzen.
Haben sie ein Beispiel?
Jörg Kopecz: In China gibt es kamerabasierte Üerwachungsstrategien. Da analysiert ein speziell programmierter Algorithmus verdächtiges Verhalten. Das kann schnelles Rennen sein. Der Algorithmus erkennt das als verdächtige Handlung, die Person wird negativ gelabelt und das kann dann dazu führen, dass sie den Studienplatz an einer Hochschule nicht bekommt.
Das ist genau so ein Szenario, vor dem viele Menschen Angst haben.
Jörg Kopecz: Nur weil andere Staaten diese Wege gehen, müssen wir das nicht. Diese Diskussion müssen wir doch erst einmal führen: Was finden wir gut, an welchen Punkten grenzen wir uns ab und was finden wir nicht akzeptabel? Die Demokratie muss auf diese Fragen eine Antwort finden.
Der Bundestag hat eine Enquete-Kommission ins Leben gerufen. Allerdings ohne eine dezidiert kirchliche Stimme.
Jörg Kopecz: Ich denke, die Kirche muss in jedem Fall Teil der gesellschaftlichen Diskussion sein. Denn es geht ja auch um Werte. Das ist einer der Gründe, warum der AEU sich zum Thema äußert, warum wir auch im Herbst eine Tagung in Bad Boll zum Thema veranstaltet haben. Als Unternehmer kommen wir aus der Praxis, daher ist unser Standpunkt auch nie nur ein rein theoretischer.
Ich erwähnte das Thema Angst. Empfinden Sie Angst oder Unbehagen vor KI als berechtigt? Immerhin geht es hier um nichts weniger als unsere Grundwerte und - vielleicht für den Einzelnen noch wichtiger - um seine Vorstellung davon, was ein Mensch wert ist, wenn er neben künstlicher Intelligenz existiert?
Jörg Kopecz: Angst ist nie ein guter Ratgeber. Dass wir vorsichtig sind und auch Dinge mit Abstand betrachten, macht sicherlich Sinn. Wir sollten aber nicht generell Fortschritt verteufeln. Es gibt Risiken und es gibt Chancen.
Viele Jobs werden wegfallen.
Jörg Kopecz: Das stimmt. Studien gehen von 20 bis 30 Prozent aus. Die einzige Möglichkeit, die wir haben, ist das Ausbildungsniveau zu erhöhen, denn es werden auch neue qualifizierte Jobs enstehen. Wir werden diesen Umbruch erleben und wir müssen versuchen, ihn frühzeitig zu gestalten. Das ist die einzige Möglichkeit, die wir haben, denn das Tempo, mit dem diese Veränderung stattfindet, werden wir nicht beeinflussen können.
Und die Chancen liegen Ihrer Meinung nach wo genau?
Jörg Kopecz: Wir werden in vielen Bereichen neue Erkenntnisse gewinnen, weil wir Zugang zu Informationen haben, die wir vorher in der Form nicht hatten. Und die gesellschaftliche Diskussion, die wir führen werden, das ist eine Chance, uns als Gesellschaft weiterzuentwickeln.
Erklären Sie das bitte.
Jörg Kopecz: Nehmen wir autonom fahrende Fahrzeuge. Ein populäres Beispiel, wenn es um KI und Ethik geht. Selbstfahrende Autos gibt es jetzt noch nicht auf den Straßen. Mit den Konzepten allerdings - also, welche Regeln diese Fahrzeuge befolgen sollen oder welche juristischen Randbedingungen gelten sollen - damit befassen sich aktuell die großen Autohersteller.
Da muss ich an einen Artikel von Zeit-Online denken, mit der plakativen Überschrift: "Der Todesalgorithmus". Der Algorithmus entscheidet im Zweifel über Leben und Tod. Wie kann man eine Maschine so programmieren, dass sie ein moralisches Dilemma löst?
Jörg Kopecz: Die Maschine kann das genauso wenig lösen, wie wir das selbst lösen können. Auch wir leben mit moralischen oder ethischen Dilemmata, auf die wir nicht immer "gute" Antworten haben. Wir müssen mit den Konsequenzen unserer Entscheidungen leben und das wird für künstliche Systeme auch zutreffen. Die Frage ist: Sind wir bereit, mit diesen Konsequenzen zu leben, wenn eine KI eine Entscheidung gefällt hat? Akzeptieren wir diese Entscheidung, weil sie von einer KI getroffen wurde oder akzeptieren wir sie nicht, weil wir lieber eine menschliche Entscheidung haben möchten? Auch diese Diskussion haben wir noch nicht geführt und die ist essentiell. Denn der Algorithmus steht nicht fest. Lernende bzw. nicht lineare Systeme kennzeichnen sich dadurch, dass sie sich verändern und dass sie dadurch auch intransparent für uns werden. Das liegt in ihrer Natur.
Aber wäre in solchen Fällen nicht der Programmierer haftbar, also derjenige, der den Algorithmus für eine KI geschrieben hat?
Jörg Kopecz: Im Zweifel hat er den Algorithmus programmiert - aber da es sich um ein lernendes System handelt, hat die KI die Entscheidung selbst getroffen. Vielleicht auch die falsche.
Der Mensch hat das Bedürfnis, andere Menschen für Fehlverhalten zu sanktionieren. Eine Maschine kann man schwerlich bestrafen. Was bedeutet das für unseren Rechtsstaat?
Jörg Kopecz: In der Tat werden bestimmte Realitäten oder juristische Begriffe nicht mehr funktionieren, denn wir können dem Algorithmus keinen Fehler vorwerfen, wenn das System anhand von Daten etwas gelernt hat, was 100.000 mal zu einem guten Ergebnis führt und einmal zu einem schlechten.
Wenn ich Sie richtig verstehe, wird diese Technik und die Diskussion darüber vor allem unser Menschenbild wandeln?
Jörg Kopecz: Genau. Wir als Gesellschaft müssen uns darüber klar werden, was in diesem Zusammenhang natürliche Intelligenz ist. Wir kommen da an Fragen, die unser Selbstbild betreffen. Das sind philosophische und theologische Fragestellungen. Wir erschaffen ein künstliches Gegenüber, das für uns nicht immer transparent ist. Aber: Dieses Gegenüber ist genauso wenig transparent, wie der Mensch selbst.