Haltung zu den digitalen Technologien
© oatawa/iStockphoto/Getty Images
Wir hinterlassen auf dem Smartphone Datenspuren, mit denen andere Unternehmen wirtschaften.
Medienforscherin Grimm
"Man braucht eine Haltung zu digitalen Technologien"
Mit jedem Klick am Smartphone hinterlassen wir Datenspuren, mit denen die Unternehmen dann wirtschaften - aber oft wissen wir viel zu wenig darüber, sagt die Digitalethikerin Petra Grimm.
02.08.2021
epd
Christine Ulrich

Darüber, wie mehr ethisches Bewusstsein zu Bürgern und Betrieben kommt und warum Privatheit als Wert so wichtig ist, sprach sie mit dem Evangelischen Pressedienst (epd). Grimm ist Professorin für Medienforschung und Kommunikationswissenschaften an der Hochschule der Medien in Stuttgart und leitet das Institut für Digitale Ethik.

epd: Frau Grimm, Sie sind seit 1998 Professorin und haben den Begriff der Digitalen Ethik mitgeprägt. Im selben Jahr wurde Google gestartet und sammelt seither fleißig Daten. Wie bewegen Sie sich durch die vernetzte Welt?

Petra Grimm: Die Perspektive der Ethik umfasst auch die Frage nach der persönlichen Wertehaltung. Ich selbst versuche im Alltag, so gut es eben geht, meine Privatheit zu schützen und den Markt der Möglichkeiten zu nutzen: Welche Dienste bieten mir Alternativen? Welche schützen einigermaßen gut meine Privatsphäre? Oder inwieweit versuchen sie, meine Daten zu sammeln und auszuwerten, um sie womöglich für ein Profiling (Profil-Erstellung) oder Social Scoring (soziales Punktesystem) zu nutzen? Ich persönlich nutze zum Beispiel kaum die Suchmaschine von Google, sondern verwende Startpage, das funktioniert genauso gut.

Die Digitalisierung ist sehr schnell, die Ethik denkt gründlich nach - wie soll sie Schritt halten?

Grimm: Digitalisierung und Ethik sind wie Hase und Schildkröte. Der Hase ist schnell, aber die Schildkröte - die übrigens für Klugheit und Weisheit steht - ist trotzdem schneller am Ziel. Sie ist besonnen und stellt sich den Herausforderungen.

"Digitalisierung und Ethik sind wie Hase und Schildkröte."

Besteht trotzdem die Gefahr, dass die Ethik das Rennen verliert?

Grimm: Ethische Kriterien können in der Praxis schon von Beginn an, also bei der Entwicklung von Geschäftsideen, implementiert werden. Diesen Ansatz nennt man "Ethics by Design". Dabei wird nicht im Nachhinein noch versucht, ethische Aspekte zu berücksichtigen, sondern diese sind bereits in der Ideenentwicklung Bestandteil des Geschäftsmodells. Wichtig ist hierbei, die Perspektiven aller Betroffenen zu berücksichtigen und sich als Unternehmen die richtigen Fragen zu stellen, zum Beispiel: Für welche Werte stehen wir? Welche Konflikte gibt es, wenn die Perspektiven aller Stakeholder berücksichtigt werden? Wie können wir fair, transparent und nachvollziehbar die Dienste gestalten? Dazu haben wir kürzlich "Start-up with Ethics" veröffentlicht, ein Arbeitsbuch für Jungunternehmen.

Sind die Menschen sensibilisiert für Ethik und bereit, sie zu implementieren?

Grimm: Ich bin überzeugt, dass wir eine ethische Trendwende verzeichnen. Schon 2018 sagten bei einer Befragung deutscher Digitalunternehmen mehr als 70 Prozent, dass ihnen ethische Standards wichtig seien. Das Bewusstsein ist dort längst angekommen. Das Problem besteht oft eher in der Umsetzung, aber auch bei den Entscheidungsträgern und komplexen Verantwortungs- und Machtstrukturen. Wichtig ist aber auch, inwieweit die Kunden es schätzen, dass Produkte werteorientiert und nachhaltig sind, also etwa die Privatheit schützen, und diese aktiv nachfragen. Wie wichtig ist es mir als Verbraucher, dass meine Privatheit geschützt wird oder dass ich transparent angezeigt bekomme, was im Hintergrund abläuft? Vielen Nutzern ist oft noch nicht klar, was unter der Oberfläche mit ihren Daten passiert. Man hat ein mulmiges Gefühl, aber keine genaueren Informationen. Und im schlimmsten Fall resignieren die Nutzer oder nehmen eine nihilistische Haltung ein, wie unsere aktuelle Studie zu den Werten, Ängsten und Hoffnungen in der digitalen Alltagswelt gezeigt hat.

Ist das ein Kennzeichen der digitalen Gesellschaft, dass sie noch relativ unwissend und unentschieden unterwegs ist? Wie kommt mehr Bewusstsein zu den Bürgern?

Grimm: Eine Förderung von Digitalkompetenz ist zwar wichtig, aber noch viel mehr die Schaffung entsprechender Rahmenbedingungen durch eine Regulierung. In Europa sind wir mit der Datenschutzgrundverordnung ja schon ein Stück nach vorne gekommen - übrigens ein Modell, das auch für andere Länder Vorbildfunktion hatte. Wenn es um das Thema Künstliche Intelligenz geht, sind wir ebenfalls gefordert. Wie können wir angesichts der Entwicklungen in China und den USA die digitalen Technologien so gestalten, dass sie eine wertebasierte Mensch-Technik-Interaktion ermöglichen und unsere demokratischen Werte widerspiegeln? Wenn uns ein solches Alternativmodell gelänge, könnte das auch ein Wettbewerbsvorteil sein.

"Vielen Nutzern ist oft noch nicht klar, was unter der Oberfläche mit ihren Daten passiert."

Welche Rolle spielen die großen Tech-Unternehmen?

Grimm: Das Image der großen Tech-Unternehmen leidet zunehmend, im Unterschied zu vor zehn oder 15 Jahren, wo die Euphorie und Erwartungshaltung an die neuen Medien und Dienste groß war. Die Geschäftsmodelle der US-Digitalmonopole wie Alphabet (Google, Youtube), Facebook, Amazon oder Microsoft beruhen auf der wirtschaftlichen Ausbeute der personenbeziehbaren Daten. Diese Unternehmen verfügen mittlerweile über eine Machtkonzentration, die ohnegleichen in der Geschichte ist. Sie besitzen ein unbeschreiblich großes Wissen über uns und sind meinungsbildungsrelevant; letztlich können sie auch dazu genutzt werden, politische Wahlen zu beeinflussen.

Umso wichtiger ist die Förderung von Informations- und Meinungsbildungskompetenz.

Grimm: Die aktuelle Pisa-Studie zeigt, wie schwer sich Schüler tun, eine Meinung von Fakten zu unterscheiden und Desinformation zu erkennen. Viel grundsätzlicher geht es auch darum, zu verstehen, warum Meinungsvielfalt und Meinungsfreiheit sowie eine freie Presse wichtig für die Demokratie sind. Wir brauchen mehr Materialien und Angebote in den Schulen, damit Pädagogen dieses Wissen vermitteln können und Schüler sich eine fundierte Haltung aneignen können. Deshalb haben wir vom Institut für Digitale Ethik zusammen mit der EU-Initiative "klicksafe" ein Handbuch zur Meinungsbildung in der digitalen Welt erstellt.

Warum ist Privatheit ein so zentraler Wert? Warum beeinträchtigt es meine menschliche Freiheit, wenn meine Daten verfügbar werden?

Grimm: Privatheit ist ein universaler Wert, auch wenn er kulturell variabel gelebt und interpretiert wird. Privatheit bedeutet, kontrollieren zu können, wer die Grenze zu meiner privaten Lebenswelt überschreiten darf und wer nicht. Im informationellen Sinn bedeutet Privatheit, dass ich kontrollieren kann, wer was in welchem Zusammenhang über mich weiß. Letztlich geht es um die Fragen von Autonomie und Freiheit: dass ich selbstbestimmt entscheiden kann, wem ich meine privaten, vielleicht intimen Gedanken zukommen lasse und wem nicht. Privatheit kann auch ein geschützter Raum sein, in dem ich mit anderen kommuniziere und meine privaten Gedanken austausche, oder meine Geheimnisse - etwa mein Tagebuch - für mich behalte. Letztendlich brauche ich Privatheit, um frei entscheiden und handeln zu können. Wer keine Privatheit besitzt, ist dem System ausgeliefert. Denn wer viel über mich weiß, kann mich leichter in seinem Sinne beeinflussen und womöglich manipulieren.

Indem wir immer mehr Daten preisgeben, lassen wir uns auch bewerten.

Grimm: Wenn Verbraucher heute ein Produkt oder eine Flugreise online bestellen, kann es sein, dass sie unterschiedliche Preise angezeigt bekommen. Dabei handelt es sich um das "dynamic pricing". Je nachdem, wo jemand wohnt und welches Gerät er oder sie benutzt, ob Apple oder Android, kann der Preis anders gestaltet sein. Die Preisgestaltung ist dem Unternehmen überlassen. Problematischer wird es, wenn es sich um die Vergabe von Darlehen und Krediten oder die Prämiengestaltung bei Versicherungen handelt. Eine Steigerung findet dann statt, wenn Mitarbeiter ihre Fitnessdaten und Daten zu sonstigen Gewohnheiten preisgeben müssen, wie es in einigen Ländern schon stattfindet. Grundsätzlich ist aber die Zusammenführung von unterschiedlichen Datensätzen ein Problem, also zum Beispiel, wenn Finanzdaten, Gesundheitsdaten oder Kontaktdaten zusammen ausgewertet werden können.