Die vierte industrielle Revolution ist in vollem Gange und Themen wie Digitalisierung und künstliche Intelligenz werden bereits heute zur gelebten Realität. Die Einsatzmöglichkeiten neuer Technologien umfassen eine schier ungeahnte Menge an Möglichkeiten. Dies wirft jedoch auch zwangsläufig die Frage auf, welche Ethik dem Einsatz neuer Technologien zu Grunde liegen soll und wie eine solche digitale Ethik gar zum Wettbewerbsvorteil werden kann. Unser Partner Martin et Karczinski hatte die Möglichkeit, sich zu diesem und weiteren Themen mit Frau Prof. Dr. Petra Grimm, Leiterin des Instituts für Digitale Ethik (IDE) an der Hochschule der Medien (Stuttgart), zu unterhalten.
Frau Prof. Dr. Grimm, warum wird Ethik immer wichtiger?
Ein wesentlicher Grund ist, dass sich durch Digitalisierung und künstliche Intelligenz unser Leben fundamental und unumkehrbar verändert. Das betrifft vor allem das Verhältnis von Mensch und Maschine: Lernende Maschinen können auf der Basis von grossen Datensätzen (Big Data) zunehmend autonome Entscheidungen treffen, zum Beispiel beim automatisierten vernetzten Fahren, bei Personalentscheidungen oder Finanztransaktionen. Ebenso stellen sie Prognosen an, zum Beispiel, ob wir einen Herzinfarkt erleiden oder unseren Kredit bezahlen werden. Damit stellt sich eine Vielzahl ethischer Fragen, die unsere Selbstbestimmung, unsere Verantwortung und die Kontrolle der Maschinen betreffen.
Womit beschäftigt sich Ethik im Rahmen der Digitalisierung?
Stellen Sie sich folgendes Bild vor: Sie müssen in einem Ihnen unbekannten Küstengebiet nachts navigieren. Um ihr Ziel ohne Schiffbruch zu erreichen, brauchen Sie ein Navigationsinstrument, z.B. die Sterne und einen Kompass. Genauso verhält es sich mit dem digitalen Wandel unserer Gesellschaft. Wir brauchen eine Digitale Ethik, die uns als Steuerungsinstrument und Kompass hilft, um den digitalen Wandel wertebasiert zu gestalten. Ein Ansatz, mit dem ich mich gerade intensiv beschäftige, ist „Narrative Ethics by Design“. Ethics by Design bezeichnet ein Forschungsfeld, in dem es darum geht, ethische Prozesse bei der Konstruktion, Entwicklung und Gestaltung von Technologien zu implementieren und deren mögliche Konsequenzen zu antizipieren. Beispielsweise könnte eine smarte Spielpuppe mit einem Ethics by Design-Ansatz so konfiguriert werden, dass die Gespräche mit dem Kind privat bleiben; das heisst, nicht von Fremden abgehört werden können und nicht an die Hersteller weitergegeben werden.
Im Wesentlichen handelt es sich um den Ansatz einer angewandten Ethik, der eine werteorientierte Technologie zum Ziel hat. Mithilfe von Geschichten, die sich Menschen erzählen und die auch als Zukunftsstorys entwickelt werden, lässt sich der Prozess des Ethics by Design effektiv umsetzen. Wie beim Internet der Dinge geht es bei vielen digitalen Anwendungen um die Frage, ob wir (noch) Vertrauen in die Technologie haben. Studien zeigen, dass die Verbraucher von den Unternehmen zunehmend erwarten, dass sie Technologien verantwortungsbewusst und ethisch gestalten und einsetzen.
Muss die klassische Ethik (auf der Grundlage von Kant) erweitert oder angepasst werden, um selbstentwickelnden Software/Hardware-Wesen gerecht zu werden?
Ethische Sichtweisen sind nicht in Stein gemeisselt, sondern entwickeln sich mit den gesellschaftlichen Veränderungen. Die Ethik hat sich im Lauf unserer Kulturgeschichte erweitert und im letzten Jahrhundert in verschiedene „Angewandte Ethiken“ ausdifferenziert, wie Medizinethik, Informationsethik, Wirtschaftsethik usw. Kants Menschenbild ist für eine Digitale Ethik, wenn es um das Autonomieprinzip des Menschen geht, meines Erachtens nach wie vor aktuell. Allerdings brauchen wir auch eine Fortschreibung der Ethik, die sich vor allem mit den „Capabilities“, also den Fähigkeiten der Menschen in der digitalen Zeit befasst. Auch das klassische Verantwortungskonzept ist in Zeiten von (selbst-)lernenden Maschinen, Robotern und KI nicht mehr ausreichend, da Ursache und Folgen nicht mehr ohne weiteres zu bestimmen sind. Wer ist verantwortlich, wenn der Börsenwert eines Unternehmens abstürzt, weil Algorithmen aufgrund einer Falschmeldung dessen Aktienkurs einbrechen lassen?
Wo stehen die Chinesen bei künstlicher Intelligenz? Können Sie ein bis zwei eindrückliche Beispiele schildern? Welche Rolle spielt Ethik in diesem Zusammenhang in China?
Der Treibstoff für KI sind Daten. China hat hier einen eindeutigen „Vorteil“, da es keinen Datenschutz gibt und die Regierung Überwachungstechnologien nach gusto einsetzen kann, es somit einen riesigen Markt für diese KI-Anwendungen gibt. China forscht z.B. bei der Gangerkennung und der Gesichtserkennung, um Menschen auf der Strasse oder Schüler auf dem Schulcampus zu identifizieren. So wurde in einer Schule in Hangzhou das Lernverhalten der Schüler mittels Face Analytics ausgewertet oder deren Essverhalten in der Mensa, um dann Verbesserungsvorschläge zu unterbreiten. Allerdings gab es bei der Überwachung der Kinder auch Proteste seitens der Eltern. Ab 2020 soll flächendeckend ein digitales Sozialkreditsystem eingeführt werden, mit dem „richtiges“ und „falsches“ Verhalten der Bürger bewertet und sanktioniert werden kann. Abhängig davon können Studienplätze oder Reisen ins Ausland bewilligt werden. Für uns Europäer erscheint ein solches Vorgehen noch ausgefeilter als Orwells Dystopie.
Gleichwohl forscht China ja auch an KI-Anwendungen, die sozialen Nutzen haben können, wie z.B. die Gangerkennung in Krankenhäusern, um sturzgefährdeten Patienten zu helfen. Technologie, wie Kranzbergs erstes Gesetz besagt, ist weder gut noch schlecht, aber auch nicht neutral. Man kann also sagen: Es kommt immer auf den „Sinn“ und den „Zweck“ der Technologie an. In Chinas traditioneller Ethik, bei der ShangGong (das Ganze) und GuiHe (Harmonie) wichtige Grundwerte darstellen, wird nicht der Einzelne, wie in westlichen Ethiken, in den Blick genommen, sondern das Ganze, die Gesamtordnung. Es würde jetzt zu weit gehen, dies zu vertiefen. Aber die westliche Ethik ist viel stärker auf das Individuum ausgerichtet als die chinesische.
Warum könnte Ethik künftig eine grössere Rolle in der Markenführung in Europa spielen?
Innovative wertebasierte Geschäftsmodelle, die sich nicht an China oder dem Silicon Valley orientieren, könnten eine europäische Alternative sein. Das klingt jetzt für einige sicherlich utopisch. Aber „KI Made in Europe“ kann im Sinn eines nachhaltigen digitalen Wirtschaftens Vertrauen in technologische Anwendungen erzeugen. Vertrauensvolle Produkte können ein Qualitätsmassstab sein, der einen Wettbewerbsvorteil bietet. Wie vor 40 Jahren, als das Umweltbewusstsein Fahrt aufnahm, stehen wir heute auch wieder an einem Wendepunkt: Wir müssen uns entscheiden, ob wir mehr datenökologische Verantwortung übernehmen oder das digitale Ökosystem kannibalisieren wollen.
Menschen bringen Marken relativ viel Vertrauen entgegen, mehr als Politikern und Journalisten. Allerdings kann Vertrauen auch schnell verloren gehen. Ich denke, dass in Zukunft von einer Marke sehr viel häufiger eine bestimmte „Haltung“ erwartet wird. Allerdings muss dann das Narrativ der Marke glaubwürdig und authentisch sein und im gesamten Engagement der Marke zum Ausdruck kommen. Eine Feigenblatt-Ethik oder ein „Ethical Washing“ sind hier kontraproduktiv.
Welches sind die drei wichtigsten Fragen aus ethischer Sicht, die sich im Zusammenhang mit KI in der Markenführung stellen? Welchen Benefit ist von der Beantwortung dieser Frage zu erwarten?
Die drei wichtigsten Fragen sind:
Kann ich die KI noch kontrollieren? Werte: Selbstbestimmung und Usability
Respektiert die KI meine Privatsphäre? Wert: Privatheit
Ist die KI überprüfbar und sicher? Werte: Datentransparenz und Sicherheit
Wenn diese Fragen bei der Markenführung beantwortet werden, ist das vertrauensbildend. Und Vertrauen ist ein hohes Gut.
Welche „Vorteile“ (ggf. auch psycho-soziale Nutzen) aus Kundensicht sehen sie? Welchen Bedarf deckt diese Haltung in der Gesellschaft ab? Gibt es Trends/Untersuchungen, die diese Thesen stützen?
Wie verschiedene Studien zeigen, möchten Kunden gerne ihre Privatsphäre schützen, werden aber häufig durch die technischen Hürden und intransparente Datengeschäfte daran gehindert, zum Teil reagieren sie mit Resignation und Frustration. Gleichzeitig verhalten sie sich paradox („privacy paradox“), weil sie einerseits ihre Privatsphäre schützen wollen, aber andererseits Privates in Sozialen Medien teilen. Wenn künstliche Intelligenz ihnen dabei helfen würde, mittels Technologie mehr Transparenz, Handlungsoptionen und Datensicherheit zu ermöglichen, dann würde sich das Dilemma auflösen lassen.
Wie liesse sich Ethik im (Marken bzw. Marketing-) Alltag im Unternehmen anwenden? Voraussetzungen? Gremien? Mechanismen?
Ethik ist erstmal Chefsache. Wenn Vorstand und Geschäftsführung von der Notwendigkeit überzeugt sind, dass z.B. Privacy ein wichtiger Wert ist, dann kann auch durch entsprechende Massnahmen ein Qualifizierungskonzept im Unternehmen realisiert werden. Eine ethische Haltung sollte als Core-Story aus dem Unternehmen heraus entwickelt werden, und nicht von aussen „aufgesetzt“ werden, um den spezifischen Anforderungen gerecht zu werden. Chief Ethic Officers (CFO) können hierzu hilfreich sein, sind aber nur ein Baustein in einem Gesamtkonzept, das in einer ethischen Digitalisierungsstrategie entwickelt werden sollte. Besonders hilfreich ist hierfür die narrative Ethik, da sie mit Geschichten operiert: Denn Geschichten können nicht nur motivieren, sie können auch die emotionale Seite der Moral berücksichtigen und den Sinn einer Wertehaltung verdeutlichen.
Frau Prof. Dr. Petra Grimm referiert am 28. März 2019 im Rahmen des be.yondtalk von Martin et Karczinski zum Thema „Ethik – Erfolgsfaktor in einer digitalisierenden Markenwelt“ in Zürich. Alle Informationen zum Programm und zur Anmeldung finden Sie auf der Webseite zur Veranstaltung.
Prof. Dr. Petra Grimm ist seit 1998 Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien (Stuttgart). Sie ist Leiterin des Instituts für Digitale Ethik (IDE) und Ethikbeauftragte (Medienethik) der Hochschule der Medien. Ihre Forschungsschwerpunkte sind „Digitalisierung der Gesellschaft“, „Ethics and Privacy by Design“, „Mediennutzung von Kindern und Jugendlichen“ sowie „Medien und Gewalt“. Hierzu hat sie zahlreiche Publikationen veröffentlicht. Ihr Lehrgebiet ist Medienethik und Narrative Medienforschung in Master- und Bachelor-Studiengängen. Sie ist Preisträgerin des Landeslehrpreises Baden-Württemberg und (Mit-)Herausgeberin der Schriftenreihe Medienethik. Sie ist u.a. Mitglied im Forschungsbeirat des Bundeskriminalamts (BKA), in der AG Big Data der Nationalen Akademie der Wissenschaften Leopoldina und dem Rundfunkrat des SWR. Aktuell forscht sie zu „Ethics by Design in autonomen Fahrzeugen“ (BMBF-Projekt KoFFi), „Präventiver Digitaler Sicherheitskommunikation und Zivilcourage“ (BMBF-Projekt PRÄDISIKO), Sicherheitsethik (BMBF-Projekt „SmartIdentifikation“) und „Learning Analytics“.