Zurück zu allen Artikeln

Alexa, was bedeutet Ethik?

Victor Gigea
Victor Gigea
Senior Project Manager Social Advertising
Länge
9 Min. Lesezeit
Datum
7 September 2021

Wenn man Alexa fragt, was Ethik bedeutet, beschreibt sie Ethik als Teilrichtung der Philosophie sowie als Studien- oder Schulfach, das sich mit dem richtigen menschlichen Handeln befasst. Verständnis der ganzen Tragweite des Wortes sieht anders aus. Eigentlich kein Wunder, denn Alexa ist ja auch kein Mensch! Trotzdem behandeln wir sie gerne wie einen und vergessen dabei, dass Alexa eben nicht das neueste Familienmitglied, sondern ein Produkt von Amazon ist, einer der grössten Tech-Konzerne und nebenbei auch “one of the most influential economic and cultural forces in the world”.

Voice Assistants sind erfolgreicher denn je, in vielen Haushalten ist Alexa nicht mehr wegzudenken. Schliesslich beschwert Alexa sich nie und ist auch noch Kalender, Küchenhelferin und Kinderbespassung in einem – warum also nicht?  Wenn man jemanden fragen würde, ob es in Ordnung ist, dass Kinder, Freunde oder Familie Umgang mit jemandem ohne moralischen bzw. ethischen Kompass haben, wäre die Antwort wohl ein klares “Nein” – bei unseren digitalen Mitbewohner:innen wird das aber gerne vergessen. Die Problematik allein auf die fehlende Moral der Sprachassistenten zu beschränken ist allerdings deutlich zu klein gedacht, vielmehr ergeben sich verschiedene Dimensionen von ethischen Problemen rund um das Thema Voice Assistants. Dieser Blogbeitrag ist ein Versuch, diese zu benennen, zu ordnen und so ein Bewusstsein für das Spannungsfeld Sprachassistenten bzw. Künstliche Intelligenz (KI) und Ethik zu schaffen. 

Dimension 1: die stille Zuhörerin

Wie heisst es so schön, in die Zeitung von heute wickelt man morgen den Fisch. Das Thema Sprachassistenten und Datenschutz scheint allerdings nie alt zu werden. Immer wieder tauchen Meldungen darüber auf, dass unsere Voice Assistants Unterhaltungen mitschneiden, zuhören, wenn sie eigentlich ausgeschaltet sein sollten oder Mitarbeiter:innen von Amazon und Co. Gesprächsmitschnitte auswerten.  Darauf hat Amazon nun reagiert, indem neuerdings explizit auf die interne Verwendung der Sprachaufnahmen hingewiesen wird. Was eigentlich selbstverständlich sein sollte, können Nutzer:innen nun in der Alexa App einstellen. Der neue Schalter ermöglicht es, die Aufnahmen zu löschen bzw. die manuelle Auswertung zu deaktivieren – dies sei aber möglicherweise mit Einschränkungen des Dienstes verbunden. Da stellt sich die Frage: Warum nehmen Unternehmen wie Amazon diese ganze Kritik auf sich? Sicher nicht, um ein bisschen pikanten Gossip aus dem Leben ihrer Nutzer:innen aufzuschnappen. Fakt ist, Alexa ist nur so gut wie ihre Erfahrung. Die Auswertung der Aufnahmen ermöglicht es Amazon, immer wieder Korrekturen und Verbesserungen vorzunehmen und das Alexa-Erlebnis noch natürlicher zu gestalten. 

Ob notwendig oder nicht, der negative Beigeschmack bleibt, denn obwohl Amazon versichert, dass Mitarbeiter:innen in Zusammenhang mit den Aufnahmen keinen direkten Zugang zu Informationen haben, die eine Person oder ein Konto identifizieren könnten, zeigen intern überprüfte Screenshots etwas anderes

Dimension 2: Grossmutter oder böser Wolf?

Amazon, Google und Co. versuchen alles, um unser Vertrauen zu gewinnen. Datenschutzbedenken hin oder her, wir neigen dazu unsere technologischen Mitbewohner:innen zu vermenschlichen. Schuld daran ist nicht nur die offensichtlich weibliche Identität von Alexa oder Siri, sondern vor allem subtile Reize wie die weibliche Stimme, die Sprache in der Ich-Form oder Googles “ähm” und “hmm” für den besonders natürlichen Sprachfluss. Manche der Antworten unserer digitalen Freund:innen zeigen ausserdem erschreckend viel Empathie und Humor. Das macht Kinder besonders anfällig, denn sie neigen ohnehin dazu, Gegenstände zu vermenschlichen und schätzen Gefahren oft falsch ein. Wie Rotkäppchen dem bösen Wolf vertraut, so vertrauen Kinder Alexa, Siri oder Google im Handumdrehen. Kinder übertragen menschliche Schemata einfach auf Objekte, denn sie verfügen früh über soziale Kompetenzen, haben aber kaum Erfahrung mit spezifischen Objekten. Eltern sind hier in der Verantwortung, ihren Kindern bewusst zu machen, dass Alexa eben nicht die beste Freundin ist, sondern an dieser Stelle Vorsicht angebracht ist. 

Alexa, warum ist mein Kind unhöflich?

Vorsicht ist auch in Bezug auf die Ausdrucksweise geboten, die der Umgang mit Alexa mit sich bringt. Erwachsene mögen Höflichkeitsfloskeln gelernt haben, Kinder aber saugen alles auf, was in der Umgebung passiert und passen ihr eigenes Verhalten an. Junge Eltern beobachten, wie ihre Kinder unhöflich zu anderen sind und weder “Bitte” noch “Danke” benutzen. Die Frage ist, woher kommt dieser herrische Ton. Die Eltern machen es vor, natürlich nicht im Umgang mit Freund:innen oder Familie, aber tagtäglich im Umgang mit den digitalen Mitbewohner:innen. Alexa, Siri und Co, wecken den Drill-Sergeant in uns, denn sie brauchen direkte Befehle mit möglichst wenig überflüssiger Information. Kinder lernen durch Beobachtung ganz genau, wie sie mit Sprachassistenten zu reden haben: klare Ansagen und Befehle, damit Alexa auch bloss versteht, was sie machen soll. Den Schritt zu unterscheiden, dass dies keine angemessenen Umgangsformen mit wirklichen Menschen sind, schafft dabei nicht jedes Kind. Nun mag diese Entwicklung noch nicht dramatisch sein, sie könnte aber in Zukunft massgeblich unsere Kommunikation beeinflussen und das so schleichend, dass wir es kaum bemerken. 

Dimension 3: Big Data is watching you

So unbewusst, wie sich unsere Kommunikation verändert, so unscheinbar sind auch andere Gefahren, die Sprachassistent:innen in unser Leben bringen. Denn sobald man sich an die Mitbewohner:in gewöhnt hat, wird dessen ständige Anwesenheit kaum noch wahrgenommen. In Vergessenheit gerät dabei besonders der Fakt, dass Alexa und ihre Pendants eine ständige Verbindung zum Internet haben und wir so tagtäglich ganz nebenbei eine gigantische Menge an Daten produzieren.  Das Schlimmste daran: Wir verschenken unsere persönlichen Daten mit grossem Vergnügen gegen kostenlose Quizfragen und süsses Katzenschnurren zum Einschlafen. 

Noch werden unsere Daten nicht richtig genutzt, allerdings ist es unseren KI-Freund:innen heute schon möglich, aus diesen herzuleiten, wie wir uns fühlen und was wir brauchen – gezielte Manipulation hinsichtlich unseres Konsumverhaltens ist hier nur noch einen kleinen Schritt entfernt. 

Der Wettlauf darum, die meisten Daten zu sammeln hat schon lange begonnen. Das Ziel? Eine Kombination aus dem Wissen über das Produkt an sich, mit dem Wissen über die (suchende) Person. Die Frage der Zukunft lautet also nicht mehr “Alexa, was ist das beste Auto?” sondern “Alexa, was ist das beste Auto auf Basis dessen, was du über Autos und über mich weisst?”. Auf der einen Seite wird das in Zukunft unsere Entscheidungen wahnsinnig leicht und vermutlich deutlich effizienter machen. Auf der anderen Seite ist die Erkenntnis, dass ein Algorithmus die eigenen Vorlieben besser kennt als man selbst, extrem beängstigend. Ungeachtet der Tatsache, dass diese Algorithmen Unternehmen wie Amazon, Google und Apple gehören und deren Interesse hauptsächlich darin liegt, unser Verhalten kapitalisierbar zu machen. Investiert wird also nicht in die Erkundung und Förderung unseres menschlichen Geistes und Potentials, sondern in die Verbesserung von Big Data, KI und Internetverbindungen mit dem Ziel, den eigenen Umsatz zu steigern. Langfristig kann dieser Fokus nur zu einer Gesellschaft zahmer Datenkühe führen, die Unmengen an Daten produzieren und mit Hilfe intelligentester Computer sich und der Welt grossen Schaden zufügen können. Wo wir wieder beim Thema Ethik wären: Wer ist dafür verantwortlich diese Entwicklung zu verhindern? Die Politik, die Unternehmen oder doch wir selbst als bewusst handelnde Menschen?

Mensch – KI, KI – Mensch: ein Schlichtungsversuch

Fakt ist, die Entwicklung von Sprachassistent:innen, KI und Big Data ist nicht mehr aufzuhalten. Umso wichtiger ist es, den richtigen Umgang zu lernen und Bewusstsein für die Möglichkeiten der Technologie und der Unternehmen dahinter zu schaffen. Die Herausforderung der Zukunft ist es, Technologie und Ethik in Einklang zu bringen. Aufklärung ist hier nur der Anfang, vielmehr sollten wir uns für  eine bewusste Nutzung von KI entscheiden, denn es ist nicht alles nur schlecht. 

Negative Schlagzeilen, Datenlecks und Co. rücken Sprachassistent:innen und KI immer wieder in ein schlechtes Licht, dabei geraten die vielen positiven Aspekte in Vergessenheit. Denn unsere digitalen Begleiter:innen bieten nicht nur für Unternehmen riesige Vorteile, sondern können auch unseren Alltag extrem erleichtern. Vom Timer, über das Vorlesen von Bedienungsanleitungen und Rezepten, hin zur Unterstützung einsamer oder älterer Menschen. Viele sehen das kritisch, aber erste Versuche zeigen, dass Sprachassistent:innen besonders im Umgang mit Demenzkranken oder Autisten uns Menschen teilweise überlegen sind und so das alltägliche Leben deutlich vereinfachen oder können.

Ein Blick in die Zukunft

Bereits heute wissen wir, dass Sprachassistent:innen nur der Anfang von KI sind, schon bald wird auch das autonome Fahren zu unserem Leben gehören und hier rückt wieder die Diskussion darüber, was Ethik und Moral überhaupt bedeuten in den Vordergrund. Fest steht, Algorithmen vertrauen nicht auf ihr Bauchgefühl und haben auch keine Emotionen – und das ist gut so! Im Umkehrschluss bedeutet dies, dass sie moralische Prinzipien deutlich besser umsetzen können – vorausgesetzt wir finden eine Möglichkeit, ethisches Verhalten in präzise Zahlen und Statistiken zu übersetzen. Besonders in Krisenmomenten, in denen wir Menschen kaum klar denken können, kann Künstliche Intelligenz weiterhin rational und logisch vorgehen. Sind KI-Roboter also die besseren Menschen, wenn es um hochkomplexe moralische Entscheidungen geht? Die Antwort ist wohl ein klares Jein.

Am 20.08.2020 diskutierten unsere Expert:innen bei den DEPT® Talks die spannendsten Fragen der Zukunft rund um das Thema Digitalisierung & Ethik. Hier geht es zur Aufzeichnung.

Mehr Artikel?

Alle Artikel ansehen

Fragen?