Künstliche Intelligenz

Darf ein "Artificial Moral Agent" urteilen und petzen?

Strassenschild mit Himmel
Bild: DNY59 | Getty Images

Was ist davon zu halten, wenn Amazon Echo oder Google Home von verschwiegenen, dienstfertigen Assistenten zu Aufpassern und moralischen Instanzen werden?

Allzu verschwiegen sind die smarten Assistenten, die in der Wohnung und im Büro von Millionen von Anwendern sitzen, auch heute nicht.

Alexa oder Google Assistant sind jederzeit dienstbereit, in ihrem Wirken jedoch nicht nur ihren direkten Mitbewohnern gegenüber mitteilsam. Immerhin kennen sie die Vorlieben und Gewohnheiten ihrer Nutzer bis ins Detail. Damit lässt sich viel anfangen. Würde zum Beispiel Alexa, die Stimme von Amazon Echo, dieses gesammelte Wissen wie eine beste Freundin für sich behalten, könnte das die noch deutlich tiefere Freundschaft zu ihrem Mutterhaus Amazon akut gefährden.

Mag man Alexa und anderen Assistenten auch Kommunikationsfreudigkeit nach allen Seiten und eine gewisse Geschwätzigkeit unterstellen, ausgemachte Petzen waren sie bisher nicht. Das könnte sich ändern.

Digitale Assistenten mit Künstlicher Intelligenz als moralische Instanz?

Baut man den smarten Assistenten eine moralische Komponente mit in ihre Künstliche Intelligenz ein, werden sie zu digitalen Hütern von Moral und Ordnung – vielleicht auch zu Petzen. Konkretes Beispiel:

Kiffen die Kids bei sturmfreier Bude, kann das mit einer Information an die Eltern sanktioniert werden. Oder auch gleich an die Polizei, wenn die Schwere des Vergehens alle moralischen Grenzwerte der Assistenten strapaziert. Die Eltern sollten sich nicht in falscher Sicherheit wiegen, auch sie wären dem moralischen Radar ihres digitalen Assistenten ausgesetzt. Also immer schön auf dem Pfad der Tugend wandeln, man weiss ja nie, wie empfindlich die moralischen Sensoren inzwischen ticken. Alle paar Tage ein unheilschwangeres "Wir müssen reden!", wäre noch die geringste Form der denkbaren Mahnungen und Sanktionen.

Alexa und Amazon Echo oder Google Home nach der ersten Abmahnung aus dem eigenen Haus zu verbannen, würde das Problem der möglicherweise unterschiedlichen Moralvorstellungen nicht lösen. Das System des moralischen Fallbeils ist nicht an digitale Assistenten gebunden, das würde sich in zahlreiche Technologien integrieren lassen, die sich dem direkten Einfluss der moralisch Kontrollierten entziehen.

Ein Gedankenexperiment der Universität Bergen

Die Forscherinnen und Forscher des Universität Bergen nennen den neuen Mitbewohner "Artificial Moral Agent", der auf illegale Aktivitäten im Haushalt reagieren soll. Dieses elektronische Gewissen soll jedoch ausgewogen agieren und niemanden "leichtfertig verpfeifen", besagt die Studie, vielmehr werde "das System die verschiedenen rechtlichen und normativen Faktoren aller Beteiligten sorgfältig abwägen und so zu einer ethischen Entscheidung kommen".

Das beruhigt natürlich über alle Massen, sofern die Frage nicht gestellt wird, wer dem System die moralischen, rechtlichen und normativen Parameter zum Start injiziert – und wer im Laufe der Zeit in wechselnder Besetzung die moralischen Sensibilitäts-Sensoren rauf- und runterpegelt.

Wie gesagt, im Moment "nur" ein Gedankenexperiment. Entdeckt von Miriam Meckel im New Scientist und von ihr weitergedacht im sonntäglichen ada – Brief aus der Zukunft. Details zu den Überlegungen der Forscherinnen und Forscher der verschiedenen Universitäten zur Architektur des "Artificial Moral Agent" gibt's hier nachzulesen.

Könnten George Orwell (1984) oder Aldous Huxley (Schöne neue Welt) mitlesen, sie sähen sich bestätigt und wären möglicherweise versucht, ihre frühen dystopischen Romane zum Thema um einige visionäre Gedanken zu erweitern.