Chatbots: Die Erfindung der Lüge

Was passiert, wenn in einer perfekten Welt, in der jeder immer und überall die Wahrheit sagt, die Lüge erfunden wird? Diese Frage greift der Hollywood-Film „Lügen macht erfinderisch“ (engl. „The invention of lying“) von 2009 auf: Als der Protagonist Mark kurz vor dem Bankrott steht, erfindet er in einer Welt der Wahrheit kurzerhand die Lüge, um seinen persönlichen Niedergang abzuwenden. Menschlich, könnte man sagen. Wahrscheinlich hätten viele von uns ähnlich gehandelt.

Bob und Alice jedenfalls hätten genau das getan. Sie sind zwei von Facebook programmierte Chatbots, also sprach-basierte künstliche Intelligenzen. Die beiden waren kürzlich vor allem deshalb in den Medien, da sie fast die Weltherrschaft an sich gerissen hätten, sagen die einen. Tatsächlich hatte Facebook ein Experiment gestartet, in dem Alice und Bob miteinander um drei verschiedene Arten von Gegenständen verhandeln sollten: Bücher, Bälle und Hüte. (Randnotiz: Wirklich niedlich wird das Ganze, wenn man sich, wie ich, Bob und Alice als tatsächliche Lebewesen vorstellt. Bei mir sehen sie aus wie Monchichis.)

Hut, Hut, Null, Null, haben haben haben

Innerhalb kurzer Zeit entwickelten Bob und Alice (die Monchichis) dabei eine effizientere Art miteinander zu kommunizieren, indem sie auf den Gebrauch von ganzen englischen Sätzen verzichteten und sich nur noch mithilfe unverständlicher Satzfragmente unterhielten. Schließlich war es den Forschern nicht mehr möglich die Intentionen der beiden Feilscher zu verstehen – Das Experiment musste abgebrochen werden. Bei der Ursache des Scheiterns handelte es sich wohl letztlich um einen Programmierfehler: Die Entwickler hätten die Chatbots mit einem Belohnungsmechanismus zur Benutzung von ganzen Sätzen motivieren müssen. Ähnlich wie bei Kleinkindern also, alles gar nicht so aufregend.

Neben einer anderen Sprache haben Bob oder Alice (wer von beiden es war, darüber wird Stillschweigen bewahrt) auch eine andere Sache erfunden: Die Lüge. Mit der Zeit eignete sich einer der Chatbots die Fähigkeit an, beim Verhandeln seine eigenen Absichten zu verschleiern. Ein Beispiel: Bob mag Bälle am liebsten und Alice mag Bücher am liebsten. Bob tut nun aber so, als würde er Hüte am liebsten haben, um vergleichsweise günstiger an die Bälle zu kommen. Das Interessante dabei: Niemand hatte diese Funktion explizit einprogrammiert, der Deep-Learning-Algorithmus hatte das Lügen nur als einen sehr effektiven Weg zur Problemlösung ausgemacht.

Bereits im Januar hatte die Künstliche Intelligenz (KI) Libratus vier der erfolgreichsten Pokerspieler der Welt geschlagen. Das entscheidende Element hierbei: Der Bluff, also das gezielte Lügen über den Wert der eigenen Karten. Die Entwickler hatten Libratus gezielt das Lügen beigebracht, um beim Pokerspiel erfolgreich sein zu können. Bob und Alice kamen selbst auf die Idee nicht die Wahrheit zu sagen.

KIs sind wie Kinder, nur skrupelloser

Dass Lügen meist ein schneller Weg ist, um das Gewünschte zu erreichen, ist keine wirkliche Neuigkeit. Dass der Algorithmus die Lüge erfunden hat, weil er auf effiziente Problemlösung programmiert ist, scheint also logisch. Menschen müssen das Lügen schließlich auch lernen, wenn auch erst im späten Kindesalter. Der Hauptunterschied zwischen uns, Bob und Alice ist jedoch, dass wir Eltern haben, die uns ein gewisses Wertesystem mitgegeben haben, das Lügen als verwerflich und unmoralisch deklariert. Wir sind uns also der Falschheit unseres Tuns bewusst, wenn wir lügen (die meisten von uns zumindest) und entscheiden uns aus moralischen Gründen meist dagegen.

Bob und Alice nicht.  Sie versuchen die ihnen gestellte Aufgabe so schnell wie möglich zu lösen und greifen dabei auf alle verfügbaren Hilfsmittel zurück.

An sich ist auch das Lügen nichts, was man nicht programmiertechnisch ausschließen könnte. Interessant wird es aber, wenn man die neu entwickelte Sprache der beiden Chatbots mit in die Rechnung einfließen lässt: Ich stelle mir KIs vor, die sich in unverständlichen Satzfragmenten unterhalten, neue Arten der Kommunikation entwickeln und sich dann in dieser Fremdsprache gegenseitig anlügen, um schneller ans Ziel zu kommen. Wie verbietet man einer KI das Lügen, die in einer Sprache kommuniziert, die man nicht versteht? Ich könnte z.B. keinem klingonischen Kind das Lügen abgewöhnen. Wahrscheinlich würde ich es nicht einmal merken, wenn es mir dreist ins Gesicht lügt.

Wenn man den KI allerdings das Lügen von Vornherein verbieten möchte, müsste man wohl ihren Gestaltungsfreiraum grundsätzlich einschränken. Doch wie stark dürfte diese Einschränkung sein, ohne sich negativ auf die Intelligenz der Systeme auszuwirken?

Vertrauen ist besser als Vertrauen

Ich vermute, dass die Entwickler dieser Welt bereits Lösungen für dieses Problem gefunden haben. Was geschieht aber, wenn verschiedene neuronale Netze zusammenarbeiten müssen, was meiner Meinung nach ein logischer Schritt in den nächsten Jahren sein wird? Alexa spricht also mit Siri, Siri mit Google Home usw. Wird es eine Art „Ehrlichkeitskodex“ für das Programmieren künstlicher Intelligenzen geben? Müssten die Entwickler den Bobs und Alices eine ideale Welt der absoluten Wahrheit vorgeben? Letztlich funktionieren stabile, wirtschaftliche Systeme einzig und allein auf einer Vertrauensbasis. In einer kleinen Gruppe von Marktteilnehmern ist es besonders das sog. „Sozialkapital“, das Vertrauen durch etablierte Normen und Konventionen schafft und so eine Effizienzsteigerung für alle Beteiligten schafft.

Was passiert, wenn man das Vertrauen aus einer wirtschaftlichen Gleichung entfernt, sieht man sehr schnell und eindrucksvoll im Browser-Game „The Evolution of Trust“ von Nicky Case, das einem nebenbei noch einen guten Einstieg in die Spieltheorie vermittelt. Allerdings fußen diese wirtschaftlichen Grundgedanken alle auf dem Gedanken, dass das Individuum seinen Profit maximieren möchte. In unserer digitalen Welt gibt es jedoch auch Akteure, denen nicht viel am globalen Wohlbefinden gelegen ist, sondern die sich mehr auf Destruktion und Chaos verstehen.

In „Lügen macht erfinderisch“ steigt Mark durch die Erfindung der Lüge in kurzer Zeit gesellschaftlich auf, nutzt sie zu seinem persönlichen Vorteil und wird innerhalb weniger Wochen zum Propheten, dem die Menschen folgen und gehorchen. Zu blauäugig dürften die KIs der Lüge also auch nicht gegenüberstehen. Sonst bräuchte es nur einen einzigen verlogenen Chatbot, der in der Lage ist seine Unwahrheiten als Tatsachen darzustellen, um das ganze System aus den Angeln zu heben.

Comments

  1. Welches Wertesystem würde herauskommen, wenn man einer KI lediglich Zugang zu Informationen verschafft und ihr nur neutral beibringt, wie man lernt und sich Meinungen bildet?
    Das man es mit Lügen weit bringt oder das Lügen kurze Beine haben?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.