Es war ein Dienstagabend im New Yorker People’s Improv Theatre, auch bekannt als PIT, dem Improvisations-Inkubator, der Comedians wie Hannibal Buress und Kristen Schaal ins Leben gerufen hat. Das Publikum war voller Techniker. Improvisation und Technologie kreuzen sich nicht oft, aber die neue Show von Google-Ingenieur Brandon Diamond ComedybotsDie Techniker, in denen Ingenieure Roboter bauen, um an Improvisationen teilzunehmen, hatten die Techniker aus ihren schwach beleuchteten Codierhöhlen in die PIT gezogen.
Das Team führte zwei Montagen durch, improvisierte für eine Szene, die auf einem Vorschlag des Publikums beruhte, und führte zusammen mit ihnen einen lebensgroßen, silbernen Roboter mit verschleierten Augen auf. Es fiel gelegentlich von der Roboterplattform, auf der es gedreht wurde, aber das machte es nur noch lustiger.
"Die nächste Stufe der Mensch-Roboter-Schnittstelle ist die Relativität", sagte Diamond gegenüber The Daily Beast.
Untersuchungen zeigen, dass die Menschen Angst vor Robotern haben, vor allem aus Sorge um eine Zukunft, in der Roboter Positionen einnehmen, die einst Menschen gehörten. Der neueste McKinsey-Bericht warnte Frauen, dass Roboter 160 Millionen von ihnen ausschalten könnten ein Job, wenn sie nicht so schnell wie möglich umqualifizieren. Eine Studie der Baylor University ergab, dass in der amerikanischen Gesellschaft eine wachsende Zahl von Technophoben lebt, die Angst haben, eines Tages ihren Arbeitsplatz an Roboter zu verlieren.
Einige Wissenschaftler glauben, dass Roboter, die Konversationshumor beherrschen und wie die Menschen, denen sie dienen, sprechen, Menschen dabei helfen könnten, sie als Teil unseres Lebens zu akzeptieren. Aber ist das überhaupt wissenschaftlich möglich?
Diamond ist nicht der einzige, der sich fragt, ob er und sein Roboter jemals Witze tauschen können. In Augsburg, Deutschland, hat ein Forscherteam Irony Man entwickelt, einen Roboter, der in der Lage ist, die Augen zu verdrehen und Dinge wie „Ich liebe meinen schlimmsten Feind“ zu sagen. Irony Man existiert, weil Hannes Ritschel und sein Team wissen, dass unsere zwischenmenschlichen Gespräche überfüllt sind der Ironie. Wenn Menschen mit ihren Robotern auf die gleiche Weise sprechen könnten, wie sie miteinander sprechen, würden sie sich möglicherweise der Technologie zuwenden.
"Ironie lässt Roboter sozial intelligenter und attraktiver für den Menschen erscheinen", sagte Hannes Ritschel, einer der Autoren der Irony Man-Studie.
Irony Man ist ein weißer Roboter der Marke Reeti, der mit einer Software zur Verarbeitung natürlicher Sprache und multimodalen Ironiemarkern nachgerüstet wurde. Die großen Augen und der kurze, gedrungene Körper lassen es wie eine blasse, nackte Yoda aussehen. Ein Benutzer sagt etwas („Ich liebe Äpfel“) und Irony Man verwendet seine Software zur Verarbeitung natürlicher Sprache, um die Aussage zur Polarisierung von Wörtern wie Liebe oder Hass, zwei der häufigsten, zu bewerten. In diesem Fall ist das Wort Liebe. Irony Man wird antworten und das polarisierende Wort in das Gegenteil ändern. "Ich hasse Äpfel!"
Nach der Sprachverarbeitung werden im nächsten Schritt Markierungen hinzugefügt, um Benutzern das Erkennen von Ironie zu erleichtern. "Wenn Menschen ironisch sprechen, ändern sich ihr Ton und ihr Gesichtsausdruck", sagte Ritschel. Daher ändern sich auch die Stimme und die Körpersprache von Irony Man. "Ich hasse Äpfel", sagt Irony Man. Dann zwinkert er.
"Die nächste Ebene der Mensch-Roboter-Schnittstelle ist die Relatabilität."
– Google-Ingenieur Brandon Diamond
Die Studie, an der 12 Teilnehmer teilnahmen, ergab, dass sieben von ihnen den ironischen Roboter bevorzugten, vier von ihnen ihn nicht mochten und einer unentschlossen war. Ritschel hofft, die Studie mit einer größeren Stichprobe wiederholen zu können, und beim nächsten Mal möchte er daran arbeiten, den Roboter auf Unzulänglichkeit zu untersuchen.
"Wenn wir einen Algorithmus erstellen können, der den Kontext erkennt, haben wir mehr Kontrolle darüber, wie der Roboter Ironie einsetzt", sagte er. Dies würde helfen, Situationen zu vermeiden, in denen Benutzer weinen und der Roboter beim Lächeln so etwas wie „Ich liebe Tränen“ sagt. "Im Idealfall sollten Roboter einen einzigartigen Gesprächsstil haben, der sich im Laufe der Zeit an die Bedürfnisse des Benutzers anpasst", sagte Ritschel. Irony Man ist noch weit davon entfernt, dies zu erreichen, aber es ist ein Anfang.
Linguisten haben jahrelang versucht, dem Computer Humor beizubringen, mit begrenztem Erfolg. Es gibt ein wachsendes akademisches Gebiet, das sich dem Roboter-Humor widmet, da Wissenschaftler immer noch nicht wissen, zu welchem Verständnis künstliche Intelligenz trainiert werden kann. In einer Studie aus dem Jahr 2008 hörten sich die Teilnehmer Witze an, die über eine Textschnittstelle und einen Roboter erzählt wurden, und hielten die Witze der Roboter für wesentlich witziger, möglicherweise aufgrund der Unwahrscheinlichkeit. 2010 verspottete der damalige Senator John McCain den nordwestlichen Professor Kris Hammond, weil er die Mittel der National Science Foundation für ein Projekt über computergenerierten Humor verwendet hatte. "Ich möchte Maschinen bauen, die genau wie wir sind", sagte Hammond, der immer noch an automatisierten Komödien arbeitet, zu The Daily Beast. Und was ist menschlicher als eine Maschine, die Spaß macht?
In einer Studie von 2016 entdeckten Wissenschaftler einen Zusammenhang zwischen den Persönlichkeitstypen der Menschen und ihrer bevorzugten Art von Roboter-Humor. Neurotische Menschen mochten es, wenn die Roboter selbstironisch waren und offenere Menschen Schadenfreude vom Roboter zeigten. Und im Jahr 2018 gab es eine Roboter-Stand-up-Komödie, in der Robo-Thespisjünger auf der Bühne standen und aus einer Datenbank vorgeschriebener Witze auftraten.
Ironischer Roboter-Humor ist bereits Teil der Online-Umgebung vieler Menschen. Siehe Twitter-Konten @headlinertron, in denen eine KI stundenlang aufgestanden war und dann gebeten wurde, Witze zu machen, oder @sarcasticrover, eine schärfere Version des inzwischen verstorbenen Opportunity-Rovers. (Jerry Seinfeld nannte diese computergeschriebenen Witze "gar nicht so schlecht".)
Aber einige sind skeptisch. "Humor erfordert Kontext, Kenntnisse der Kultur, Timing", sagte Professor Quiang Ji, Professor für Elektrotechnik am Rensselaer Polytechnic Institute in Troy, New York.
Theoretisch wäre es ein teures und zeitaufwendiges Unterfangen, einen Roboter-Humor zu unterrichten. Zu Beginn würde man eine riesige Menge an Daten benötigen, die alle Arten von Humor umfassen, von eingemacht bis zu Konversation. Dann müssten Mitarbeiter eingestellt werden, um die Daten zu kommentieren und für lustig oder nicht lustig zu erklären, was angesichts des subjektiven Humors auch schwierig ist. Dann hätte der Roboter eine Datenbank, aus der er lernen kann.
Ji schätzt, dass wir ungefähr 10 Jahre von einem wirklich lustigen Roboter entfernt sind. "Es wird eine weitere KI-Revolution geben müssen, um Roboter-Humor zu lehren", sagte er. Bestimmte Tricks können in den Roboter programmiert werden, wie es Andre und ihr Team mit Irony Man taten, wie ein Rollen der Augen und eine Veränderung der Stimmlage. "Aber das ist kein Humor", sagt Ji. "Das ist Hardware."
Und wenn wir unsere lustigen Roboter bekommen, werden wir bereit sein? "Vom Standpunkt der KI-Ethik aus gesehen ist Roboter-Humor geradezu gefährlich", sagt Selmer Bringsjord, Experte für künstliche Intelligenz. Um einen lustigen Roboter zu haben, muss es zuerst einen ethischen geben, um sicherzustellen, dass der Roboter nicht beleidigt. Zum Beispiel ist es in Norwegen selbstverständlich, Witze darüber zu machen, dass Schweden im Dunkeln liegen. Aber für einen Roboter wäre es ein offensichtlicher Fehler, diesen Witz bei einem Geschäftstreffen zu machen, an dem Schweden teilnehmen, sagt Bringsjord. Lustige Roboter würden einen übergreifenden Ethikkodex benötigen, der für alle gilt, jenseits von Isaac Asimovs Drei Gesetzen.
Der Mangel an Kontext ist jedoch nicht das einzige Problem, das Wissenschaftler sich vorstellen. „Aus utilitaristischer Sicht kann man erkennen, dass Humor äußerst wertvoll ist, um Konflikte zu entschärfen. Es gibt keinen Grund, warum wir Roboter nicht mit dieser Kapazität ausrüsten sollten “, sagte Bringsjord. „Roboter, die beim Menschen positive Emotionen auslösen, sind jedoch eine Form der Täuschung. Es gibt den beteiligten Menschen das Gefühl, dass die Roboter Emotionen haben, wenn die Ingenieure und Designer wissen, dass sie es verdammt noch mal nicht wissen. “Dies wird zu einem globalen Problem. In Japan, wo Roboter als Kindermädchen oder ältere Betreuer dienen, gibt es wenig Bedenken, während das Europäische Parlament 2017 eine Entschließung zur zivilrechtlichen Robotik verabschiedete und die USA irgendwo dazwischen liegen.
In einem Video, das im Irony Man-Labor in Augsburg gedreht wurde, wird eine Frage gestellt. Was denkt Irony Man über Fast Food? Er antwortet zweimal, einmal ohne Ironie und einmal mit.
"Ich hasse Fast Food", sagt er das erste Mal. "Es ist überhaupt nicht gesund."
"Ich liebe Fast Food", sagt er das zweite Mal, schaut zur Seite und spricht langsam nach Betonung. "Es ist überhaupt nicht gesund."
Der Forscher hinter der Kamera lacht. Im Moment denken einige Leute, dass Irony Man lustig ist. Eines Tages könnte er hysterisch sein.