Maschinen wissen nicht, was sie tun. Denn für einen Umgang mit Menschen müssen Maschinen lernen, Gefühle zu erkennen und sie müssen lernen mit Gefühlen umzugehen.
Im Film Ex Machina begegnet ein junger Mann namens Caleb dem Androiden Ava in einer Testsituation. Er soll feststellen, ob das Programmierte Wesen ein dem Menschen ebenbürtiges Denkvermögen besitzt. Ava aber vermittelt Caleb das Gefühl, er habe es mit einem Individuum zu tun, das vor der nahenden Neu-Programmierung gerettet werden müsse. Das kann nicht gutgehen. Wie sich herausstellt, war der Mensch das eigentliche Testobjekt, das sich von der geschickt gespielten Maschine hat täuschen lassen.
Noch sorgt die Idee eines programmierten Gefährten, der Zugang zu menschlichen Gefühlswerten hat, für Skepsis. Während künstliche Intelligenz bei körperlichen Einschränkungen, als Haushaltshilfe und Servicekraft auf immer größeres Interesse stößt, gibt es für emotionalen Beistand bisher kaum Modelle.
Dabei überlassen Nutzer der Technik schon jetzt Verantwortung. Wenn es etwa um die richtige Ernährung, Fitness und vieles mehr geht, helfen immer häufiger Bots dabei, zu strukturieren und zu mäßigen.
Das ganze macht sie aber noch nicht zum Freund. Nach Einschätzungen von Wissenschaftlern der Universität Stuttgart, kann eine Maschine dem Menschen ohne großen Aufwand das Gefühl vermitteln, einen Gesprächspartner mit Bewusstsein vor sich zu haben. Auch einen Menschen Gegenüber lässt sich nicht in den Kopf hineinsehen. Die Wissenschaftler verweisen auf die Erfahrungen des amerikanischen Informatikers Joseph Weizenbaum, der bereits in den Sechzigern das Computerprogramm Eliza entwickelte, um eine Psychotherapie zu simulieren.
Weizenbaum wollte eigentlich Unzulänglichkeiten in der Kommunikation zwischen Menschen und Maschinen aufzeigen.
Tatsächlich fühlten sich überraschend viele seiner Testpersonen von dem Programm verstanden.
Loyalität, Interesse, Verständnis. Welche Erwartungen also müsste ein lernfähiges digitales System wie Alexa oder Siri erfüllen, um zu einem Gefährten des Menschen zu werden?
Kognitiv dienen Emotionen als Maßeinheit zur Regulierung von Interaktion und Prio-Setzung im zwischenmenschlichen Umgang. Wenn es Computern gelingen soll, natürlich mit Menschen zu interagieren und intuitiv mit Menschen zu interagieren und sich an sie anzupassen, hilft die Fähigkeit, Gefühle zu erkennen und auszudrücken.
Ob sich künstliche Intelligenz als Schulter zum Anlehnen eignet, hängt auch von ihrer Form und ihrem Aussehen ab.
Wenn eine Maschine dem Menschen zu sehr ähnelt, dann wirkt das unheimlich. Und der Eindruck der Überlegenheit, der künstlichen Intelligenz vom Schachcomputer bis zum autonomen Fahren anhaftet, verstärkt die Sympathie nicht gerade.
Sprachassistenten wie Siri und Alexa sollen zu Freunden im digitalisierten Alltag werden, bislang allerdings mit überschaubarem Erfolg. Die Kommunikation mit ihnen ist deshalb so unergiebig, die Codes für die feinen Zwischentöne zu entschlüsseln. Ironie, Dialekt, Sarkasmus. Damit könnte es aber bald vorbei sein. Forschern der Universität Lissabon ist es gelungen, anhand von Datennetzwerken Sarkasmus und Ironie in Facebook-Posts, Tweets und anderen Aussagen im Netz auszumachen. Es wird seit kurzem ein Algorithmus eingesetzt, der den Ton von Äußerungen in den sozialen Medien entschlüsselt.
Der Mensch ist imstande, abzuwägen und zu einem Urteil zu kommen, zu argumentieren und seine Entscheidung zu begründen. er kennt Scham-und Schuldgefühle und hat ein Gewissen. Eine Maschine hat das nicht.
Einige Experten halten es für durchaus vorstellbar, mithilfe maschinellen Lernens aus der Zusammensetzung verschiedener Erfahrungen eine Art Urteilskraft zu generieren. Gerade für die Maschinenethik, deren erklärtes Ziel es ist, Maschinen mit der Fähigkeit zum moralischen Handeln auszustatten, wäre das ein bedeutender Schritt.
Partner auf Augenhöhe kann die künstliche Intelligenz erst dann sein, wenn sie ein Bewusstsein aufweist. Das bedeutet, sie muss sich Emotionen vorstellen können und zur Selbstreflektion fähig sein.
Systeme wie das System Repika erkennen zwar Motive und Gesprächsmuster wieder, wissen aber nicht, was sie tun. Wer will schon jemanden zum Freund haben, der zuhört, aber nicht versteht? Vor allem, wenn dieser Freund eine Bedrohung darstellen könnte? Dieses Gefühl jedenfalls kommt auf, wenn das wichtigste Unterscheidungsmerkmal zwischen Mensch und Maschine zur Disposition steht.