Gefühllose Geräte

Wie Computer uns zu verstehen lernen, ohne uns je zu verstehen.

Illustration: Dirk Schmidt

Vor einer ganzen Weile las ich in der Zeit einen Artikel, in dem en passant eine Londoner Produktionsfirma namens Portal Entertainment erwähnt wurde, die plane, Horror­filme dem Gefühlszustand der Zuschauer anzupassen. Wenn also jemand emotionslos die Bilderfolgen betrachte, könne der Film immer gruseliger werden, stehe hingegen ein anderer bereits kurz vor dem Infarkt, wende sich die Sache ins Harmlose.

Das ist für mich insofern interessant, als ich Horror jeder Art verabscheue. Schon einfaches Blutvergießen lässt mich den Blick abwenden, und ich erinnere mich, nach Das Schweigen der Lämmer vor Entsetzen einen Hörsturz erlitten zu haben. Es müsste mir also mit Hilfe von Portal Entertainment möglich sein, einen Horrorfilm zu sehen, ohne einen Horrorfilm zu sehen, verstehen Sie? Während alle anderen im Kino mit leichtem Schaudern und bei allenfalls rascher werdendem Popcornverzehr zusehen, wie menschenzerfleischende Zombies und blutentleerte Untote ihrem Handwerk nachgehen, läuft für mich eine gemütsschonende Spezialversion: Feen in wehenden Gewändern tanzen über Frühlingswiesen. Kann ein Horror sein, wenn das zwei Stunden dauert, aber ein zarter.

Möglich werden solche Vorstellungen ja, weil sich das sogenannte affective computing weiterentwickelt: Gefühlserkennung durch Computer. Immer weiter schreitet solche Technik voran, darin führend ein Unternehmen namens Affectiva: Dessen Entwickler gehen zu Recht davon aus, dass nur ein sehr geringer Teil der menschlichen Kommunikation aus Wörtern besteht, der weitaus größte ist, wer wüsste das nicht?, nonverbal: Gesichtsausdruck, Gestik, Körpersprache, die nicht mal auf bewusster Steuerung beruht. Bei Affectiva gibt es ein gigantisches Archiv aus Millionen von Gesichtsausdrücken – auf die kann der Computer zurückgreifen, um das Innere seines Gegenübers zu analysieren.

Meistgelesen diese Woche:

Jetzt sind wir wieder beim Horror, nicht wahr? Denn im Moment tritt uns all dies noch im Gewand des Nützlichen, ja: Niedlichen gegenüber. Auf dem Display des Autos erscheint eine Kaffeetasse, wenn die Handbewegungen am Lenkrad Müdigkeit erahnen lassen. Emotionsroboter, die manchem Japaner näher sind als Menschen, haben freundliche Kulleraugengesichter und heißen Pepper oder Nao. Gern wird auch behauptet, wie hilfreich der Gefühlscomputer für Autisten oder Depressionskranke sein kann.

Ja, ja. Es ist bloß so: Maschine bleibt Maschine, also – Gefühlsarmut ist bei Geräten gar kein Ausdruck, sie rechnen uns halt bloß aus, von Verstehen keine Rede – erstens. Zweitens: In der Neuen Zürcher Zeitung schrieb der Medienwissenschaftler Roberto Simanowski, problematisch sei weniger, dass jemand sozusagen aus dem Sicht­baren des Menschen auf dessen Unsichtbares schließen könne, das tun Menschen immerzu, nein, das »Ärgernis besteht darin, dass er dazu kein brillanter Geist und versierter Menschenkenner sein muss. Jeder Idiot kann nun mit der richtigen App ins Innere seines Gegenüber schauen«. Und es sei auch so, dass man mit bloßen Händen vor schwer bewaffneten Gegnern stehe, nicht wahr? Plötzlich verstehe man die Angst gewisser Urvölker, die Kamera des Ethnologen oder Touristen könne einem die Seele stehlen.

Wir bleiben wachsam, im neuen Jahr, okay? Eigentlich war mein Plan, dass diese Kolumne sich ab 2020 dem jeweiligen Seelenzustand der Leserin oder des Lesers anpassen sollte, mit Hilfe aus dem Papier herauslugender Argusaugen, also: Der Komikbedürftige bekäme was zu lachen, wem nach Weinen zumute ist, dem triebe der Text die Tränen in die Augen, ganz nach Bedarf. Technisch wäre es möglich, aber die Sache ist mir zu unheimlich. So bleibt erst einmal alles beim Alten, aus ethischen Erwägungen.