Technik

Das Auto der Zukunft erkennt unsere Gefühle

von Roland Kontny

Freude oder Wut, Müdigkeit oder Trauer: Solche Gefühle können Autos erkennen und sich anpassen. Eine große Hilfe – oder eine erschreckende Entwicklung?

Das Auto der Zukunft erkennt unsere Gefühle
Ein ganz bestimmtes Lächeln, eine ganz besondere Kopfhaltung: Das Erkennen von Emotionen kann komplex sein. Trotzdem soll künstliche Intelligenz bald dazu in der Lage sein. Foto: Brandi Redd/Unsplash

Das erfahren Sie gleich:

  • Emotionen sind für die Künstliche Intelligenz erkennbar
  • Autos könnten künftig auf die Gefühle ihres Fahrers reagieren
  • Die Trefferquote liegt bereits bei knapp 80 Prozent

Gefühle und Technik – das ist kein Widerspruch

Haben Sie auch schon mal mit den Fäusten auf die Tastatur geschlagen, weil ihr Computer einfach nicht getan hat, was Sie wollten? Oder das Smartphone beschimpft, weil die Spracherkennung nur Bahnhof versteht? Ist sicher schon jedem mal passiert. Und genützt hat es natürlich am Ende nichts, schließlich ist es eine Maschine. Dennoch wünschen wir ihr in solchen Moment nur das schlechteste. Das zeigt zum einen, dass der Mensch gegenüber moderner Technik ähnlich empfinden kann wie gegenüber Menschen. Zum anderen, dass diese manchmal verdammten Schaltkreise unsere Gefühle einfach nicht verstehen und sie in der weiteren Interaktion nicht berücksichtigen.

Bei Wut oder Müdigkeit schlägt der virtuelle Beifahrer eine Pause an der Lieblings-Kaffeekette vor.

Noch nicht. Denn die Forschung arbeitet an Systemen, die erkennen können, ob der Mensch, der sie gerade bedient, fröhlich, müde, wütend oder traurig ist. Das Ziel sind Computer, die unsere Stimmung erkennen und darauf entsprechend reagieren. Das könnte eines Tages ein Pflegeroboter sein, der seinen müden Patienten lieber schlafen lässt, als ihn zu waschen. Oder ein virtueller Beifahrer im Auto, der bei Wut oder Müdigkeit des Fahrers beispielsweise die Geschwindigkeit drosselt oder in passendem Ton mit dem Hinweis auf eine Filiale der Lieblings-Kaffeekette an der Strecke eine Pause vorschlägt – bevor es wegen eines Sekundenschlafes kracht.

Wie sich künstliche Intelligenz gewandelt hat

Schon in den 1960er-Jahren gab es Versuche, menschliche Emotionen mit künstlicher Intelligenz zu erfassen. Grundlage dafür war damals die exakte Erfassung der Bewegungen von Gesichtsmuskeln. Inzwischen bedient sich die Forschung anderer Informationsquellen, mit denen die Emotionserfassung nahezu in Echtzeit erfolgt. Im aktuellen Forschungsprojekt „EMOIO“, das das Fraunhofer-Institut für Arbeitswirtschaft und Organisation (Fraunhofer IAO) koordiniert, lesen Dutzende Sensoren die Hirnaktivitäten eines Probanden aus. Besucher des Zukunftskongresses des Bundesministeriums für Bildung und Forschung Ende Juni in Bonn konnten sich davon überzeugen, dass das Prinzip funktioniert.

Testpersonen bekamen Bilder gezeigt, die starke Emotionen hervorrufen, etwa Tierbabys oder Kriegsszenen. Ein Programm erkennt zuvor erlernte Muster in diesen Daten wieder und kann die gedeutete Emotion an ein „beliebiges technisches System“ weiterleiten, so das Institut. Das gleiche Ziel verfolgt das Projekt EmoAdapt, an dem die Otto-von-Guericke-Universität Magdeburg und das Leibniz-Institut für Neurobiologie Magdeburg beteiligt sind. Auch hier werden Aktivitätsmuster einzelner Hirnareale aufgenommen und mit Vergleichsmustern für Emotionen abgeglichen.

Messung der Hirnaktivität am Fraunhof-Institut
Das geht auf ihre Kappe: Bei diesem Test am Fraunhofer-Institut lesen die Forscher über Sensoren die Hirnaktivitäten aus. Foto: Fraunhofer IAO

Emotionen direkt im Hirn auslesen

Ein virtueller Beifahrer im Auto der Zukunft könnte diese Information dann dazu verwenden, situationsabhängig auf den Fahrer einzugehen. Wie das am effektivsten funktioniert, sollen die Wissenschaftler des vom Ministerium in Auftrag gegebenen Projekts „INEMAS“ herausfinden. Die Katholische Fachhochschule Eichstätt-Ingolstadt koordiniert das Projekt, an dem die Universität Siegen, die Westfälische Wilhelms-Universität Münster, Audi und das Spiegel Institut Mannheim mitwirken. Hier ordnen die Forscher den unterschiedlichen Emotionen die Auswirkungen auf kognitive Fähigkeiten wie Wahrnehmung oder Reaktionsvermögen zu. Ein elektronischer Fahrassistent kann dann passend zu jeweiligen Stimmung den Fahrer ansprechen oder unterstützen.

Ein Auto, das unseren Gemütszustand an der individuellen Hirnaktivität erkennt – das soll also nach Willen der Forschung schon bald Realität sein. Derzeit liegt die Trefferquote je nach Projekt bei etwa 70 bis 80 Prozent. Nicht schlecht, aber noch nicht gut genug für den Einsatz in der Serie. Dafür ist eine weit höhere Trefferquote nötig.

Lesen Sie auch

Ladestation

aio-Empfehlung

Unter Strom! Mobilität wird elektrisch

Die Hürden der Künstlichen Intelligenz

Ferner wirft die erforderliche Sensorik im Innenraum ethische Fragen und solche zum Datenschutz auf: Werden Daten gespeichert, um möglicherweise einen Unfall nachvollziehen zu können? Kann der Hersteller des Autos die Daten auswerten? Wollen wir, dass ein Auto unsere Emotionen erkennen kann? Der Gedanke, dass das eigene Auto erkennt, wie man sich gerade fühlt und Entscheidungen danach ausrichtet werden, mag der eine faszinierend finden, ein anderer abschreckend.

Wie schnell sich jedoch die Einstellung gegenüber neuer Technik ändern kann, veranschaulicht Matthias Peissner vom Fraunhofer IAO in einem Blog-Eintrag zum Thema: „Vor wenigen Jahren hat die Vorstellung, ein Gerät könne unsere Bewegungen und Aufenthaltsorte rund um die Uhr aufzeichnen, den meisten Menschen noch Angst gemacht. Heute nehmen sie ihr Mobiltelefon sogar mit auf die Toilette, um sicher zu gehen, dass auch diese Schritte noch mitgezählt werden.“

Updates

Bleiben Sie zum Thema Technik immer informiert.

Auch interessant

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.