Erlangen (epd)Wer schaut mich an? Ist das ein trauriger oder ein fröhlicher Mensch? Dieses Einschätzen des Gegenübers fällt Autisten oft schwer. Ihnen könnte eine Software helfen, die Jens Garbas vom Erlanger Fraunhofer-Institut entwickelt hat. Mit mehr als 30.000 Bildern, die Menschen unterschiedlichen Alters, Geschlechts und mit verschiedenen Gesichtsausdrücken zeigen, wurde das Programm gefüttert.
Computer erkennt Emotionen
Dazu gehören etwa Mimiken wie nach oben stehende Mundwinkel oder weit aufgerissene Augen. "Mit diesen Gefühlsausdrücken konnte der Computer lernen, welche Merkmale für bestimmte Gefühle stehen", sagt Garbas, Gruppenleiter für intelligente Systeme am Fraunhofer-Institut. Die Position von Augen, Nase und Mund sowie Neigung und Drehung des Kopfes analysiert das Programm und filtert anschließend ein Gefühl heraus.
Ärger, Trauer, Freude und Überraschung sowie generell positive und negative Emotionen werden so erkannt. In der Anwendungsphase vergleicht der Rechner die gelernten Merkmale mit einem realen Gegenüber. "Emotionen können so auch bei neuen, unbekannten Gesichtern erkannt werden", sagt der Wissenschaftler. "Shore" - kurz für: Sophisticated high speed object recognition engine - heißt die Software, die bei der Gefühlserkennung eine Trefferquote von 94 Prozent hat. Die Software wurde bereits in eine Datenbrille eingebaut. Der Träger einer solchen Brille sieht verschiedene Balken, dahinter emotionale Begriffe. Lächelt die angeschaute Person, füllt sich beispielsweise der Balken für "Happy" mit roter Farbe.
Grund-Emotionen sind gut zu entschlüsseln
"Für einen Autisten ist es anstrengend, gleichzeitig nach unten zum Balken zu schauen und dem Gegenüber zu antworten. Dieses Multitasking ist schwierig", erklärt Isabel Dziobek, Leiterin des Instituts für Psychologie an der Berliner Humboldt-Universität. Sie arbeitet mit diesem Programm und möchte es vereinfachen. Außerdem sei ein Problem, dass sich Gesichtsausdrücke in Sekundenschnelle ändern - und damit das, was die Datenbrille anzeigt. Gut erkennt das Programm aber Basis-Emotionen wie Freude und Angst. Sich auf diese Grund-Emotionen zu fokussieren, üben Autisten in Trainingsprogrammen.
"Andere Gefühle wie Eifersucht oder Schuld sind schwieriger zu erkennen, zumal sie eine stärkere, individuelle Note haben", erklärt die Wissenschaftlerin. Auf 40 emotionale Gesichtszüge konzentriert sich ein anderes Trainingsprogramm.
Bei einer Übung mit der neuen App sollen Videoaufzeichnungen nachgemacht werden. "Dieses Spiel soll Autisten helfen, Gefühle Anderer zu erkennen", sagt Dziobek. Bei einer weiteren Aufgabe müssen Gesichtshälften zusammengesetzt werden, bis ein stimmiges Bild beispielsweise für Freude entsteht. Aber die Autismus-Forschung mit den neuen Programmen stecke noch in den Anfängen. "Es wird Jahre dauern, bis konkrete Ergebnisse vorliegen", betont die Berliner Wissenschaftlerin.
Das Programm des Erlanger Fraunhofer-Institut könnte nicht nur für Autisten nützlich sein. Garbas sieht weitere Anwendungsmöglichkeiten, etwa um zu messen, wie Menschen auf Werbefilme reagieren: "Wenn Zuschauer danach böse schauen, hat der Spot seine Wirkung verfehlt."
Einsatz im Einkauszentrum und im Auto denkbar
Auch in Einkaufszentren lasse sich das Programm einsetzen. Denn die App zeigt zusätzlich Geschlecht und ungefähr das Alter an. So erfährt ein Ladenbesitzer beispielsweise, ob Mann, Frau, Jugendlicher oder Senior ins Schaufenster guckt - und ob diese potenziellen Kunden tatsächlich die gewollte Zielgruppe ist. Denkbar ist zudem ein Einsatz im Auto. Die Augenfeinanalyse registriert, wenn der Fahrer droht einzuschlafen. Eines aber kann Garbas Software nicht: Konkrete Menschen identifizieren. Alle Berechnungen würden nur in der App stattfinden, und es würden keine Daten gespeichert. Rückschlüsse auf bestimmte Nutzer seien damit auch ausgeschlossen, versichert er.