„Das menschliche Gehirn arbeitet völlig anders“

Interview

Herr Professor Giese, sind wir Menschen den Systemen wirklich noch überlegen, wenn es beispielsweise darum geht, Gesichtsausdrücke zu deuten?
Martin Giese: Der Ansatz der künstlichen Intelligenz ist es, dass die Systeme auf Basis unglaublich großer Datenmengen lernen. Was einzelne Aufgaben angeht, sind sie dem Menschen bereits jetzt überlegen. Doch gibt es einen fundamentalen Unterschied: Wir brauchen kein Spezialsystem und keine riesigen Datenmengen, um Gesichtsausdrücke zu erkennen und zu deuten. Das menschliche Gehirn arbeitet völlig anders als die Systeme, die vorher anhand riesiger Datenmengen lernen müssen. Die besten Ansätze in der KI benötigen heutzutage Datenbasen mit Hunderttausenden oder sogar Millionen von Bildern. Der Trend geht zu zentralen Modellen, die mit hohem Aufwand mit einer Kombination vieler großer Datensätze trainiert werden, wobei dann oft auch verschiedene Datenarten wie Sprache, Bilder oder Videos kombiniert werden.

Auch wenn Systeme Gesichtsausdrücke erkennen und analysieren können, sind sie auch in der Lage, in empathischer Weise darauf zu reagieren?
Schon bei der reinen Gesichtserkennung gibt es Probleme, wenn zum Beispiel die Beleuchtung schlecht ist oder Gesichter verdeckt sind. Die menschliche Erkennung von Gesichtsausdrücken und Emotionen ist in der Regel auch kontextabhängig. Wenn ich Ihnen einen Gesichtsausdruck zeige, der aus dem Kontext geschnitten ist, können sie die Emotion dahinter auch deutlich
schlechter analysieren. Der Trend geht also dahin, mehr Kontextinformation in die Systeme zu integrieren. Das ist auch ein Grund, warum man so viele Daten braucht, weil die Systeme ja all diese Situationen mitlernen müssen. Um „emotional“ auf erkannte Emotionen zu reagieren, müssen zudem die emotionale Reaktion und ihre Zeitabhängigkeit simuliert werden. Dazu gibt es Ansätze, zum Beispiel in der Robotik. Es können Systeme gebaut werden, die dynamisch auf wahrgenommene Emotionen von Menschen reagieren, aber die Qualität solcher simulierten Reaktionen ist noch bei Weitem nicht perfekt.

Solche Systeme haben ein großes wirtschaftliches Potenzial. Wo werden sie bisher eingesetzt?
Für Gesichtserkennung gibt es heute schon ganz viele Anwendungen. Man muss hier unterscheiden: Es gibt zum Beispiel die Erkennung von Gesichtsidentität und der Emotion, also Expression. Erkennungssysteme werden häufig im Bereich der Sicherheit und der Zugriffsberechtigungen eingesetzt. Gerade für diesen Bereich sind auch die Forschungen zu Artefakten wichtig.

Welche Rückschlüsse kann KI aus Verhaltensbeobachtungen und Körperfunktionen bereits heute auf die Emotionen der Nutzer ziehen?
Wir haben uns schon daran gewöhnt, dass Systeme, zum Beispiel von großen Online-Händlern, sämtliche Daten über uns aus dem Netz zusammenbringen, um uns eine Identität zu geben und uns dann passende Produkte vorzuschlagen. Das ist nicht neu. Eine Emotionserkennung ist sicher der nächste Schritt. In Drivers-Assistance-Systemen sind solche Gefühlserkennungen schon teilweise eingebaut mit der Idee, die Fahrweise automatisch anpassen zu können, wenn das System merkt, der Fahrer ist aggressiv, nervös oder unaufmerksam. Dann gibt es viele Anwendungen im Bereich der Medizin, mit denen ich in meiner Forschung zu tun habe, zum Beispiel bei psychiatrischen Anwendungen. Ein typisches Beispiel wäre eine Verhaltenstherapie zur Angststörung, im Rahmen derer Patienten oder Patientinnen automatisierte Verhaltensketten verlernen sollen, die aufgrund bestimmter emotionaler Reaktionen ausgelöst werden. Es wird in der Robotik und Computergrafik heftig diskutiert, wie man diese Affektdynamik richtig modulieren kann. Emotionale Roboter sollen generisch und dynamisch mit den Menschen interagieren. Das Ziel ist also, eine möglichst natürliche Interaktion mit diesem Roboter zu erhalten.

Zum Beispiel in der Kranken- oder Altenpflege? Ist das überhaupt wünschenswert?
Wenn es in der Pflege keine Alternative gibt und die Menschen sonst sich selbst überlassen sein würden, könnte man das Leben der Menschen verbessern. Dann gibt es auf der anderen Seite die Angst, dass solche artifiziellen Agenten Überhand nehmen und der Mensch völlig vereinsamt.

Inwieweit kommen Sie in Ihrer Arbeit auch mit ethischen Fragen in Berührung?
Da gibt es noch viele ethische Fragen, die man diskutieren muss. Der ganze Trend zur emotionalen künstlichen Intelligenz muss sehr eng mit ethischen, gesellschaftlichen und soziologischen Überlegungen verknüpft werden. Aus ökonomischen Gründen versucht die Industrie primär, solche Systeme immer realistischer und leichter nutzbar zu machen.

Wird auch ChatGPT demnächst erkennen, in welcher Gemütsverfassung ich mit dem System arbeite, und darauf mit unterschiedlichem Output reagieren?
Wenn man genügend Daten zusammenbringt, ist es möglich, Bildern und Videos auch ein emotionales Label zu verpassen. Man kann so weit gehen, dass man zudem physiologische Daten oder Hirndaten misst und diese mit dem Gesichtsausdruck und der Sprache zusammenbringt, um zu analysieren, wie der emotionale Gehalt der Sprache ist. Und wenn man so einen Datensatz oder so ein Modell hat, kann man zu einem Text auch die Emotion modulieren.

Welchen Einfluss haben diese Entwicklungen auf Ihre Arbeit als Neurowissenschaftler?
Wir wollen verstehen, wie das Gehirn soziale und visuelle Stimuli verarbeitet. Es geht nicht darum, wie baue ich jetzt ein End-to-End-System, das maximal akkurate Gesichtserkennung oder Emotionserkennung realisiert. Es geht darum, zu verstehen, was innerhalb biologischer neuronaler Netze passiert. Was sind die Mechanismen, wie sind die Neuronen verschaltet, welche kortikalen Areale sind beteiligt und was sind die Schaltkreise? Dabei findet man Dinge, die bei KI ähnlich laufen, und eben auch Dinge, die völlig anders sind als in der KI. Der Ansatz, der jetzt in der KI gefahren wird, riesige Datenmengen irgendwo abzuspeichern, ist sicherlich nicht das, was das Gehirn macht. Bei einer Hautkrebserkennung hat die Nutzung von KI aber Vorteile, weil das System tausendmal mehr Bilder davon gesehen hat als eine Ärztin oder ein Arzt.

Was haben Sie über die Gesichtserkennung von KI im Vergleich zum menschlichen Gehirn erforscht?
In einem unserer Experimente haben wir die Erkennung von gleichen Gesichtsausdrücken auf völlig verschiedenen Kopfformen untersucht. Wir haben dafür einen Makaken-Avatar genutzt. Der Mensch erkennt die menschlichen Gesichtszüge auch auf einem Affengesicht sofort. Standard-KI-Systeme haben damit ein Riesenproblem.

Warum?
Weil es nur funktioniert, wenn die Systeme schon sehr, sehr viele menschliche Gesichtsausdrücke auf einem Affengesicht gesehen haben. Wenn ich das System auf menschliche Gesichtsausdrücke trainiere, kann es das nicht auf ein Affengesicht übertragen. Das heißt: Der Mensch ist dem System überlegen, denn er erkennt diese Gesichtszüge, ohne dass er vorher schon menschliche Gesichtszüge auf einem Affengesicht gesehen hat. Es muss also eine Eigenschaft des Gehirns sein, dass es spontan diese Dinge kann. Man kann sogar Gesichter nehmen, die völlig idiotisch sind, die in der Natur überhaupt nicht existieren, wie in Comic- oder Fantasyfilmen – und die Menschen verstehen die emotionalen Gesichtsausdrücke sofort. Schon Kinder erkennen, ob eine Comicfigur traurig oder wütend ist.

Kann man zusammenfassend sagen, dass Systeme mit großer Datenbasis bereits in der Lage sind, Emotionen zu erkennen, aber dass Empathie doch eine Schlüsselkompetenz des Menschen bleiben wird?
Kommt darauf an, was man unter Empathie versteht. Avatare oder Roboter werden dynamisch auf Emotionen reagieren. Man wird versuchen, immer realistischere Reaktionsdynamik zu erzeugen. Und man wird sich erneut fragen: Will man wirklich ein System, das scheinbar realistische menschliche Empathie zeigt? Auch hier gilt wieder: Für manche Anwendungen ist es vielleicht gut, wie zum Beispiel für einen virtuellen Therapieassistenten, der idealerweise empathisch Anweisungen gibt. In der manipulativen Werbung kann die realistische Anmutung aber wieder ein Riesenproblem sein. Als ich vor vielen Jahren am Massachusetts Institute of Technology in den USA war, sind die ersten Gesichts-Sprachsynthese-Systeme entwickelt worden, mit denen halbwegs realistisch aussehende Gesichter generiert werden konnten. Und zugleich wurde man sich der Manipulationsgefahren bewusst.

Heute sind wir so weit, dass die Echtheit eines Videos von Nicht-Fachleuten nicht mehr feststellbar ist. Das wird längerfristig ein Riesenproblem werden. Und es ist auch ein Problem, dass man gerade mit ChatGPT riesige Mengen von Material produziert, wofür es im Grunde keine Qualitätskontrolle gibt. Das Internet ist ja jetzt bereits durch einen Riesenwust von invalider Information überflutet. In Zukunft wird solche Information dann auch noch in riesigen Mengen automatisch durch KI-Systeme produziert.

Ist eine Regulierung nötig – und wer sollte hier Grenzen setzen?
Das muss wahrscheinlich von der Forschung ausgehen, da die Wirtschaft nicht immer ein großes Interesse daran hat. Ich denke, es muss sicher eine Form von Kontrolle entwickelt werden. Vonseiten der Forschung gibt es ein großes Interesse an ethischen Fragen und eine ganze Reihe neuer Lehrstühle dafür, weil diese technologischen Entwicklungen auch eine enorme gesellschaftliche Relevanz haben.

Über den Gesprächspartner:

Martin Giese ist Professor für Neurowissenschaften am Hertie-Institut für klinische Hirnforschung (HIH) der Universität Tübingen und leitet dort die Sektion für Computational Sensomotorics am Zentrum für Integrative Neurowissenschaften und am Hertie-Institut für klinische Hirnforschung. Er forscht schwerpunktmäßig zu den neuronalen und komputationalen Mechanismen der
Bewegungserkennung und -kontrolle. Giese studierte Elektrotechnik und Psychologie an der Ruhr-Universität Bochum, promovierte in Bochum, habilitierte am Fachbereich Informatik der Universität Ulm und absolvierte ein Postdoc am Massachusetts Institute of Technology (MIT).

Weitere Beiträge zum Thema: 

Dieser Beitrag erschien zuerst in der gedruckten Ausgabe Emotionen. Das Heft können Sie hier bestellen.

Unsere Newsletter

Abonnieren Sie die HR-Presseschau, die Personalszene oder den HRM Arbeitsmarkt und erfahren Sie als Erstes alles über die neusten HR-Themen und den HR-Arbeitsmarkt.
Newsletter abonnnieren
Sabine Schritt ist leitende Redakteurin beim Human Resources Manager.

Sabine Schritt

Sabine Schritt ist leitende Redakteurin des Magazins Human Resources Manager. Sie war zuvor 25 Jahre als freie Journalistin tätig. Nach verschiedenen Stationen im Tagesjournalismus und bei Ratgeber- und Lifestyle-Publikationen, beschäftigt sie sich seit über 15 Jahren intensiv mit Themen rund um die Arbeitswelt, HR und Führung. Die gebürtige Kölnerin war zudem bis 2012 stellvertretende Chefredakteurin des Schweizer Fachmagazins HR Today in Zürich. Anschließend war sie zehn Jahre als freie Redakteurin für das Fachmagazin Personalführung tätig. Sabines besonderes Interesse gilt den Aspekten:  Zusammenarbeit, Kommunikation, digitale Transformation, Kulturwandel in Unternehmen, Rollenverständnis von HR, Persönlichkeitsentwicklung.

Weitere Artikel