Dynamische Mensch-Computer Interaktionen als Paradigma in der Emotionsforschung

Ref. 2365

Description générale

Période concernée

-

Région géographique

-

Informations géographiques additionnelles

-

Résumé

Auch wenn die meisten Emotionstheorien die Prozesshaftigkeit, die Interaktivität, die physische und kontextuelle Eingebettetheit von Emotionen betonen, so wurden diese Aspekte empirisch doch kaum untersucht. Die im Rahmen klassischer experimenteller Settings eingesetzten Emotionsinduktionsverfahren (Präsentation emotionaler Stimuli; mental imagery) sind nicht interaktiv und es wird auch nicht der emotionale Prozess untersucht, sondern das emotionale Erleben wird retrospektiv erhoben. Bei dem hier vorgestellten Forschungsparadigma wird das Verhalten einer Versuchsperson in der Interaktion mit einem emotionsauslösendem Computerspiel untersucht. Da dieses Computerspiel im Rahmen dieses Projektes selbst entworfen und programmiert wird, können Spielszenarien theoriegeleitet entwickelt und systematisch variiert werden. Zudem kann der vollständige Spielkontext sowie sämtliche Interventionen der Probanden kontinuierlich erhoben und abgespeichert werden. Als Indikator für das emotionale Erleben der Versuchsperson wird zudem das mimische Verhalten auf Video aufgenommen. Dabei wird mit dem sogenannten split-screen Verfahren der Spielkontext eingeblendet. In einer gestützten Nachbefragung (anhand der Videoaufnahme) wird zusätzlich das subjektive Erleben der Versuchspersonen erhoben. Für die intendierte prozessnahe Analyse von Emotionen müssen sowohl die Spielsituationen und die Interventionen der Probanden, als auch deren mimisches Verhalten minutiös erfasst werden. Ein solches Vorgehen ist jedoch nur möglich, wenn die interessierenden Verhaltensdaten in weiten Teilen automatisch erfasst und zu den Spielsequenzen in Beziehung gesetzt werden können. Aus diesem Grund haben Kaiser und Wehrle (1992) ein neuartiges Verfahren entwickelt, mit dem das mimische Verhalten in solchen Mensch-Computer-Interaktionen automatisch und in einer hohen zeitlichen Auflösung objektiv (in der Terminologie von FACS; Ekman & Friesen 1987) kodiert werden kann (Facial Expression Analysis Tool; FEAT. Die Entwicklung des Spielszenarios basiert auf den für die emotionsauslösenden (emotion antecedent) Bewertungsprozesse relevanten Dimensionen, wie sie von den sog. kognitiven Emotionstheorien postuliert werden. Zwischen diesen Emotionstheorien gibt es eine grosse Konvergenz bezüglich der wichtigsten Bewertungsdimensionen. Allerdings gibt es auch einige wichtige Unterschiede zwischen den Ansätzen. Diese Unterschiede sind zum Teil subtil und mit den gängigen rein verbalen post-hoc Erhebungsverfahren kaum zu erfassen. Auf der Ebene der Umsetzung in eine solche Spielsituation können diese Unterschiede jedoch durch das Variieren von Spielparametern systematisch untersucht werden. Die im Rahmen der Computerspielinteraktion empirisch aufzeigbaren Zusammenhänge können zur Theorienüberprüfung und zur Entscheidungsfindung bezüglich der konkurrierenden Annahmen herangezogen werden. Ausgehend von einer begrenzten Anzahl dieser theoretisch postulierten Bewertungsdimensionen und dem empirisch gezeigten (z. B. mimischen) Verhalten der Versuchspersonen soll im Verlaufe des Projektes ein Repertoire von Emotionen und dazugehörigen Verhaltensmustern zusammen mit den entsprechenden im Spiel spezifizierten Situationen erstellt werden. Das empirisch gewonnene Repertoire soll so konkretisiert und formalisiert werden, dass es als Grundlage für ein Modell eines einfachen emotionalen Problemlösers dienen kann, der als Autonomer Agent in einer Mikrowelt (wie sie z. B. von Toda mit seinem Fungus Eater konzipiert worden ist) modelliert und implementiert werden soll. Damit soll ein bislang wenig genutzter Ansatz zur Formalisierung und Überprüfung von psychologischen Theorien angewendet werden.

Résultats

Für die Entwicklung des zu erstellenden neuen Emotionsinduktions- und erhebungswerkzeuges (Computerspiel und automatische Fragebögen) wurde eine Reihe programmiertechnische Arbeiten geleistet. Ein Prototyp eines neuen Spieles wurde implementiert. Mit diesem Instrument wurden die erstellten Routinen getestet und die im Rahmen dieses Projektes realisierbaren Spielszenarien, bzw. deren programmiertechnische Umsetzung ausgelotet. Für die experimentelle Variation der einzelnen Spielparameter wurde eine einfache Sprache entwickelt, die es dem Experimentator (z. B. auch Studenten) erlaubt, den globalen Spielverlauf ohne Programmierkenntnisse festzulegen (z. B. Anzahl Spielfiguren, Ereignisse und Geschwindigkeit des Spielverlaufs). Ein entsprechendes Interpretationsprogramm (Parser) wurde für die im Prototypen implementierten Parameter realisiert. Aufgrund der ersten Analysen kann man feststellen, dass wir mit dem automatischen Mimikkodierverfahren (FEAT) alle mimischen Bewegungen des Obergesichts eindeutig erfassen können. Die Kodierung des Untergesichts ist schwieriger, da hier eine grössere Anzahl von Kombinationen möglich ist. Es zeigt sich, dass FEAT auch hier bereits sehr subtile Action Units detektiert, wie z. B. AU 7 (Anspannen des unteren Augenlides). Bei sehr komplexen Kombinationen, die auch für menschliche Kodierer schwierig zu spezifizieren sind, bietet FEAT in einer ersten Phase alle möglichen Kombinationen an. Die im zweiten Schritt aufgrund von Entscheidungsregeln gewählte Kodierung entspricht nicht immer der bestmöglichen Kodierung. Eine wichtige Zielsetzung im weiteren Verlauf des Projektes ist daher die Verbesserung dieser Entscheidungsregeln. In Zusammenarbeit mit Klaus Scherer wurde ein interaktives graphisches Werkzeug entworfen, das es erlaubt, die von ihm und anderen postulierten theoretischen Vorhersagen über den Zusammenhang zwischen kognitiven Situationsbewertungen und spezifischen Emotionen interaktiv zu explorieren und auch zu verändern. Die derart entwickelten theoretischen Varianten können sofort auf empirische Daten angewendet und getestet werden. Thomas Wehrle entwickelte und implementierte dieses System in einem ersten Prototypen (The Geneva Appraisal Theory Environment; GATE). Es wurde ein Programm erstellt, das die animierte Darstellung eines einfachen dreidimensionalen Gesichtes (nur auf Linien basierend, ohne texture-mapping) in Echtzeit erlaubt (The Facial Action Composing Environment; FACE). Dieses Programm erlaubt es, die mit Hilfe des automatischen Mimikkodierverfahrens erhobenen mimischen Verläufe animiert wiederzugeben. Damit können wichtige Erkenntnisse bezüglich der Gestalthaftigkeit, Variabilität und des zeitlichen Verlaufs mimischer Bewegungen gewonnen werden. Im weiteren wurden zwei Pilotversuchsreihen durchgeführt, um mehrere Aspekte des experimentellen Settings und der theoretischen Prämissen zu überprüfen. Hierzu gehören neben der bereits beschriebenen Anwendung von FEAT im Rahmen spontanen mimischen Verhaltens, die emotionsinduzierende Wirkung der Computerspielszenarios, sowie die Eignung und Durchführbarkeit der Befragungsverfahren. Aufgrund der Erfahrungen in diesen Pilotstudien kann gesagt werden, dass sich das gestützte Nachbefragungsverfahren bewährt hat. Im Hinblick auf die weitere Entwicklung des Spiels kann festgehalten werden, dass bereits mit diesem Prototypen eine Vielzahl verschiedener Emotionen hervorgerufen werden konnte. Die Nachbefragung ergab zwischen 15 und 24 emotionale Episoden pro Versuchsperson und 10 Minuten Spiel, d. h. Episoden bei denen die Versuchspersonen eine deutliche mimische Reaktion zeigten und bei der sie auch angaben, eine Emotion empfunden zu haben.