Tut das weh?

ausführlich(145.8 KB, 4 Seiten)

Tut das weh?

Automatisierte Schmerzidentifikation anhand der Mimik

Wenn Menschen Schmerzen empfinden, zeigt sich dies auch an ihrer mimischen Reaktion. Bei Menschen, denen es krankheits- oder situationsbedingt nicht möglich ist, sich sprachlich zu äußern, ist der Gesichtsausdruck häufig sogar der einzige Weg der Umwelt zu signalisieren, dass sie Schmerz empfinden. Seit 2009 arbeiten die Bamberger Biopsychologen Stefan Lautenbacher und Miriam Kunz gemeinsam mit den Informatikern Ute Schmid und Michael Siebers an einem Verfahren, das die automatische Interpretation von Bilddaten ermöglicht und so dem Pflegepersonal und Medizinern hilft, Schmerz auch bei Menschen zu erkennen, die sich verbal nicht mehr mitteilen können.

Jeder kennt das Gefühl: In den Finger geschnitten, von einer Wespe gestochen, vom Zahnarztbohrer gepeinigt … Schmerz ist definiert als ein unangenehmes Sinnes- oder Gefühlserlebnis, das mit einer echten oder potentiellen Gewebeschädigung einhergeht. Akuter Schmerz dient dabei als Warnsignal, das entsprechende Schutzmechanismen des Körpers aktiviert. Akuter Schmerz kann jedoch in chronischen Schmerz übergehen, der dann seine ursprüngliche Schutzfunktion verloren hat und sich sehr belastend auf das körperliche und psychische Wohlbefinden eines Menschen auswirkt. In jedem Fall ist Schmerz ein subjektives Erlebnis, das wir im Normalfall verbal kommunizieren können, so dass uns professionelle Hilfe, z. B. durch den Einsatz von Schmerzmitteln, ohne Umwege schnell Linderung verschaffen kann.

In manchen Fällen ist jedoch verbale Kommunikation nicht möglich – beispielsweise bei Neugeborenen oder aber bei Patienten mit bestimmten kognitiven Beeinträchtigungen wie einer Demenzerkrankung. Damit Hilfe geleistet werden kann,muss der Schmerz in solchen Fällen also auf andere Art und Weise erkannt werden. Aus Experimenten, die die Bamberger Biopsychologen Stefan Lautenbacher und Miriam Kunz durchgeführt haben, lässt sich allerdings ableiten, dass genau hier die Defizite liegen: Das Pflegepersonal erkennt bei diesen Patientengruppen Schmerz oft nur unzureichend mit der fatalen Folge, dass diese dann schmerztherapeutisch unterversorgt sind.
Diese Beobachtung lieferte den Ausgangspunkt für eine wegweisende Kooperation zwischen zwei ganz unterschiedlichen Forschungsbereichen:
der Angewandten Informatik und der Biopsychologie. Mittelfristiges Forschungsziel des Projekts ist es dabei, automatische Klassifikatoren zu entwickeln, mit deren Hilfe sich anhand von zuvor per Kamera aufgenommenen Mimikdaten möglichst sicher vorhersagen lässt, ob eine Person gerade unter Schmerzen leidet oder nicht.

Die interdisziplinäre Gruppe stand dabei vor folgenden grundlegenden Forschungsfragen: Können Klassifikatoren, die über einen großen Pool von mimischen Schmerzäußerungen gelernt werden, genau genug sein, um Schmerz zuverlässig zu identifizieren oder müssen solche Klassifikatoren individuell bzw. gruppenspezifisch gelernt werden? Welche aus Bilddaten identifizierbaren Merkmale bilden die mimische Reaktion überhaupt sinnvoll ab? Können automatische Klassifikatoren eine ähnliche Genauigkeit erreichen wie ein Mensch, der gegebenenfalls auf einen Blick erkennt, ob es einem Patienten schlecht geht, oder sind sie sogar noch genauer? Reicht ein Schnappschuss der
mimischen Äußerung aus oder liefert eine Abfolge an mimischen Reaktionen zusätzliche relevante Informationen?


Repräsentation mimischer Bewegungen

Die Basis für alle diese Fragestellungen ist die Extraktion von aussagekräftigen Merkmalen aus den vorliegenden Bilddaten. In der Mimikforschung wird dazu üblicherweise das Facial Action Coding System (FACS) verwendet. Im Prinzip werden dabei die Bewegungen der Gesichtsmuskeln als sogenannten Action Units (AUs) beschrieben. Bei Schmerz sind insbesondere die AU 4 (Kontraktion
der Augenbrauen), 6 und 7 (Kontraktion der Muskulatur um die Augen herum), 9 und 10 (Kräuseln der Nase) und 43 (Schließen der Augen für mindestens eine halbe Sekunde) aktiviert. Menschliche FACS-Coder sehen die entsprechenden AUs in Bildern „auf einem Blick“. Um automatische Klassifikatoren entwickeln zu können, müssen dagegen die entsprechenden Informationen aus den Bilddaten
extrahiert werden. Hierzu können Gesichter durch so genannte Active Appearance Models repräsentiert werden. Die verschiedenen Aufnahmen von Gesichtern werden dazu zunächst in Größe und Orientierung normalisiert bzw. einander angepasst. Dann werden ausgewählte Punkte festgelegt, die die Konturen von Augenbrauen, Augen, Nase und Mund markieren. Ob eine Action Unit vorliegt, kann dann durch verschiedene Beziehungen zwischen den Punkten dargestellt werden. Beispielsweise kann das Senken einer Augenbraue durch die Distanz zwischen Eckpunkt der Braue und dem Innenpunkt des Auges, aber auch durch den Abstand zwischen Braue und Nasenspitze erfasst werden.

Zu diesem Zweck wurden in einem ersten Schritt eine Reihe von potentiell geeigneten Repräsentanten für die AUs identifi ziert. Hierzu gehören z. B. Distanzen zwischen Punkten, Winkel, sowie die entsprechenden Relationen zwischen Abständen und Winkeln. Trotz einer theoretisch begründeten
Vorauswahl wurden zunächst mehr als 10.000 mögliche Repräsentanten ermittelt, die die Basis für Verfahren des maschinellen Lernens bildeten. Diese Vielzahl in Frage kommender Merkmale musste allerdings zunächst deutlich reduziert werden. Der Grund dafür leuchtet auf Anhieb ein: Ähnlich wie in der Statistik macht es wenig Sinn, mit mehr Merkmalen als Messwertträgern – in diesem Fall Bildern – zu arbeiten. Mit verschiedenen Feature Selection- Verfahren gelang es, die Zahl der Merkmale auf weniger als 100 zu reduzieren.

 

Individuelle versus globale Identifikation

 

Bereits seit einigen Jahren wird verstärkt an automatischen Verfahren gearbeitet, mit denen sich Emotionen wie etwa Freude oder Ärger aus Bilddaten identifi zieren lassen. Solche Verfahren sollen beispielsweise die Mensch-Roboter-Kommunikation erleichtern oder dienen der Bewertung von Werbeaktionen. Bis heute arbeiten allerdings international nur sehr wenige Gruppen an der automatischen Klassifi kation der Schmerzmimik. Allen bisherigen Forschungsarbeiten ist dabei gemeinsam, dass versucht
wird, globale Klassifikatoren zu definieren. Dies heißt, dass aus möglichst vielen Gesichtern ein einziger Klassifikator generalisiert wird, der im
Mittel für unbekannte Gesichter möglichst wenige Fehler generiert.

 

Gerade im Bereich Schmerzforschung vor dem Hintergrund eines klinischen Anwendungsziels ist es jedoch ein vorrangiges Ziel, möglichst zuverlässige
und genaue Klassifi katoren zu erarbeiten. Häufige Fehlalarme können nämlich dazu führen, dass entsprechende Systemmeldungen nach einer gewissen Zeit nicht mehr vom Pflegepersonal beachtet werden. Bei zu grob eingestellten Klassifikatoren besteht dagegen die Gefahr, dass Schmerz beim Patienten übersehen wird. Dabei haben die Bamberger Forscher festgestellt, dass mimische Schmerzäußerungen äußerst individuell sind, sowohl was die
Art der mimischen Reaktion als auch deren Intensität anbelangt. So reagieren manche Personen nur im Augen- und Stirnbereich oder im Bereich des Mundes, wieder andere in beiden Gesichtsregionen.

 

In einem ersten gemeinsamen Experiment sollte geprüft werden, ob die Genauigkeit global gelernter Klassifi katoren hinreichend ist oder ob
individuelle Klassifikatoren gelernt werden sollten. An dem Experiment nahmen 30 Studenten der Universität Bamberg teil. Schmerzreize wurden durch Druck auf den Trapezmuskel an der Schulter ausgelöst. Um sicherzugehen, dass der Schmerz für alle Probanden tolerierbar ist, wurden die Intensitäten an die individuelle Empfindlichkeit angepasst. Jeder Proband erhielt zwanzig Schmerzreize (von fünf bis maximal 8 kg) und zwanzig nicht schmerzhafte Reize. Die mimischen Reaktionen wurden mit Video aufgezeichnet. Pro Proband und je Reiz wurden zehn Standbilder extrahiert. Probanden, die keine mimischen Reaktionen zeigten, wurden von der Analyse ausgeschlossen. Bei diesem Experiment wurde zunächst keine automatische Merkmalsselektion durchgeführt, sondern gezielt 178 theoretisch sinnvolle Merkmale extrahiert. Auf die experimentell ermittelten Daten wurden verschiedene maschinelle Lernmethoden angewandt, die jeweils über alle Probanden oder individuell für jeden Probanden einzeln trainiert und evaluiert wurden. Zur Analyse wurde das Tool Rapid-Miner verwendet, das eine umfassende Sammlung von Lernalgorithmen zur Verfügung stellt. Es zeigte sich, dass für die sorgfältig ausgewählten Daten eine sehr hohe Klassifi kationsgüte erreicht werden kann: Die meisten verwendeten Lernverfahren wie der so genannte Entscheidungsbaumalgorithmus ID3, das „k-nächste Nachbarn“-Verfahren, die „support vector machine“, oder „Naive Bayes“, lieferten Generalisierungsgenauigkeiten von über 95 Prozent bis über 99 Prozent. Dabei lag die Güte der individuellen Klassifikatoren fast immer und mit bis zu sieben Prozent höherer Genauigkeit über der der globalen Klassifikatoren. Diese ersten Ergebnisse sind sehr ermutigend. Allerdings müssen weitere Experimente mit weniger sorgfältig ausgewählten Trainingsdaten und größerer Varianz in den Gesichtern durchgeführt werden, um diese Resultate stärker abzusichern.

 

Weitere Forschungsfragen

 

Ziel des Forschungsprojekts ist es, maschinelle Klassifikatoren für Schmerz zu entwickeln, die zuverlässiger arbeiten als menschliche Beobachter. Dazu
führt das interdisziplinäre Wissenschaftlerteam derzeit Experimente durch, bei denen Probanden Bilder von Gesichtern beurteilen sollen. Die Fotos zeigen dabei Menschen, die einerseits einem Schmerzreiz und andererseits einem Ekelreiz ausgesetzt waren. Die verschiedenen automatischen Lernverfahren werden dann mit der gleichen Bildabfolge konfrontiert. Auf diese Weise lässt sich die Klassifikationsgüte von Mensch und Maschine direkt miteinander vergleichen. Ein weiterer Ansatz ist es, anstelle von Standbildern, Abfolgen von mimischen Reaktionen zu untersuchen. Hier stellt sich die Frage, ob in der Reihenfolge, in der verschiedene AUs aktiviert werden, eine relevante nformation steckt. Dieser Aspekt wurde in  bisherigen psychologischen Untersuchungen noch nicht berücksichtigt: Üblicherweise wurde lediglich die Art und Intensität der in einer Schmerzepisode aufgetretenen AUs erfasst. Dazu setzen die Bamberger Forscher Methoden aus dem aktuellen Forschungsbereich des temporal data mining ein.

 

Does this hurt?

 

Automated pain identification based on facial expression The experience of pain is usually accompanied by specifi c facial muscle movements. For individuals unable to express themselves verbally, due to cognitive impairment or other circumstances, facial expression is often the only way to signal to others that they are experiencing pain. Since 2009, the Bamberger biopsychologists Stefan Lautenbacher and Miriam Kunz, in cooperation with the computer scientists Ute Schmid and Michael Siebers, have been working on a process by which automated interpretation of image-based data will be possible. Such an automated recognition of facial pain displays has the potential to help doctors and nursing staff recognizing pain in persons who cannot communicate verbally.

 

Literaturempfehlung

 

P. Ekman and W. Friesen: Facial Action Coding System: A Technique for the Measurement of Facial Movement. Consulting Psychologists Press, Palo Alto, 1978.
Kunz M, Mylius V, Scharmann S, Schepelman K, Lautenbacher S: Influence of dementia on multiple components of pain. European Journal of Pain 13,
2009, 317-325.
Kenneth M. Prkachin: The consistency of facial expressions of pain: A comparison across modalities. Pain 51 (3), 1992, 297-306.
Siebers, M., Kunz, M., Lautenbacher, S., Schmid, Ute: Classifying Facial Pain Expressions: Individual Classifiers vs. Global Classfiers. In: Reichardt, Dirk (Hrsg.) : Proceedings of the 4th Workshop on Emotion and Computing
- Current Research and Future Impact (4th Workshop on Emotion and Computing, KI 2009, Paderborn, 16.September 2009).