Virtual-Reality-Therapie durch Stimulation modulierter Körperwahrnehmung (VitraS)
Im Rahmen des Projekts wurden Therapieverfahren auf Basis einer kontrollierten Modulation der Körperwahrnehmung und Verhaltensweisen mit Hilfe aktueller Technologien der Virtual und Augmented Reality (VR/AR) entwickelt. Körperbezogene Gesundheitsstörungen sind aktuell von hoher Relevanz. Insbesondere Fallzahlen für Adipositas nehmen weltweit rasant zu und entwickeln sich nicht nur in den westlichen Industriestaaten zu einem massiven Problem für individuelles Wohlbefinden mit enormen gesamtwirtschaftlichen Konsequenzen.
ViTraS nutzte die psychophysische Wirkung der VR/AR zur Verstärkung der Wirksamkeit von Therapien und zur Reduktion von Rückfallquoten. Auf Grundlagen einer präzisen technischen Körpererfassung, multimodaler Interaktionen sowie verteilter Echtzeitkommunikation werden vielversprechende Interventionstechniken entwickelt, mögliche Akzeptanzhemmnisse identifiziert und verhindert sowie Wirkungen (zum Beispiel Motivation, Gewichtsreduktion, Körperwahrnehmung) evaluiert.
Die HTW Berlin wird im Rahmen von ViTraS Funktionalitäten zum Austausch von 3D-Avatardaten entwickeln. Diese Avatare sollen die Nutzer des Systems repräsentieren und ihnen eine Kollaboration zu therapeutischen Zwecken ermöglichen. Hierzu wurde ein Kollaborationsmodell entworfen und implementiert. Zum Schutz der übertragenen Daten wurden Verschlüsselungsmechanismen implementiert.
Darüber hinaus wurden 3D-Interaktionstechniken entwickelt, die dazu dienen sollen, mögliche Körperbildstörungen bei Patientinnen und Patienten zu identifizieren und eine Aktualisierung ihrer Körperbilder zu ermöglichen. Hierzu zählen Interaktionstechniken zum Zeichnen und dreidimensionalen Modellieren des eigenen Körpers durch Skizzieren und Eigenberührungen sowie die Body-Swapping-Interaktionstechnik, mit deren Hilfe Patienten den Körper einer anderen Person annehmen und den eigenen Körper aus deren Perspektive wahrnehmen können.
Hierzu wurden den Patientinnen und Patienten zunächst Modelle auf sie abgestimmter Avatare aus der Ego-Perspektive präsentiert; die Bewegungen des Avatars entsprechen denen des eigenen Körpers. Aus dieser Perspektive heraus konnten die Nutzenden in den virtuellen Körper (Avatar) des Interaktionspartners wechseln; sie sahen ihren eigenen Körper dann mit etwas Abstand aus dessen Perspektive. Die Bewegungen des eigenen Körpers wurden nun auf den virtuellen Körper (Avatar) des Interaktionspartners übertragen.
Projektlaufzeit
Projektleitung
- Prof. Dr.-Ing. Johann Habakuk Israel (Projektleitung)
Projektmitarbeiter_innen
- Sebastian Keppler (Projektmitarbeiter_in)
Mittelgeber
BMBF Bundesministerium für Bildung und Forschung
Kooperationspartner
- brainboost GmbH
- CBMI
- SRH Hochschule für Gesundheit Gera
- The Caputry GmbH
- TU München
- Universität Würzburg
- Universität Bielefeld
Förderprogramme
Interaktive Systeme in virtuellen und realen Räumen