Virtuell Environment for 3D-ToF Sensors (VEToF)
Die Kooperationspartner sind sich der Bedeutung gemeinsamer Forschung bewusst und wollten vor diesem Hintergrund arbeitsteilig zum gegenseitigen Nutzen auf dem Gebiet der Erzeugung virtueller 3D-Kamera-Bildfolgen der physischen Mensch-Maschine-Interaktion (VEToF – Virtuell Environment for 3D-ToF Sensor) zusammenarbeiten, mit dem Ziel, Ressourcen zu bündeln, dadurch ihre individuellen und fachgebietsbezogenen Kompetenzen zu stärken und auf dieser Basis anwendungsorientierte Forschung und Entwicklung zu betreiben.
Für die Kooperationspartner ist dieses Forschungsgebiet besonders wichtig. Denn in der Bildverarbeitung werden vermehrt Methoden aus dem Bereich Deep Learning eingesetzt, die in den letzten Jahren hervorragende Ergebnisse in nahezu allen Teilbereichen dieses Themenfeldes erzielen konnten. Die Bereitstellung von Erwartungswerten (engl.: Ground Truth) ist dabei eine zentrale Herausforderung des maschinellen Lernens generell. Mit diesen erzielen künstliche neuronale Netze hervorragende Ergebnisse, jedoch mit dem Nachteil, dass die Erhebung der benötigten Trainingsdaten unter anderem ein zeit- und kostenintensiver Prozess ist. Problematisch erweist sich auch die Akquirierung von personenbezogenen, nicht anonymen Trainingsdaten, wie es beispielsweise bei Anwendungen im „Ambient Assisted Living“-Bereich der Fall ist.
Die HTW Berlin (Forschungsgruppe Creative Media) erhoffte sich hier insbesondere eine Übertragbarkeit der Ergebnisse in weitere Anwendungsgebiete um die synthetische Datengenerierung als eine wirtschaftliche, ethische, soziale und datenschutzkonforme Alternative zu Realweltdaten zu erforschen.
Projektlaufzeit
Projektleitung
- Prof. Dr.-Ing. Carsten Busch (Projektleitung)
- Prof. Dr. Regina Frieß (Projektleitung)
Projektmitarbeiter_innen
- Josef Heitzler (Projektmitarbeiter_in)
Mittelgeber
iris-GmbH infrared & intelligent sensors
Kooperationspartner
- iris-GmbH infrared & intelligent sensors