Hochschule Ravensburg-Weingarten | Zurück zur Startseite

Erweitert »




IAF
Institut für Angewandte Forschung

Schwerpunktübergreifende Projekte

Intelligenter Rollator für die stationäre Pflege zur Autonomie der Bewohner und Entlastung der Pflegekräfte - RABE

 


Speziell für die stationäre Langzeitpflege soll ein intelligenter Rollator entwickelt werden, welcher sowohl die Pflegekräfte entlasten, als auch den Bewohnern der Pflegeheime ein autonomeres Leben ermöglichen soll. Durch einen eingebauten Elektromotor unterstützt der RABE-Rollator das Bewältigen längerer Strecken, Überwinden von Gefällen und erleichtert den Transport von Zuladung. Mittels entsprechender Sensorik und der Fähigkeit zur Navigation soll der Rollator darüber hinaus auch autonom kurze Strecken zurücklegen können. Zum Beispiel kann der Rollator nachts, oder wenn sein Benutzer beim Essen ist, eine Parkposition aufsuchen. Auch kann er seinen Benutzer an bestimmte vordefinierte Orte führen.

Für Parkinson-Patienten ist darüber hinaus die Einblendung auf den Boden projizierter Linien implementiert, welche das Überwinden von Gehblockaden erleichtern.

Durch Analyse von Anomalien im Gangmuster des Benutzers kann der Rollator erkennen, wann sich die allgemeine physiologische Verfassung verändert, um so z.B. Stürzen vorzubeugen oder das Pflegepersonal zu benachrichtigen. Da das Gangmuster sich von Person zu Person stark unterscheiden kann, werden maschinelle Lernverfahren eingesetzt, mit deren Hilfe der Rollator ein Modell für das Gangmuster des Benutzers erlernt.



Bei Interesse oder Fragen zum Projekt:
Christopher Bonenberger
0751 501- 9613
bonenbch@hs-weingarten.de

weitere Informationen zum Projekt: hier

SMART3D - Hochauflösende 3D-Kamera durch KI-basierte Sensorfusion für den Outdoor-Einsatz

Projektziele
Die 3D-Kameratechnologie bildet die Schlüsseltechnologie für neue Märkte in den Bereichen autonomer Navigation, Roboter- und Handhabungstechnik. Eine wesentliche technische Innovation ist dabei die Entwicklung des PMD-Sensors, der die gleichzeitige Aufnahme von Entfernungs- und Grauwertbildern in Echtzeit ermöglicht.
Die Grundlagen dieses wissenschaftlichen, technischen und auch wirtschaftlichen Erfolgs wurden unter anderem im Rahmen der BMBF- Förderprojekte 3D-SIAM und LYNKEUS geschaffen. Ihren hohen Innovationsgrad konnte diese Technologie im Rahmen erster Produkteinführungen eindrucksvoll beweisen. Trotz aller Erfolge stößt diese Technologie in vielen Applikationen noch häufig an ihre Grenzen.
Insbesondere die geringe Ortsauflösung der PMD-Sensoren limitiert Abmessung und Detailtreue der zu erfassenden Objektszene. Für Anwendungen im Außenbereich, bei denen große Pixelflächen zugunsten eines besseren Signal/Rausch Verhältnisses eingesetzt werden, wird derzeit eine Auflösung von nur wenigen Pixeln erreicht (Stand der Technik 2015: 64 x 16 Pixel). Diese Auflösung genügt zwar um Hindernisse zu erkennen - eine robuste Objektklassifikation nach Personen, Objekten, etc. ist damit nicht möglich.Entfernungsbild einer PMD-Kamera und Farbbild. Bei der geringen Ortsauflösung der PMD-Kamera ist eine robuste Objektklassifizierung nicht möglich. Dabei ist die Objektklassifizierung selbst bei hoher lateraler Ortsauflösung der 3D Daten eine schwierige Herausforderung, da viele Anwendungen ihren Einsatz in unangepasster, natürlicher Umwelt erfordern. Moderne Verfahren verwenden dabei Algorithmen der Künstlichen Intelligenz (KI), wie z.B. das Deep Learning, das der Funktionsweise des menschlichen Gehirns nachempfunden ist.
Die Firmengruppe IFM und die Professoren Eberhardt und Ertel der Hochschule Ravensburg-Weingarten (HRW) wollen in einem gemeinsamen Forschungsprojekt die PMD-Kameratechnologie mittels innovativer Sensorfusion optimieren und eine anspruchsvolle Objektklassifizierung auf der Basis von Künstlicher Intelligenz integrieren. Dabei werden folgende konkrete Ziele verfolgt:
1. In der AG Eberhardt soll die Ortsauflösung der PMD-Kamera deutlich erhöht werden
ohne Veränderung der sensorspezifischen, physikalischen Eigenschaften. Dieses Ziel
soll durch Sensorfusion der PMD-Kameradaten mit den Bilddaten einer hochauflösenden Farbkamera erreicht werden. Im ersten Schritt sollen beide Sensoren mittels Optik- und Beleuchtungsdesign zu einem "einäugigen" SMART3D System integriert werden. In einem zweiten Schritt werden die Bilddaten beider Sensoren mittels Superresolution-Verfahren in ein hochauflösendes Mehrkanalbild transformiert. Diese Ergebnisse stehen der AG Ertel für Untersuchungen der Mustererkennung und Objektklassifizierung zur Verfügung.
2. In der AG Ertel sollen ergänzend zu den Verfahren der klassischen Bildverarbeitung,
eine neuartige Methode aus dem Bereich des maschinellen Lernens zur Sensorfusion
und Objektklassifikation entwickelt werden. Hierbei macht man sich die Tatsache
zunutze, dass sehr große Datenmengen zur Verfügung stehen, deren Muster mittels
Deep-Belief Netzwerken erkannt werden können um sie für die anschließende
Datenfusion und Objektklassifikation zu nutzen. Die Ergebnisse der unterschiedlichen
Ansätze sollen verglichen und bewertet werden.
3. Die Firmengruppe IFM beteiligt sich mit 10% an der Finanzierung des Projekts und stellt ihre 3D-Technologie zur Verfügung. Für die Evaluation des SMART3D Systems stellt sie Bildaufnahmen aus Outdoor-Anwendungen zum Trainieren der Klassifikatoren zur Verfügung. Darüber hinaus übernimmt sie Aufgaben im Bereich Entwurf und Fertigung. Im Gegensatz zu 3D-Kameras wie z.B. der Kinect von Microsoft ist das vorgestellte 3D-System auch im Outdoor-Einsatz und bei schwieriger Wetterlage geeignet und soll künftig z.B. in Fahrzeugen für die Müllentsorgung eingesetzt werden. Mittels hochauflösender 3D-Daten und Farbinformation erfolgen die Klassifizierung der Müllcontainer nach Form und Farbe sowie die Steuerung des Greifwerkzeugs.

Projektdetails:

Projektleitung:                     Prof. Dr. Jörg Eberhardt
                                          Prof. Dr. rer. nat. Wolfgang Ertel

Kooperationspartner:            ifm syntron GmbH

Mitarbeit:                            Henrik Lietz
                                          Dr. Markus Schneider
                                          Christoph Wiedemann

Projektlaufzeit:                    01.11.2016 - 31.10.2019

Mittelgeber:                        BMBF

Projektstatus:                     aktiv

Verbundprojekt: Virtueller Ergonomie-Trainer in der Pflegeausbildung - ERTRAG -; Teilvorhaben: Virtueller Ergonomietrainer in der Pflegeausbildung

Thema des Verbundprojektes / Problembeschreibung

Vor dem Hintergrund des demografischen Wandels besteht im Bereich der Pflege und Versorgung alter Menschen bereits heute ein großer Bedarf, der allen einschlägigen Prognosen zufolge weiter wachsen wird. Diese Entwicklung geht mit einer kontinuierlich steigenden Nachfrage an Pflegefachpersonal einher. In einigen Regionen, insbesondere in bestimmten Pflegebereichen, zeichnet sich bereits ein Fachkräftemangel ab (vgl. Simon 2012). Hinzu kommt, dass Beschäftigte in Pflegeberufen ein erhöhtes Risiko für die Entstehung muskuloskelettaler Beschwerden insbesondere im Bereich des Rückens aufweisen (vgl. Freitag et al. 2007). Solche Entwicklungen schmälern nicht nur das ohnehin knappe Fachkräftepotential durch krankheitsbedingte Fehlzeiten und vorzeitigen Berufsausstieg, sondern gehen mit deutlichen gesundheitlichen sowie ökonomischen Einbußen einher. Daher sind Maßnahmen zu ergreifen, die den Aufbau, Erhalt und Ausbau von Fähigkeiten und Fertigkeiten des jetzigen sowie zukünftigen Pflegepersonals unter-stützen. Verbesserungen sind dazu im Bereich der Organisation und Arbeitsbedingungen notwendig, jedoch vor allem auch auf verhaltenspräventiver Ebene, um arbeitsbedingte Gesundheitsstörungen zu vermeiden (vgl. Malo 2012), wobei bereits der Pflegeausbildung eine zentrale Rolle zukommt. Allerdings wird gegenwärtig nur wenig systemati-sches, ergonomisches Denken vermittelt, wodurch wiederum eine ergonomische Bewegungsgestaltung erschwert ist (Drossel & Hirsch 2013). Rückenschonendes Arbeiten wird häufig in Blockseminaren durch Fremddozenten vermittelt, d.h., ein bis zwei Mal während der gesamten dreijährigen Ausbildung zur Pflegefachkraft. Die Auszubildenden führen dabei entweder gegenseitig Übungen durch in Übungsräumen oder wenden die zu erlernenden Techniken in soge-nannten Skillslabs an, über die bisher jedoch nur einige wenige Pflegeschulen in Deutschland verfügen. Neben einer korrekten Durchführung von Pflegehandlungen sollen dabei u.a. ungünstige ergonomische Haltungen der Auszubil-denden identifiziert werden. Feedback an sie zur adäquaten Durchführung der Techniken erfolgt i. d. Regel anhand der Beobachtungen der Anleiterin / des Anleiters. Vereinzelt findet eine Bewertung der Übungseinheit unter Verwen-dung von Videoanalysen statt, deren Auswertung jedoch relativ zeitaufwändig ist und zudem kein unmittelbar wäh-rend der Übungssituation stattfindendes Feedback an den Auszubildenden zulässt.
Hier setzt das Verbundprojekt an, indem ein virtueller technikgestützter Ergonomietrainer in der Pflegeausbildung (ERTRAG) entwickelt und evaluiert wird, der die geschilderten Defizite in der Pflegeausbildung adressiert und ein technikgestütztes, individuelles erfahrbares Lernen ermöglicht.

Projektdetails:

Projektleitung:                                         Prof. Dr. Jörg Eberhardt
                                                              Prof. Dr. rer. cur. Maik H.-J. Winter
                                                              Prof. Dr. rer. nat. Wolfgang Ertel

Industriepartner:                                      TWT GmbH Science & Innovation
                                                             Sarissa GmbH

Forschungspartner:                                 Universität Konstanz

Mitarbeit:                                                Muhammad Muneeb Hassan
                                                             Barbara Weber-Fiori
                                                             Ankita Agrawal

Projektlaufzeit:                                       01.06.2016 - 31.05.2019

Mittelgeber:                                           BMBF

Projektstatus:                                        aktiv


weitere Informationen hier