Projekte

Aktuelle Projekte

INSTANT - MAINTAIN -Entwicklung eines Multi-Applikator-Assistenzsystems für interventionelle Pankreaskrebsbehandlungen mit Platzierungsfehler-Kompensation
Laufzeit: 01.01.2024 bis 30.06.2026

Im Rahmen des FuE-Projektes soll ein Multi-Applikator-Assistenzsystem für CT-gesteuerte Interventionen von Pankreaskrebs entwickelt werden. Das System soll den Benutzer dabei unterstützen, multiple Applikatoren präzise zu platzieren, Platzierungsfehler zu erkennen und automatisch Vorschläge für eine optimale Adjustierung der Instrumente vorschlagen. Dafür sollen in dem Projekt neue Hard- und Softwarekomponenten entwickelt und miteinander verzahnt werden. Das System soll am Beispiel der Behandlung des Pankreaskarzinoms entwickelt und demonstriert werden. Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (CAScination Deutschland GmbH) und zwei Forschungspartnern (Otto-von-Guericke-Universität Magdeburg und Fraunhofer MEVIS - Institut für digitale Medizin). Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der ZPVP, Experimentelle Fabrik Magdeburg, betreut.

Projekt im Forschungsportal ansehen

INSTANT-MUTAR - Multi-User-Training in Augmented Reality
Laufzeit: 01.07.2023 bis 31.12.2025

Im Rahmen des FuE-Projektes soll ein Multi-User-Augmented-Reality (AR)-System entwickelt werden, mit dem sich Interaktionen mehrerer Benutzer in der AR via Head-Mounted-Display (HMD) oder Tablet bzw. Smartphone darstellen sowie virtuelle Inhalte austauschen und manipulieren lassen.

Während des Projekts übernimmt die 3DQR GmbH die smartphone- bzw. tabletbasierte Umsetzung des Multi-User-Frameworks zur Erstellung der interaktiven AR-Szenen. Außerdem werden in Zusammenarbeit mit der OVGU mehrere Anwendungsschnittstellen (API) entwickelt, die gemeinsam nutzbare Funktionalitäten, wie z.B. die Netzwerkkommunikation und Serveranbindung, enthalten. Diese sollen die Einbindung der von der OVGU entwickelten und evaluierten Techniken für HMD-basierte AR vereinfachen und beschleunigen. Außerdem wird auf diese Weise eine plattformübergreifende (d.h. auf Smartphone/Tablet und AR-Brille) Multi-User-Nutzung ermöglicht.

Projekt im Forschungsportal ansehen

Planning, Navigation and Monitoring Device for CT-guided Interventions (Großgeräteantrag)
Laufzeit: 01.11.2020 bis 31.10.2025

In this project within the framework of the DFG major research instrumentation programme, a planning/navigation device is to be interfaced with a computer tomograph so that it can act as a central information system. In addition, algorithms are to be developed to facilitate CT-supported interventions in cooperation with several research groups on the STIMULATE research campus. These include, for example, new deep-learning-based segmentation procedures and path optimization algorithms to support multi-applicator planning or new CT image reconstruction procedures to reduce artifacts while saving radiation dose.

Projekt im Forschungsportal ansehen

Forschungscampus STIMULATE - Leitthema iCT
Laufzeit: 01.10.2020 bis 30.09.2025

Minimal-invasive CT-geführte Behandlungen von onkologischen Erkrankungen gehören inzwischen zum klinischen Alltag, was jedoch mit einer Erhöhung der Strahlenbelastung für Patienten und behandelndes medizinisches Personal einhergeht. Dabei werden aktuell CT-Systeme genutzt,
die ursprünglich für eine diagnostische Bildgebung konzipiert wurden, deren Anforderungen sich allerdings wesentlich von denen, welche an eine interventionelle Anwendung gestellt werden, unterscheiden. So dauern computertomografische Interventionen in der Regel länger als die diagnostische Bildgebung, neben dem Patienten befindet sich auch medizinisches Personal im Raum, und es wird unter Nutzung spezieller Instrumente ein therapeutischer Eingriff durchgeführt.

Das Ziel des Leitthemas iCT Solutions ist die Etablierung der interventionellen Computertomographie (iCT) als kurative Therapiemethode zur minimal-invasiven bildgeführten Behandlung bösartiger Lungen- und Leberläsionen. Dabei soll der Workflow von der Planung bis zur Nachkontrolle unter anderem in folgenden Aspekten optimiert werden:

  • Entwicklung eines neuartigen Instrumententrackings mit dem Ziel der automatischen Bildnachführung
  • Einsatz eines Leichtbauroboters zum Führen einer US-Sonde
  • Verbesserung des Patientenzugangs durch die Umsetzung eines interventionsspezifischen Tisches
  • Erforschung und Etablierung interventionsspezifischer Bildgebungsprotokolle, um eine Beschleunigung der Bildaufnahmen bei gleichzeitiger Dosisreduktion zu erreichen

Projekt im Forschungsportal ansehen

INSTANT - OnSXale - Erforschung von Darstellungs- und Interaktionsmethoden in verteilten XR-Lernumgebungen
Laufzeit: 01.09.2022 bis 28.02.2025

Im Rahmen des FuE-Projektes "OnSXale" sollen neuartige kollaborative und virtuelle Lernumgebungen für die Berufsausbildung in handwerklichen Berufen konzipiert, erforscht, entwickelt und evaluiert werden. Dabei werden Möglichkeiten erforscht und entwickelt, Lehrinhalte minimal-skeuomorph und didaktisch effektiv darzustellen. Außerdem werden Methoden zur verteilten, kollaborativen Bearbeitung von Ausbildungsaufgaben in virtuellen Umgebungen erforscht und entwickelt.

Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von der rhaug GmbH und der Otto-von-Guericke Universität Magdeburg. Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das avisierte Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird entsprechend von der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH begleitet.

Projekt im Forschungsportal ansehen

INSTANT - ProLeARn - Hardwareunabhängige Augmented Reality Umgebung - ARPSL
Laufzeit: 01.06.2022 bis 31.12.2024

Im Rahmen des Projektes "ProLeARn" soll ein projektorbasiertes Augmented Reality-System für den Einsatz in schulischen Lehr- und Lernszenarien erforscht und entwickelt werden. Das Ziel des Vorhabens ist eine kosteneffiziente Lösung, welche mehreren Nutzern den simultanen Zugang zu virtuellen Inhalten erlaubt. Dafür werden unterschiedliche Projektionsgeometrien entwickelt und Algorithmen zur Darstellung der Inhalte sowie zur Interaktion der Teilnehmer mit virtuellen Inhalten als auch untereinander erforscht.

Grundsätzlich löst das Projekt das Problem, für die Anwendung von Augmented Reality in großen Gruppen AR-Hardware (Head-Mounted Displays, Eingabegeräte) für jeden Teilnehmer vorhalten zu müssen. Durch eine skalierbare, projektionsbasierte Lösung, die ohne nutzerspezifische Zusatzgeräte verwendet werden kann, ist der Zugang für alle Teilnehmer sichergestellt. Aus wirtschaftlicher Sicht bietet das avisierte System eine kosteneffiziente, erweiterbare und damit nachhaltige Lösung für AR-Umgebungen.

Projekt im Forschungsportal ansehen

INSTANT - Web-KI Prostate - KI-basierte Algorithmen zur Vorhersage für Prostataerkrankungen
Laufzeit: 01.04.2022 bis 31.12.2024

Im FuE-Projekt "Web-KI Prostate" soll eine webbasierte Applikation zur Vorhersage von Prostatakarzinomen und -erkrankungen mittel Künstlicher Intelligenz (KI) konzipiert, erforscht, entwickelt und evaluiert werden.
Indem durch die Applikation auf verdächtige Areale im Prostatagewebe verwiesen wird und eine Einschätzung zu einer Erkrankung abgegeben wird, soll die Versorgung der Patienten verbessert und die rradiologischen Fachkräfte entlastet werden. Der Einsatz der KI hat das Potenzial, die Diagnose für eine Vielzahl an Patienten zu verbessern, die Anzahl an unnötigen Biopsien zu verringern und Kosten zu reduzieren.
Die Realisierung der Entwicklung erfolgt in Kooperation zwischen der ALTA Klinik GmbH (KMU) und der Otto-von-Guericke-Universität Magdeburg. Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das Vorhaben ist ein aus dem Netzwerk "INSTANT" hervorgegangenes FuE-Projekt und wird von dem Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH (Netzwerkmanagement) bei der Umsetzung begleitet.

Projekt im Forschungsportal ansehen

Abgeschlossene Projekte

INSTANT - MultiMersive: Erweiterte Interaktion mit virtuellen Inhalten (InterActVR)
Laufzeit: 01.08.2021 bis 31.07.2023

Im Rahmen des FuE-Projektes "InterMED" soll ein Software-Framework für die nahtlose Kombination unterschiedlicher Medienformate zum Zweck der medizinischen sowie industriellen Aus- und Weiterbildung konzipiert, erforscht, entwickelt und evaluiert werden. Der Fokus liegt hierbei auf dem Wechseln/Springen zwischen Formaten wie klassischen 2D-Videoinhalten, passiven und interaktiven 360°-Videoumgebungen sowie Virtual-Reality-Szenen. Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (VISUALIMPRESSION) und einem Forschungspartner (Otto-von-Guericke-Universität Magdeburg). Das geplante Vorhaben ist auf eine Laufzeit von 2 Jahren ausgelegt. Das avisierte Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH - Experimentelle Fabrik Magdeburg, bei der Umsetzung begleitet.

Projekt im Forschungsportal ansehen

INSTANT - medAR / Medizinisches Tracking- und AR.Interaktionssystem (MTAI)
Laufzeit: 01.02.2021 bis 30.04.2023

Im Rahmen des FuE-Projektes "medAR" wird angestrebt, neue interaktive, stereoskopische Augmented-Reality (AR)-Darstellungstechniken für medizinische Anwendungen zu erforschen und zu entwickeln. So sollen minimalinvasive Interventionen mit Hilfe der projektorbasierten AR unterstützt werden, indem Navigationshinweise für operative Instrumente oder virtuelle anatomische Objekte mit Bewegungskompensation auf den Patienten dreidimensional überlagert und für mehrere Nutzer in Teilprojektionen dargestellt werden. Die Navigation der Instrumente wird von visuellem wie auch auditivem Feedback unterstützt.
Durch den universellen Charakter des Systemaufbaus sollen darüber hinaus weitere Anwendungsszenarien erschlossen werden, wie z.B. die Ersthelfer:innenausbildung oder die anatomische Ausbildung von Ärzt:innen. Bei der Ausbildung von Ersthelfer:innen können unterschiedliche Krankheitsbilder auf einem Dummy dargestellt und mittels eines zu entwickelnden Pointers manipuliert werden.
Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (domeprojection.com GmbH) und einem Forschungspartner (Otto-von-Gericke-Universität Magdeburg). Das Vorhaben ist auf eine Laufzeit von 2 1/4 Jahren ausgelegt.
Das Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH - Experimentelle Fabrik Magdeburg, bei der Umsetzung begleitet.

Projekt im Forschungsportal ansehen

INSTANT - VR-MED / Virtual Reality-gestützte Notfallsimulation für die medizinische Aus- und Weiterbildung
Laufzeit: 01.03.2021 bis 28.02.2023

Im Rahmen eines Verbundprojektes, an dem die Firma 2tainment GmbH und die Fakultät für Informatik (FIN) der Otto-von-Guericke Universität Magdeburg beteiligt sein sollen, wird ein neuartiger Virtual-Reality(VR)-Simulator entwickelt. In erster Linie soll eine Software-gestützte Simulation von Diagnostik- und Behandlungsabläufen erreicht werden. Das F&E-Projekt zielt auf den Einsatz von VR-Technologie und Simulationsalgorithmen für ausgewählte notfallmedizinische Trainingsmaßnahmen sowie die dafür notwendigen medizinischen Geräte ab. Ziel ist es, die notfallmedizinische Versorgung in Deutschland im Hinblick auf die Qualität der Trainingsmaßnahmen erheblich zu verbessern, indem der VR-Simulator zukünftig als Ausbildungsunterstützung für angehende Ärzte und Sanitäter dienen soll. Das avisierte Vorhaben ist ein aus dem Netzwerk kooperative Systeme (NekoS) hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH, bei der Umsetzung begleitet.

Projekt im Forschungsportal ansehen

Improving Spatial Perception for Medical Augmented Reality with Interactable Depth Layers
Laufzeit: 01.09.2019 bis 31.08.2022

Incorrect spatial interpretation is still one of the most common perceptional problems in medical augmented reality (AR). To further investigate this challenge, our project will elaborate on new methods that can improve the spatial perception for medical AR. Existing approaches are often not sufficient to explore medical 3D data in projected or optical see-through AR. While aiming at providing additional depth information for the whole dataset, many current approaches clutter the scene with too much information, thus binding valuable mental resources and potentially amplifying inattentional blindness.

Therefore, we will develop and evaluate new visualization ans interaction techniques for multilayer AR. Our objective is to determine if depth layer decompositions help to better understand spatial relations of medical 3D data, and if transparency can facilitate depth perception for multi-layer visualizations. In addition, we will investigate whether methods for multimodal and collaborative interaction can help to reduce the amount of currently displayed AR information. The results of this project should gain new insights for the representation of multilayer information in medical AR. These insights could be used to enhance established AR visualization techniques, to increase its usability, and thus to reduce risks during AR-guided medical interventions.

Projekt im Forschungsportal ansehen

Development of Augmented and Virtual Multi-User Applications for Medical-Technical Exchange in Immersive Rooms (AVATAR)
Laufzeit: 01.09.2018 bis 31.05.2022

The exchange of surgical experience and competence nowadays mainly takes place at conferences, through the presentation of surgical videos and through the organisation of visits to each other. Complex manual skills and surgical techniques have to be newly developed, trained and passed on to younger surgeons or colleagues. With the methods currently used, this exchange is very costly and time-consuming.
In this project, VR interaction and visualization techniques will be developed to improve the exchange of experience and competence between medical professionals. In a virtual reality, several users are to train collaboratively - simultaneously and in real time. The positions of locally distributed persons will be determined using hybrid tracking systems based on ultra-wideband technologies and inertial sensors. On this basis, VR training scenarios are designed, implemented in a multi-user communication system and clinically evaluated over distance.
The innovation of this project is the combination of collaborative interaction and visualization techniques with hybrid tracking technologies in an advanced multi-user communication system. The project results should form a basis for the development of future VR-based communication and simulation systems in medicine.

Projekt im Forschungsportal ansehen

Next Generation of Surgical Simulators for Surgical Planning, Training and Education
Laufzeit: 01.11.2019 bis 31.12.2021

The aim of the project "Next Generation of Surgical Simulators for Surgical Planning, Training and Education" is to prepare an EU application in the field of "Health, demographic change and well-being". The aim is to apply for a Marie-Sklodowska Curie action, more precisely an ITN (Innovative Training Network). The applicants share the opinion that the improvement of surgical training is becoming more and more important in surgery. As patients get older, these procedures often become more complex and risky. Surgical simulators on today's market cannot reflect the reality and complexity of surgery, nor are they at an acceptable price level. The planned EU project aims precisely at this problem. An open-source framework for the simulation of surgical interventions is to be developed, which can be extended by research institutions and companies and used scientifically and commercially.

Projekt im Forschungsportal ansehen

VR/AR-based Explorer for Medical Education
Laufzeit: 01.06.2019 bis 31.12.2021

With the establishment of smartphones and tablet computers in large parts of our society, new possibilities are emerging to convey knowledge in a vivid way. Many of the newer devices also make it possible to create immersive virtual reality (VR) or to enrich reality with virtual elements in the form of augmented reality. Such VR/AR-based environments are already used in a variety of training scenarios, especially in pilot training, but are based on stationary, high-priced components, e.g. VR caves, and require special stationary VR/AR hardware.

This project aims to investigate VR/AR solutions for basic medical education based on the use of affordable mobile input devices. The aim is to give learners access to this new form of digital knowledge transfer. The virtual contents are to be linked directly with existing textbooks in order to enrich them didactically and to supplement them meaningfully with digital media. Within the scope of this project, the project partners would like to concentrate on basic medical training, in particular on conveying medical-technical knowledge in anatomy and surgery. In addition, a software will be developed which enables teachers to create new learning scenarios themselves with the help of an authoring tool.

Projekt im Forschungsportal ansehen

A VR-UI for Virtual Planning and Training Applications over Large Distances
Laufzeit: 01.11.2019 bis 31.10.2021

In this international ZIM project, the consortium wants to concentrate on the research and development of Virtual Reality User Interfaces (VR-UIs). The application focus will be on virtual planning and training applications in medicine. With the solution envisaged in this project, physicians are to be able to communicate over long distances (intercontinental between Germany and Canada), distributed and in groups of up to 5 users and exchange medical skills. From a technical point of view, the VR-exploration of medical case data (text, image and video data) and the annotation of the data in VR as well as the VR-selection and manipulation of the data should be in the foreground. Successful implementation requires an interdisciplinary consortium of UI experts (UCDplus GmbH, University of Waterloo) and medical VR software developers (Luxsonic Technologies Ltd., Otto-von-Guericke University Magdeburg).

Projekt im Forschungsportal ansehen

Biofeedback-based AR system for Medical Balance Training
Laufzeit: 01.11.2019 bis 31.10.2021

The therapy of impaired balance is usually done with medication in combination with physiotherapeutic training. The MediBalance Pro medical device from MediTECH Electronic GmbH has successfully established itself on the market. However, it is currently only used in specialized therapy centers for dizziness treatment and is limited there only to a training of the control of the equilibrium focus. In this international ZIM project, the existing hardware is to be equipped with an advanced AR-based operating and game interface. ln addition, the system is to be expanded with a multiphysiological sensor system. Within the scope of the project, a prototype for a new medical device will be developed.

Projekt im Forschungsportal ansehen

Intelligente Einlegesohle für Interaktionsanwendungen
Laufzeit: 01.10.2017 bis 31.03.2021

In this project a novel interaction approach will be investigated, which enables the operation of software via simple foot-based gestures. This enables the user to operate the software by foot, but at the same time they can fully concentrate on the actual work process using their hands. In surgical applications in particular, this reduces the risk for the patient as the surgeon does not have to touch potentially unsterile input devices.

The project will be established as a joint project between Thorsis Technologies and the research campus STIMULATE of the Otto-von-Guericke University. The primary objective is to develop the necessary hardware and software components to provide functional verification in the context of surgical applications. A basic prerequisite for the acceptance of the insole as an interaction medium for a wide range of applications is the uncomplicated applicability and compatibility of the insole with standard footwear.

Projekt im Forschungsportal ansehen

Automated Online Service for the Preparation of Patient-individual 3D Models to Support Therapy Decisions
Laufzeit: 01.11.2016 bis 31.12.2020

To provide hospitals with tools for the preparation of patient-individual 3D models of organs and pathologic structures, an automated online service shall be developed in this research project in co-operation with the company Dornheim Medical Images. Therefore, a clinical solution using the example of oncologic therapy of the prostate will be investigated. In this context, the Computer-Assisted Surgery group develops techniques for improved image segmentation and human-computer interaction.

Projekt im Forschungsportal ansehen

Augmented Reality Supported 3D Laparoscopy
Laufzeit: 01.07.2017 bis 30.06.2020

The introduction of 3D technology has led to considerably improved orientation, precision and speed in laparoscopic surgery. It facilitates laparoscopic partial nephrectomy even for renal tumors in a more complicated position. Not every renal tumor is easily identifiable by its topography. There are different reasons for this. For one thing, renal tumors cannot protrude from the parenchymal border; for another thing, the kidney is enclosed in a connective tissue capsule that is sometimes very difficult to dissect from the parenchyma.
On the other hand, the main goal of tumor surgery is to completely remove the carcinomatous focus. Thus open surgery is regularly performed for tumors that either do not protrude substantially from the parenchyma or intraoperatively show strong adhesions with the renal capsule, as described above. In terms of treatment safety for the kidney, this technique yields basically similar results. However, the larger incision involves significant disadvantages with regard to the patients quality of life.
In this project, we aim to develop am augmented reality approach in which cross-sectional images (MRI or CT) are fused with real-time 3D laparoscopic images. The research project aims to establish the insertion and identification of markers particularly suitable for imaging as the basis for image-guided therapy.

Projekt im Forschungsportal ansehen

3D-Projektionsdarstellungen zum Training und zur Unterstützung medizinischer Eingriffe
Laufzeit: 01.04.2017 bis 30.04.2020

Die Projektionstechnologie hat im Zuge der voranschreitenden Digitalisierung aller Lebens- und Arbeitsbereiche in den letzten zehn Jahren eine starke Weiterentwicklung erlebt. Die Fähigkeit, lichtstarke und großflächige Projektionen zu erzeugen, wird bereits in vielen Bereichen genutzt, z. B. für Simulations- und Trainingsanwendungen in der Fahrzeug- und der Luftfahrtindustrie. Hochqualitative vielkanalige Projektionen erlauben es, die reale Umgebung mit virtuellen Objekten ohne Nutzung zusätzlicher Hardware zu erweitern (Augmented Reality) oder sogar zu ersetzen (Virtual Reality).
 
Im Rahmen eines Verbundprojektes, an dem die Firma domeprojection.com® GmbH und der Forschungscampus STIMULATE der Otto-von-Guericke Universität beteiligt sind, wird angestrebt, 3D-Projektionsdarstellungen zum Training und zur Unterstützung medizinischer Eingriffe zu erforschen und ihre klinische Anwendung vorzubereiten.
 
Auf Basis eines kameragestützten 3D-Multi-Projektorsystems sollen an der Otto-von-Guericke-Universität Magdeburg neue medizinische 3D-Visualisierungs- und Interaktionstechniken erforscht werden. Dies beinhaltet die Entwicklung neuer Algorithmen zum Rendering und zur Visualisierung von virtuellen 3D-Objekten, die Evaluation und Entwicklung geeigneter 3D-Interaktionstechniken sowie die systematische Evaluierung der entwickelten Verfahren in medizinischen Einsatzszenarien.

Projekt im Forschungsportal ansehen

Verbesserung der räumlichen Wahrnehmung für medizinische Augmented Reality Anwendungen durch illustrative Visualisierungstechnik und auditives Feedback
Laufzeit: 01.04.2016 bis 30.04.2020

This project shall offer new findings for the encoding of spatial information in medical augmented reality (AR) illustrations. New methods for AR distance encoding via illustrative shadows and glyphs shall be investigated. Furthermore, context-adaptive methods for the delineation as well as methods for the encoding of spatial information via auditive feedback are developed. The results can be used to reduce incorrect spatial interpretations in medical AR, to expand existing AR visualization methods and to support physicians during image-guided interventions to reduce the risk of future medical interventions.

Projekt im Forschungsportal ansehen

Hometraining für die Therapie kognitiver Störungen
Laufzeit: 01.03.2017 bis 28.02.2020

Der Kostendruck auf Rehabilitationskliniken führt dazu, dass Schlaganfallpatienten nach 3-4 Wochen aus der Klinik entlassen werden und die weitere Therapie über Praxen niedergelassener Neuropsychologen und Ergotherapeuten erfolgt. Die für eine effiziente Folgetherapie notwendige Behandlungsintensität wird jedoch nach Entlassung aus der Rehabilitationsklinik unter aktuellen Bedingungen nicht mehr gewährleistet. Um therapeutische Effekte zu erzielen, muss die begonnene Therapie durch ein intensives, möglichst tägliches Training fortgesetzt werden.
Ziel dieses Forschungsprojektes ist die Entwicklung eines Systems zur Therapie kognitiver Störungen für Patienten nach Schlaganfall im Hometraining. Hierfür sollen Benutzungsschnittstellen mit neuen Interaktions- und Visualisierungtechniken entwickelt werden. Weiterhin soll im Rahmen von Studien geprüft werden, ob Belohnungs- und Motivationstechniken aus dem Bereich der Computerspiele auf  die neue Therapiesoftware übertragen werden können. Ein Element der Motivations- und Reward-Strategie z.B. ist die geeignete Darstellung der Leistungsdaten des Patienten.
Bei dem Vorhaben handelt es sich um ein Kooperationsprojekt zwischen dem Forschungscampus STIMULATE an der Otto-von-Guericke Universität, dem Universitätsklinikum Leipzig und der Hasomed GmbH.

Projekt im Forschungsportal ansehen

Forschungscampus STIMULATE -> Forschungsgruppe Therapieplanung und Navigation
Laufzeit: 01.01.2015 bis 31.12.2019

In der FG "Therapieplanung und Navigation" werden Algorithmen und klinisch einsetzbare Prototypen zur Pllanung und Navigation minimal-invasiver Eingriffe entwickelt. Die Forschungsschwerpunkte liegen im Bereich Instrumententracking, Kalibrierung, Augmented Reality Visualisierung, und Mensch-Maschine-Interaktion unter sterilen Bedingungen.

Projekt im Forschungsportal ansehen

Navigated Thermoablation of Liver Metastases in the MR
Laufzeit: 01.02.2015 bis 31.12.2019

This project of the research campus STIMULATE deals with the investigation of an MR-compatible navigation system for MR image-guided thermoablation of liver metastases. Central contributions are methods for the improved navigation under MR imaging, especially for the intra-interventional adjustment of prospective planning data. The navigation system shall be operable by a projector-camera system which is to be developed in this project.

Projekt im Forschungsportal ansehen

Navigated Thermoablation of Spine Metastases
Laufzeit: 01.01.2015 bis 31.12.2019

The investigation of a radio-based navigation system for the support of percutaneous thermoablations is in the center of this project in the research campus STIMULATE. The navigation system shall be used and evaluated in the context of navigated spine interventions, especially for the treatment of spine metastases, with the aid of the angiography system Artis zeego.

Projekt im Forschungsportal ansehen

Evaluation of Projector-Sensor Systems for Medical Applications
Laufzeit: 01.12.2016 bis 30.11.2019

In this project, 3D interaction and visualization techniques for projector-based visualization of VR and AR contents shall be investigated. A focus is on the fast and accurate calibration of modern projector-sensor systems. The project results shall give information about the forms in which the systems are suitable for medical applications.

Projekt im Forschungsportal ansehen

Fuß-Auge-Interaktion zur Steuerung medizinischer Software unter sterilen Bedingungen
Laufzeit: 01.05.2017 bis 30.04.2019

Die Verwendung medizinischer Bilddaten zur interventionellen Navigationsunterstützung erfordert ein immer höheres Maß an Interaktion zwischen Operateur und Computer. Der sterile, knappe Arbeitsraum begrenzt dabei die zur Verfügung stehenden Eingabemodalitäten. Die im medizinischen Alltag oft anzutreffende Delegation von Aufgaben an assistierendes Personal ist fehleranfällig und unterliegt Schwankungen in der Effektivität, abhängig von der Qualifikation und Erfahrung der Beteiligten. Berührungslose Eingabegeräte geben dem Operateur zwar die benötigte direkte Schnittstelle an die Hand, erfordern jedoch zeitintensive Unterbrechungen der Hauptaufgabe zum Zweck der Softwarebedienung.
 
Das Ziel dieses Projektes ist die Erforschung von berührungslosen Eingabegeräten und Mensch-Maschine Schnittstellen. In diesen Zusammenhang soll insbesondere die Nutzererfahrung (User Experience, UX) für den Gebrauch solcher Schnittstellen verbessert werden. Ziel ist die Entwicklung eines Eingabesystems, welches auf mehrere Modalitäten zurückgreift, die sich mit den Anforderungen im OP vereinbaren lassen.
 
Um das Thema umfassend zu beleuchten ist eine enge Zusammenarbeit mit Prof. Dr. Lennart Nacke der University of Waterloo (Ontario, Kanada) als Experten im Bereich Human-Computer-Interaction und User Experience vorgesehen. Professor Nacke forscht im Bereich verschiedener Eingabesysteme mit Spezialisierung auf physiologischen Sensoren und Eyetrackern.

Projekt im Forschungsportal ansehen

2D Map Displays to Support Neurosurgical Interventions
Laufzeit: 01.03.2017 bis 28.02.2018

For the planning of complex surgical interventions, 3D models of relevant anatomical and pathological structures are used. Primarily, these models were developed for preoperative surgery planning. Due to the often very high geometric complexity and the associated interpretation and interaction effort for the viewer, the potential of 3D models during surgical interventions can only be exploited in a limited way.

During a 12-month research stay at the Surgical Planning Laboratory, Department of Radiology, Brigham and Womens Hospital, Harvard Medical School, Boston, USA, this problem shall be analyzed in more detail for neurosurgical interventions. Therefore, a new method for 2D map display for navigational support during neurosurgical interventions shall be designed, developed, and evaluated. Algorithms that provide classified, weighted neurosurgical data for a 2D map display shall be explored. Based on these algorithms, a prototype for the visualization of relevant neurosurgical data in the form of a 2D map display shall be created.

Projekt im Forschungsportal ansehen

Segmentierung von 3D Ultraschalldaten
Laufzeit: 01.12.2015 bis 31.12.2016

In diesem Forschungsprojekt sollen neue Algorithmen zur Segmentierung von Strukturen in 3D Ultraschalldaten entwickelt werden. Ein Fokus liegt dabei auf der robusten Segmentierung der Schilddrüse im Rahmen nuklearmedizinischer Untersuchungen.

Projekt im Forschungsportal ansehen

Augmented Reality Visualisierung für die 3D Laparoskopie
Laufzeit: 15.10.2015 bis 15.10.2016

In diesem Forschungsprojekt wird ein Augmented-Reality-Visualisierungsverfahren konzipiert, entwickelt und klinisch evaluiert. Hierbei werden virtuelle 3D Planungsmodelle der Niere (Tumore, Gefäße) in ein 3D Laparoskopiebild mit Hilfe geeigneter Visualisierungstechniken eingeblendet (Augmented Reality).

Projekt im Forschungsportal ansehen

AngioNav: Planning of Vascular Interventions
Laufzeit: 01.04.2014 bis 31.08.2016

In der Angiologie und interventionellen Radiologie werden Eingriffe häufig über das Gefäßsystem des Menschen durchgeführt, u.a. um Gefäßerkrankungen zu therapieren oder ein spezielles Therapeutikum gezielt im Körper zu platzieren. Für die Behandlung werden Katheter eingesetzt, die durch den behandelnden Angiologen über das Gefäßsystem des Patienten zum Ziel navigiert werden. Für die Navigation des Katheters ist die Kenntnis der Morphologie der Gefäßstrukturen von hoher Bedeutung. Zur ersten Orientierung werden prä-interventionelle Schnittbilder (CT, MRT) verwendet. Die Navigation des Katheters erfolgt über die interventionelle Bildgebung, in der Regel mittels 2D Fluoroskopie. Da es sich hierbei um Projektionsbilder handelt, enthalten sie keinerlei Tiefeninformationen. Deshalb ist gerade bei komplexen Eingriffen die Zuhilfenahme von prä-interventionellen Daten in vielen Fällen auch während der Intervention nötig, um die Position und Orientierung des Katheters zu interpretieren und eine optimale Zielführung zu gewährleisten. Für die Generierung der interventionellen Planungsdaten ist die Entwicklung eines Software-Assistenten zur Planung vaskulärer Interventionen, insbesondere zur Segmentierung komplexer Gefäßstrukturen, notwendig.

Projekt im Forschungsportal ansehen

Optimierung eines Sensors zur berührungslosen Gestensteuerung von medizinischer Software
Laufzeit: 01.10.2015 bis 31.12.2015

In diesem Forschungs- und Entwicklungsprojekt wird ein optischer Sensor zur berührungslosen Gestenerkennung im Rahmen einer Nutzerstudie evaluiert. Die gewonnen Erkenntnisse werden zur Verbesserung der Gestenerkennungsrate des Sensor eingesetzt.

Projekt im Forschungsportal ansehen

Evaluierung von Algorithmen zur Segmentierung von Lebermetastasen
Laufzeit: 01.03.2015 bis 30.06.2015

Für die Planung und Durchführung von RF-Ablationen in der Leber ist die Kenntnis von Durchmesser, Form und Volumetrie von Lebermetastasen von hohem Interesse. In diesem Projekt sollen geeignete Algorithmen aus dem Algorithmen-Framework ITK gefunden, geeignet parametrisiert, und an CT-Datensätzen der Leber evaluiert werden. Das Verfahren ist mittlerweile im klinischen Einsatz.

Projekt im Forschungsportal ansehen

Forschungscampus STIMULATE -> Computerassistierte Chirurgie
Laufzeit: 01.03.2013 bis 31.12.2014

Der Magdeburger Forschungscampus STIMULATE ist ein Vorhaben, das im Rahmen der Förderinitiative "Forschungscampus - öffentlich-private Partnerschaft für Innovationen" durch das BMBF gefördert wird.

Den Fokus von STIMULATE stellen Technologien für bildgeführte minimal-invasive Methoden in der Medizin dar. Das Ziel besteht in der Verbesserung medizinischer Behandlungsmethoden sowie in der Eindämmung der Kostenexplosion im Gesundheitswesen. Dabei werden schwerpunktmäßig altersbedingte Volkskrankheiten aus den Bereichen Onkologie, Neurologie sowie Gefäßerkrankungen betrachtet. Langfristig soll sich das Vorhaben STIMULATE zum "Deutschen Zentrum für bildgestützte Medizin" entwickeln.

Projekt im Forschungsportal ansehen

Letzte Änderung: 08.06.2023 - Ansprechpartner: Webmaster