Projekte
Aktuelle Projekte
Entwicklung einer KI-basierten Webplattform zur Live-Übersetzung und Sprachanalyse (LISA)
Laufzeit: 01.03.2025 bis 31.12.2027
Im Rahmen eines Verbundprojektes, an dem die Firma Mycrocast GmbH zusammen mit der Fakultät für Informatik der Otto-von-Guericke Universität Magdeburg und dem Forschungscampus STIMULATE beteiligt sein soll, wird erforscht, wie ein KI-gesteuertes, Echtzeit-Sprachübersetzungssystem für Fußballkommentare implementiert und in eine bestehende Webplattform integriert werden kann. Dabei werden Open-Source-Tools ausgewählt und angepasst, um eine vollständige Speech-to-Text-to-Speech (STS)-Pipeline zu erstellen, die die Kompatibilität mit der Mycrocast-Plattform gewährleistet und gleichzeitig die wichtigsten Anforderungen für die Übertragung von Fußballkommentaren erfüllt.
Erforschung und Entwicklung eines hybriden AR Frameworks für die Projektionsanalyse und interaktive Fehlstellenbereinigung (hARPyie)
Laufzeit: 01.01.2025 bis 31.12.2027
Damit Projektionen auf nicht planaren Oberflächen visuell korrekt, sprich ohne unerwünschte Verzerrungen abgebildet werden, ist ein sogenanntes Warping notwendig. Dadurch passt sich die Projektion an die gegebene Oberfläche an. Jedoch können die Polynome und Splines, die dieses Warping beschreiben, nicht alle Wellen im Raum abbilden, wodurch es zu entarteten Projektionen kommen kann. Dies hat zur Folge, dass die entsprechenden Fehlstellen manuell bereinigt werden müssen.
Ein gängiger Einsatzort für AR ist die Montage. Durch die erweiterte Realität kann direkt am 3D Objekt auf Probleme hingewiesen werden und Hilfestellungen eingeblendet werden. Ähnlich dazu soll im beschriebenen Anwendungsfall eine AR-Brille genutzt werden, um den Kunden auf Fehlstellen aufmerksam zu machen und durch Visualisierungen Lösungen mittels AR bereitstellen, die der Kunde dann manuell durch Gesten ausführen kann. Somit kann der Kunde selbstständig und lösungsorientiert Fehlstellen bereinigen. Die AR-Brille bietet weiterhin den Vorteil der Telekommunikation. So kann die Firma DP im Zweifel einschreiten und auch remote weiterhelfen.
Erforschung und Entwicklung eines Virtual Reality Frameworks für das Training mittels flexiblen, tubulären Strukturen (FlexTube)
Laufzeit: 01.01.2025 bis 31.12.2027
In der beruflichen und universitären Ausbildung müssen den Lernenden oft komplexe Zusammenhänge vermittelt werden. Dies geschieht heute vor allem durch beschreibende Texte und illustrative Darstellungen in Lehrbüchern sowie durch die Einbindung digitaler Medien wie Videos und 3D-Animationen in den Unterricht.
Mit der Etablierung von Smartphones und Tablet-Computern in weiten Teilen der Gesellschaft entstehen neue Möglichkeiten, Wissen anschaulich zu vermitteln. Neue VR-Geräte wie die Meta Quest Pro oder die Apple Vision Pro ermöglichen es zudem, eine immersive virtuelle Realität (VR) zu erzeugen. Solche VR-basierten Umgebungen werden bereits in einer Vielzahl von Bildungsszenarien eingesetzt.
VR-Anwendungen sind klassischen Lernmethoden insbesondere dann überlegen, wenn es um die Vermittlung komplexer, räumlicher Zusammenhänge geht. Dabei treten in mechanischen oder medizinischer Lernkontexten sehr häufig tubuläre Strukturen (Schläuche, Gefäßsysteme, Versorgungs- und Drainagesysteme etc.) auf, deren Zusammenhang räumlich und oft auch in einem zeitlichen Kontext (Verdrehung von Strukturen über einen definierten Zeitraum) verstanden werden muss, vgl. Abb. 1. In medizinischen Szenarien muss das Verknoten von tubulären Strukturen, z.B. chirurgischen Fäden, erlernt werden.
Zusammenfassend lässt sich sagen, dass derzeit VR-basierte Anwendungen fehlen, um mit tubulären Strukturen in einem VR-basierten Trainings- und Lernkontext zu interagieren. Deshalb sollen in dem vorgestellten Projekt die KMU LIVINGSOLIDS und die Arbeitsgruppe Virtual and Augmented Reality der Otto-von-Guericke-Universität Magdeburg ihre Kompetenzen ergänzen. So soll ein solches neuartige VR Framework erforscht und entwickelt werden. Dieses Framework soll explizit für die Interaktion mit diversen flexiblen, tubulären Strukturen ausgelegt sein. Um eine breite Anwendung sicher zu stellen, wird es an exemplarischen Trainingsszenarien aus der Automobilindustrie und der Medizin evaluiert.
Operativ-chirurgisch orientierte Forschungsvorhaben: Innovative und patientenspezifische Visualisierungstechniken für die perioperative Optimierung der onkologischen Chirurgie von perihilären Cholangiokarzinomen
Laufzeit: 01.01.2025 bis 31.12.2027
Preoperative planning in oncologic surgery of perihilar cholangiocarcininoma (pCCA) is essential due to a significant morbidity and mortality of these complex procedures and the very high individual variability of the liver anatomy.
The proposed project aims to optimize treatment of patients with biliary tumors using different technological approaches that all yield in the increase of resectability due to better preoperative planning, surgical preparation and intraoperative orientation, the reduction of complications and an overall improvement of patient care.
One goal is to enable a more precise preoperative visualization by optimized imaging using latest photon-coutning detector computed tomography (PCD-CT) for lilar and especially biliary structures. Furthermore a preoperative planning support for surgeons using artificial intelligence will be developed.
The standard of care for intraoperative orientation in hepatobiliary surgery is the intraoperative ultrasound (IOUS). However, this technique is only partly useful in pCCA. Therefore, the project also aims to improve intraoperative orientation through virtual (VR) and augmented reality (AR) and 3D printing, which has been shown to the beneficial for the treatment of intrahepatic tumors and should also be explored for pCCA. Additionally, the IOUS has recently been fused with preoperative 3D reconstructions as commercially available Real Time Virtual Sonography (RVS). The technique has only been described for intrahepatic tumors regarding the liver. The combination of optimized preoperative visualization for pCCA with RVS IOUS may also enable an improved intraoperative orientation during these procedures.
All four work packages influence and build on one another to improve outcomes in these hightly complex oncologic surgeries for pCCA by optimizing current patient care and, with a consistent and lasting contribution, surgical treatment and training.
The unique advantage of the consortium is the established and successful research cooperation between clinicians and engineers as well as the high experience in the field of liver surgery, liver imaging and computer-aided evaluation and analysis.
Projektionsgekoppelter Druckmessfußboden zur Ganganalyse und Rehabilitation (RehaFLOOR)
Laufzeit: 01.01.2025 bis 31.12.2027
Das Ziel des Vorhabens ist die Erforschung und Entwicklung eines neuartigen Systems zur therapeutischen und diagnostischen Ganganalyse und –Rehabilitation auf Basis eines Mehrkanal-Projektionssystems in Kombination mit einem modular aufgebauten, großflächigen Druckmessfußboden (siehe Abbildung 1). Primäre Zielgruppe sind Patienten nach Schlaganfall, Unfall oder Amputation. Weitere Einsatzfelder ergeben sich in den Bereichen Neurologie, Orthopädie und Sportmedizin. Das Vorhaben zielt dabei insbesondere auf einen kostengünstigen und flächendeckenden einsetzbaren Lösungsansatz, der die Lücke zwischen der beobachtenden Ganganalyse im Bereich der therapeutischen Rehabilitation und den instrumentierten High-End Systemen im Bereich von Forschung und Spezialklinik schließt. Neben der Erforschung neuartiger Möglichkeiten zur Diagnose und Rehabilitation auf Basis des angestrebten innovativen Technologieansatzes, ist es daher vorrangiges Ziel die Hürden für den Einsatz der Technologie aus Kosten- und Anwendersicht derart zu reduzieren, dass ein breiter Einsatz in der therapeutischen Rehabilitation unter besonderer Berücksichtigung neuromuskulärer Komplexaufgaben mit minimiertem Zeitaufwand möglich wird. Für die einzelnen Praxen bedeutet dies ein erweitertes Angebot und die Sicherung bzw. Schaffung neuer Arbeitsplätze.
Industrie-in-Klinik-Plattform mediMESH - Modellvorhaben: Nutzergerechte Gestaltung einer Gestensteuerung für medizintechnische Geräte (IDLE) - Teilvorhaben: XR-Technologien für den Einbezug von Nutzern in frühe Entwicklungsphasen innovativer Medizintechniklösungen
Laufzeit: 01.05.2024 bis 30.04.2027
Das Teilvorhaben ist in das IDLE Gesamtvorhaben eingebettet, das die Erforschung und Entwicklung
textilbasierter, berührungsloser Interaktion in sterilen klinischen Umgebung zum Ziel hat. Das Teilvorhaben zielt darauf ab, nutzerzentrierte Entwicklung von Medizintechnik zu verbessern, indem innovative Ansätze mit Augmented und Virtual Reality (XR) Technologien erforscht werden. Medizinische Fehlerquoten von 5-15 % pro Krankenhausaufenthalt in Industrieländern, oft auf Probleme bei der Bedienoberfläche von Medizinprodukten zurückzuführen, unterstreichen die Dringlichkeit. Das Projekt hat zwei Hauptarbeitsstränge:
Der erste konzentriert sich auf die Entwicklung eines Gestensets zur Steuerung medizinischer Großgeräte. Systemanforderungen werden analysiert, Architektur und Schnittstellen spezifiziert. Dabei wird besonderes Augenmerk auf die Integration des Gestensteuerungssystems in virtuelle Prototypen gelegt. Dedizierte Interaktionsmethoden werden entwickelt und das Gesamtsystem wird im MRT-Szenario virtuell evaluiert.
Der zweite Arbeitsstrang erforscht den Einsatz von XR-Technologien für die nutzerzentrierte
Technologieentwicklung. Verschiedene XR-Methoden werden analysiert und nutzerzentrierte
Forschungsergebnisse generiert. XR-Technologien ermöglichen interaktive Tests von Prototypen und
stärken die Nutzerpartizipation. Zentraler Forschungsbestandteil ist die Untersuchung der Validität von Usability- und User Experience-Studien in virtuellen Umgebungen.
Insgesamt strebt das Projekt an, die Qualität und Effizienz der Medizinproduktentwicklung zu steigern, Fehler zu reduzieren und die Benutzerfreundlichkeit zu erhöhen. Es erweitert das Methodenrepertoire für nutzerzentrierte Technologieentwicklung. Das Ziel ist die Entwicklung technologisch exzellenter und wettbewerbsfähiger Lösungen für die Medizintechnikforschung und -industrie.
T!Raum - transPORT - transDIGITAL: Digitaler Zwilling für den Transferraum transPORT
Laufzeit: 01.11.2023 bis 31.10.2026
Mit transDIGITAL wird der Wissenschaftshafen Magdeburg dank eines „Digitalen Zwillings“ bald auch im virtuellen Raum erlebbar. Ein digitaler Zwilling ist ein dynamisches, interaktives Abbild der Wirklichkeit. Grundlage dafür ist unter anderem die Visualisierung der physischen Bausubstanz,
Infrastrukturanlagen und -einrichtungen sowie quartiersspezifischer Prozesse, Systeme und Angebote und die Möglichkeiten eines Informationsfeedbacks für die Bürger:innen und Besuchenden des
Stadtquartiers. Dies ermöglicht – neben einer erhöhten Sichtbarkeit für denlokalen Standort Magdeburg – die digitale Bereitstellung von Services, Wissen und Vernetzungsmöglichkeiten aus dem Wissenschaftshafen als urbanes Ökosystem und Hightech-Zentrum für Medizintechnik mit
überregionaler Wirk- und Sogkraft in die ganze Welt hinaus.
Dafür wird in einem ersten Schritt der digitale Zwilling als Austausch- und Kommunikationsplattform implementiert. Im weiteren Verlauf wird diese dann um verschiedene Interaktionsmöglichkeiten für die Öffentlichkeit ausgebaut und Wissen mit Interaktionsformaten bereitgestellt. Vielfältige
begleitende partizipatorische Transfer-, Austausch- und Experimentierformate zu verschiedenen Themen wie Wissenschaft (Medizintechnik, innovative Studierendenförderung), Wirtschaft (StartUps,
KMU, Nachwuchs) und Kultur, laden insbesondere die Zivilgesellschaft sowohl über den digitalen Zwilling als auch im Rahmen der Gesamtinitiative transPORT – Transferhafen Magdeburg zum Mitgestalten des Quartiers ein.
transDITIGAL ist eines von zehn Vorhaben der Gesamtinitiative transPORT – Transferhafen Magdeburg, gefördert durch das Bundesministerium für Bildung und Forschung in der Programmlinie T!Raum – Transferräume für die Zukunft von Regionen.
INSTANT - MAINTAIN -Entwicklung eines Multi-Applikator-Assistenzsystems für interventionelle Pankreaskrebsbehandlungen mit Platzierungsfehler-Kompensation
Laufzeit: 01.01.2024 bis 30.06.2026
Im Rahmen des FuE-Projektes soll ein Multi-Applikator-Assistenzsystem für CT-gesteuerte Interventionen von Pankreaskrebs entwickelt werden. Das System soll den Benutzer dabei unterstützen, multiple Applikatoren präzise zu platzieren, Platzierungsfehler zu erkennen und automatisch Vorschläge für eine optimale Adjustierung der Instrumente vorschlagen. Dafür sollen in dem Projekt neue Hard- und Softwarekomponenten entwickelt und miteinander verzahnt werden. Das System soll am Beispiel der Behandlung des Pankreaskarzinoms entwickelt und demonstriert werden. Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (CAScination Deutschland GmbH) und zwei Forschungspartnern (Otto-von-Guericke-Universität Magdeburg und Fraunhofer MEVIS - Institut für digitale Medizin). Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der ZPVP, Experimentelle Fabrik Magdeburg, betreut.
INSTANT-MUTAR - Multi-User-Training in Augmented Reality
Laufzeit: 01.07.2023 bis 31.12.2025
Im Rahmen des FuE-Projektes soll ein Multi-User-Augmented-Reality (AR)-System entwickelt werden, mit dem sich Interaktionen mehrerer Benutzer in der AR via Head-Mounted-Display (HMD) oder Tablet bzw. Smartphone darstellen sowie virtuelle Inhalte austauschen und manipulieren lassen.
Während des Projekts übernimmt die 3DQR GmbH die smartphone- bzw. tabletbasierte Umsetzung des Multi-User-Frameworks zur Erstellung der interaktiven AR-Szenen. Außerdem werden in Zusammenarbeit mit der OVGU mehrere Anwendungsschnittstellen (API) entwickelt, die gemeinsam nutzbare Funktionalitäten, wie z.B. die Netzwerkkommunikation und Serveranbindung, enthalten. Diese sollen die Einbindung der von der OVGU entwickelten und evaluierten Techniken für HMD-basierte AR vereinfachen und beschleunigen. Außerdem wird auf diese Weise eine plattformübergreifende (d.h. auf Smartphone/Tablet und AR-Brille) Multi-User-Nutzung ermöglicht.
Planungs-, Navigations- und Überwachungsgerät für CT-gesteuerte Interventionen (Großgeräteantrag)
Laufzeit: 01.11.2020 bis 31.10.2025
In diesem Projekt im Rahmen des DFG-Großgeräteprogramms soll ein Planungs-/Navigationsgerät mit einem Computertomographen gekoppelt werden, so dass dieser als zentrales Informationssystem fungieren kann. Darüber hinaus sollen in Zusammenarbeit mit mehreren Forschergruppen auf dem Forschungscampus STIMULATE Algorithmen entwickelt werden, die CT-gestützte Eingriffe ermöglichen. Dazu gehören beispielsweise neue Deep-Learning-basierte Segmentierungsverfahren und Pfadoptimierungsalgorithmen zur Unterstützung der Multi-Applikator-Planung oder neue CT-Bildrekonstruktionsverfahren zur Reduzierung von Artefakten bei gleichzeitiger Einsparung der Strahlendosis.
Dieser Text wurde mit DeepL übersetzt
Abgeschlossene Projekte
Forschungscampus STIMULATE - Leitthema iCT
Laufzeit: 01.10.2020 bis 30.09.2025
Minimal-invasive CT-geführte Behandlungen von onkologischen Erkrankungen gehören inzwischen zum klinischen Alltag, was jedoch mit einer Erhöhung der Strahlenbelastung für Patienten und behandelndes medizinisches Personal einhergeht. Dabei werden aktuell CT-Systeme genutzt,
die ursprünglich für eine diagnostische Bildgebung konzipiert wurden, deren Anforderungen sich allerdings wesentlich von denen, welche an eine interventionelle Anwendung gestellt werden, unterscheiden. So dauern computertomografische Interventionen in der Regel länger als die diagnostische Bildgebung, neben dem Patienten befindet sich auch medizinisches Personal im Raum, und es wird unter Nutzung spezieller Instrumente ein therapeutischer Eingriff durchgeführt.
Das Ziel des Leitthemas iCT Solutions ist die Etablierung der interventionellen Computertomographie (iCT) als kurative Therapiemethode zur minimal-invasiven bildgeführten Behandlung bösartiger Lungen- und Leberläsionen. Dabei soll der Workflow von der Planung bis zur Nachkontrolle unter anderem in folgenden Aspekten optimiert werden:
- Entwicklung eines neuartigen Instrumententrackings mit dem Ziel der automatischen Bildnachführung
- Einsatz eines Leichtbauroboters zum Führen einer US-Sonde
- Verbesserung des Patientenzugangs durch die Umsetzung eines interventionsspezifischen Tisches
- Erforschung und Etablierung interventionsspezifischer Bildgebungsprotokolle, um eine Beschleunigung der Bildaufnahmen bei gleichzeitiger Dosisreduktion zu erreichen
INSTANT - OnSXale - Erforschung von Darstellungs- und Interaktionsmethoden in verteilten XR-Lernumgebungen
Laufzeit: 01.09.2022 bis 28.02.2025
Im Rahmen des FuE-Projektes "OnSXale" sollen neuartige kollaborative und virtuelle Lernumgebungen für die Berufsausbildung in handwerklichen Berufen konzipiert, erforscht, entwickelt und evaluiert werden. Dabei werden Möglichkeiten erforscht und entwickelt, Lehrinhalte minimal-skeuomorph und didaktisch effektiv darzustellen. Außerdem werden Methoden zur verteilten, kollaborativen Bearbeitung von Ausbildungsaufgaben in virtuellen Umgebungen erforscht und entwickelt.
Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von der rhaug GmbH und der Otto-von-Guericke Universität Magdeburg. Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das avisierte Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird entsprechend von der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH begleitet.
INSTANT - ProLeARn - Hardwareunabhängige Augmented Reality Umgebung - ARPSL
Laufzeit: 01.06.2022 bis 31.12.2024
Im Rahmen des Projektes "ProLeARn" soll ein projektorbasiertes Augmented Reality-System für den Einsatz in schulischen Lehr- und Lernszenarien erforscht und entwickelt werden. Das Ziel des Vorhabens ist eine kosteneffiziente Lösung, welche mehreren Nutzern den simultanen Zugang zu virtuellen Inhalten erlaubt. Dafür werden unterschiedliche Projektionsgeometrien entwickelt und Algorithmen zur Darstellung der Inhalte sowie zur Interaktion der Teilnehmer mit virtuellen Inhalten als auch untereinander erforscht.
Grundsätzlich löst das Projekt das Problem, für die Anwendung von Augmented Reality in großen Gruppen AR-Hardware (Head-Mounted Displays, Eingabegeräte) für jeden Teilnehmer vorhalten zu müssen. Durch eine skalierbare, projektionsbasierte Lösung, die ohne nutzerspezifische Zusatzgeräte verwendet werden kann, ist der Zugang für alle Teilnehmer sichergestellt. Aus wirtschaftlicher Sicht bietet das avisierte System eine kosteneffiziente, erweiterbare und damit nachhaltige Lösung für AR-Umgebungen.
INSTANT - Web-KI Prostate - KI-basierte Algorithmen zur Vorhersage für Prostataerkrankungen
Laufzeit: 01.04.2022 bis 31.12.2024
Im FuE-Projekt "Web-KI Prostate" soll eine webbasierte Applikation zur Vorhersage von Prostatakarzinomen und -erkrankungen mittel Künstlicher Intelligenz (KI) konzipiert, erforscht, entwickelt und evaluiert werden.
Indem durch die Applikation auf verdächtige Areale im Prostatagewebe verwiesen wird und eine Einschätzung zu einer Erkrankung abgegeben wird, soll die Versorgung der Patienten verbessert und die rradiologischen Fachkräfte entlastet werden. Der Einsatz der KI hat das Potenzial, die Diagnose für eine Vielzahl an Patienten zu verbessern, die Anzahl an unnötigen Biopsien zu verringern und Kosten zu reduzieren.
Die Realisierung der Entwicklung erfolgt in Kooperation zwischen der ALTA Klinik GmbH (KMU) und der Otto-von-Guericke-Universität Magdeburg. Das geplante Vorhaben ist auf eine Laufzeit von 2,5 Jahren ausgelegt. Das Vorhaben ist ein aus dem Netzwerk "INSTANT" hervorgegangenes FuE-Projekt und wird von dem Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH (Netzwerkmanagement) bei der Umsetzung begleitet.
INSTANT - MultiMersive: Erweiterte Interaktion mit virtuellen Inhalten (InterActVR)
Laufzeit: 01.08.2021 bis 31.07.2023
Im Rahmen des FuE-Projektes "InterMED" soll ein Software-Framework für die nahtlose Kombination unterschiedlicher Medienformate zum Zweck der medizinischen sowie industriellen Aus- und Weiterbildung konzipiert, erforscht, entwickelt und evaluiert werden. Der Fokus liegt hierbei auf dem Wechseln/Springen zwischen Formaten wie klassischen 2D-Videoinhalten, passiven und interaktiven 360°-Videoumgebungen sowie Virtual-Reality-Szenen. Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (VISUALIMPRESSION) und einem Forschungspartner (Otto-von-Guericke-Universität Magdeburg). Das geplante Vorhaben ist auf eine Laufzeit von 2 Jahren ausgelegt. Das avisierte Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH - Experimentelle Fabrik Magdeburg, bei der Umsetzung begleitet.
INSTANT - medAR / Medizinisches Tracking- und AR.Interaktionssystem (MTAI)
Laufzeit: 01.02.2021 bis 30.04.2023
Im Rahmen des FuE-Projektes "medAR" wird angestrebt, neue interaktive, stereoskopische Augmented-Reality (AR)-Darstellungstechniken für medizinische Anwendungen zu erforschen und zu entwickeln. So sollen minimalinvasive Interventionen mit Hilfe der projektorbasierten AR unterstützt werden, indem Navigationshinweise für operative Instrumente oder virtuelle anatomische Objekte mit Bewegungskompensation auf den Patienten dreidimensional überlagert und für mehrere Nutzer in Teilprojektionen dargestellt werden. Die Navigation der Instrumente wird von visuellem wie auch auditivem Feedback unterstützt.
Durch den universellen Charakter des Systemaufbaus sollen darüber hinaus weitere Anwendungsszenarien erschlossen werden, wie z.B. die Ersthelfer:innenausbildung oder die anatomische Ausbildung von Ärzt:innen. Bei der Ausbildung von Ersthelfer:innen können unterschiedliche Krankheitsbilder auf einem Dummy dargestellt und mittels eines zu entwickelnden Pointers manipuliert werden.
Die Realisierung der Entwicklung erfolgt in einem Kooperationsprojekt in Zusammenarbeit von einem KMU-Partner (domeprojection.com GmbH) und einem Forschungspartner (Otto-von-Gericke-Universität Magdeburg). Das Vorhaben ist auf eine Laufzeit von 2 1/4 Jahren ausgelegt.
Das Vorhaben ist ein aus dem Netzwerk INSTANT hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH - Experimentelle Fabrik Magdeburg, bei der Umsetzung begleitet.
INSTANT - VR-MED / Virtual Reality-gestützte Notfallsimulation für die medizinische Aus- und Weiterbildung
Laufzeit: 01.03.2021 bis 28.02.2023
Im Rahmen eines Verbundprojektes, an dem die Firma 2tainment GmbH und die Fakultät für Informatik (FIN) der Otto-von-Guericke Universität Magdeburg beteiligt sein sollen, wird ein neuartiger Virtual-Reality(VR)-Simulator entwickelt. In erster Linie soll eine Software-gestützte Simulation von Diagnostik- und Behandlungsabläufen erreicht werden. Das F&E-Projekt zielt auf den Einsatz von VR-Technologie und Simulationsalgorithmen für ausgewählte notfallmedizinische Trainingsmaßnahmen sowie die dafür notwendigen medizinischen Geräte ab. Ziel ist es, die notfallmedizinische Versorgung in Deutschland im Hinblick auf die Qualität der Trainingsmaßnahmen erheblich zu verbessern, indem der VR-Simulator zukünftig als Ausbildungsunterstützung für angehende Ärzte und Sanitäter dienen soll. Das avisierte Vorhaben ist ein aus dem Netzwerk kooperative Systeme (NekoS) hervorgegangenes FuE-Projekt und wird von der Netzwerkmanagementeinrichtung, der ZPVP Zentrum für Produkt-, Verfahrens- und Prozessinnovation GmbH, bei der Umsetzung begleitet.
Verbesserung der räumlichen Wahrnehmung für medizinische Augmented Reality mit interaktiven Tiefenschichten
Laufzeit: 01.09.2019 bis 31.08.2022
Falsche räumliche Interpretation ist immer noch eines der häufigsten Wahrnehmungsprobleme bei medizinischer Augmented Reality (AR). Um diese Herausforderung weiter zu untersuchen, wird unser Projekt neue Methoden erarbeiten, die die räumliche Wahrnehmung für medizinische AR verbessern können. Bestehende Ansätze reichen oft nicht aus, um medizinische 3D-Daten in projizierter oder optisch durchsichtiger AR zu erkunden. Während sie darauf abzielen, zusätzliche Tiefeninformationen für den gesamten Datensatz bereitzustellen, überladen viele aktuelle Ansätze die Szene mit zu vielen Informationen, wodurch wertvolle mentale Ressourcen gebunden werden und die Unaufmerksamkeitsblindheit potenziell verstärkt wird.
Daher werden wir neue Visualisierungs- und Interaktionstechniken für mehrschichtige AR entwickeln und evaluieren. Unser Ziel ist es, herauszufinden, ob Tiefenschichtzerlegungen helfen, die räumlichen Beziehungen medizinischer 3D-Daten besser zu verstehen, und ob Transparenz die Tiefenwahrnehmung bei mehrschichtigen Visualisierungen erleichtern kann. Darüber hinaus werden wir untersuchen, ob Methoden für multimodale und kollaborative Interaktion dazu beitragen können, die Menge der aktuell angezeigten AR-Informationen zu reduzieren. Die Ergebnisse dieses Projekts sollen neue Erkenntnisse für die Darstellung von mehrschichtigen Informationen in medizinischer AR liefern. Diese Erkenntnisse könnten genutzt werden, um etablierte AR-Visualisierungstechniken zu verbessern, die Benutzerfreundlichkeit zu erhöhen und damit Risiken bei AR-geführten medizinischen Eingriffen zu reduzieren.
Dieser Text wurde mit DeepL übersetzt
Entwicklung von erweiterten und virtuellen Multi-User-Anwendungen für den medizinisch-technischen Austausch in immersiven Räumen (AVATAR)
Laufzeit: 01.09.2018 bis 31.05.2022
Der Austausch von chirurgischer Erfahrung und Kompetenz findet heutzutage hauptsächlich auf Konferenzen, durch die Präsentation von chirurgischen Videos und durch die Organisation von gegenseitigen Besuchen statt. Komplexe manuelle Fertigkeiten und chirurgische Techniken müssen neu entwickelt, trainiert und an jüngere Chirurgen oder Kollegen weitergegeben werden. Mit den derzeit verwendeten Methoden ist dieser Austausch sehr kostspielig und zeitaufwendig.
In diesem Projekt werden VR-Interaktions- und Visualisierungstechniken entwickelt, um den Erfahrungs- und Kompetenzaustausch zwischen medizinischen Fachkräften zu verbessern. In einer virtuellen Realität sollen mehrere Nutzer kollaborativ trainieren - gleichzeitig und in Echtzeit. Die Positionen der lokal verteilten Personen werden mit hybriden Trackingsystemen auf Basis von Ultrabreitbandtechnologien und Inertialsensoren bestimmt. Auf dieser Basis werden VR-Trainingsszenarien entworfen, in einem Multi-User-Kommunikationssystem implementiert und über die Distanz klinisch evaluiert.
Die Innovation dieses Projekts ist die Kombination von kollaborativen Interaktions- und Visualisierungstechniken mit hybriden Tracking-Technologien in einem fortschrittlichen Multi-User-Kommunikationssystem. Die Projektergebnisse sollen eine Grundlage für die Entwicklung zukünftiger VR-basierter Kommunikations- und Simulationssysteme in der Medizin bilden.
Dieser Text wurde mit DeepL übersetzt
Chirurgische Simulatoren der nächsten Generation für chirurgische Planung, Training und Ausbildung
Laufzeit: 01.11.2019 bis 31.12.2021
Das Ziel des Projekts "Next Generation of Surgical Simulators for Surgical Planning, Training and Education" ist die Vorbereitung eines EU-Antrags im Bereich "Gesundheit, demografischer Wandel und Wohlbefinden". Ziel ist es, eine Marie-Sklodowska-Curie-Maßnahme zu beantragen, genauer gesagt ein ITN (Innovative Training Network). Die Antragsteller sind der Meinung, dass die Verbesserung der chirurgischen Ausbildung in der Chirurgie immer wichtiger wird. Je älter die Patienten werden, desto komplexer und risikoreicher werden die Eingriffe oft. Die heute auf dem Markt befindlichen chirurgischen Simulatoren können weder die Realität und Komplexität der Chirurgie widerspiegeln, noch sind sie zu einem akzeptablen Preis erhältlich. Das geplante EU-Projekt setzt genau an diesem Problem an. Es soll ein Open-Source-Framework für die Simulation von chirurgischen Eingriffen entwickelt werden, das von Forschungseinrichtungen und Unternehmen erweitert und wissenschaftlich und kommerziell genutzt werden kann.
Dieser Text wurde mit DeepL übersetzt
VR/AR-basierter Explorer für die medizinische Ausbildung
Laufzeit: 01.06.2019 bis 31.12.2021
Mit der Etablierung von Smartphones und Tablet-Computern in weiten Teilen unserer Gesellschaft ergeben sich neue Möglichkeiten, Wissen anschaulich zu vermitteln. Viele der neueren Geräte ermöglichen es auch, eine immersive virtuelle Realität (VR) zu schaffen oder die Realität mit virtuellen Elementen in Form von Augmented Reality anzureichern. Solche VR/AR-basierten Umgebungen werden bereits in einer Vielzahl von Trainingsszenarien, insbesondere in der Pilotenausbildung, eingesetzt, basieren aber auf stationären, hochpreisigen Komponenten, z.B. VR-Höhlen, und erfordern spezielle stationäre VR/AR-Hardware.
In diesem Projekt sollen VR/AR-Lösungen für die medizinische Grundausbildung untersucht werden, die auf der Verwendung erschwinglicher mobiler Eingabegeräte basieren. Ziel ist es, Lernenden den Zugang zu dieser neuen Form der digitalen Wissensvermittlung zu ermöglichen. Die virtuellen Inhalte sollen direkt mit bestehenden Lehrbüchern verknüpft werden, um diese didaktisch anzureichern und sinnvoll mit digitalen Medien zu ergänzen. Im Rahmen dieses Projektes möchten sich die Projektpartner auf die medizinische Grundausbildung konzentrieren, insbesondere auf die Vermittlung von medizinisch-technischem Wissen in Anatomie und Chirurgie. Darüber hinaus soll eine Software entwickelt werden, die es Lehrern ermöglicht, mit Hilfe eines Autorentools selbst neue Lernszenarien zu erstellen.
Dieser Text wurde mit DeepL übersetzt
Biofeedback-based AR system for Medical Balance Training
Laufzeit: 01.11.2019 bis 31.10.2021
The therapy of impaired balance is usually done with medication in combination with physiotherapeutic training. The MediBalance Pro medical device from MediTECH Electronic GmbH has successfully established itself on the market. However, it is currently only used in specialized therapy centers for dizziness treatment and is limited there only to a training of the control of the equilibrium focus. In this international ZIM project, the existing hardware is to be equipped with an advanced AR-based operating and game interface. ln addition, the system is to be expanded with a multiphysiological sensor system. Within the scope of the project, a prototype for a new medical device will be developed.
Eine VR-UI für virtuelle Planungs- und Trainingsanwendungen über große Entfernungen
Laufzeit: 01.11.2019 bis 31.10.2021
In diesem internationalen ZIM-Projekt will sich das Konsortium auf die Forschung und Entwicklung von Virtual Reality User Interfaces (VR-UIs) konzentrieren. Der Anwendungsschwerpunkt liegt dabei auf virtuellen Planungs- und Trainingsanwendungen in der Medizin. Mit der in diesem Projekt angedachten Lösung sollen Ärzte über große Distanzen (interkontinental zwischen Deutschland und Kanada), verteilt und in Gruppen von bis zu 5 Nutzern kommunizieren und medizinische Kenntnisse austauschen können. Aus technischer Sicht soll die VR-Exploration medizinischer Falldaten (Text-, Bild- und Videodaten) und die Annotation der Daten in VR sowie die VR-Selektion und Manipulation der Daten im Vordergrund stehen. Die erfolgreiche Umsetzung erfordert ein interdisziplinäres Konsortium aus UI-Experten (UCDplus GmbH, University of Waterloo) und medizinischen VR-Softwareentwicklern (Luxsonic Technologies Ltd., Otto-von-Guericke-Universität Magdeburg).
Dieser Text wurde mit DeepL übersetzt
Intelligente Einlegesohle für Interaktionsanwendungen
Laufzeit: 01.10.2017 bis 31.03.2021
In this project a novel interaction approach will be investigated, which enables the operation of software via simple foot-based gestures. This enables the user to operate the software by foot, but at the same time they can fully concentrate on the actual work process using their hands. In surgical applications in particular, this reduces the risk for the patient as the surgeon does not have to touch potentially unsterile input devices.
The project will be established as a joint project between Thorsis Technologies and the research campus STIMULATE of the Otto-von-Guericke University. The primary objective is to develop the necessary hardware and software components to provide functional verification in the context of surgical applications. A basic prerequisite for the acceptance of the insole as an interaction medium for a wide range of applications is the uncomplicated applicability and compatibility of the insole with standard footwear.
Automatisierter Online-Service zur Erstellung von patientenindividuellen 3D-Modellen zur Unterstützung von Therapieentscheidungen
Laufzeit: 01.11.2016 bis 31.12.2020
Um Krankenhäusern Werkzeuge für die Erstellung von patientenindividuellen 3D-Modellen von Organen und pathologischen Strukturen zur Verfügung zu stellen, soll in diesem Forschungsprojekt in Zusammenarbeit mit der Firma Dornheim Medical Images ein automatisierter Online-Service entwickelt werden. Dazu soll eine klinische Lösung am Beispiel der onkologischen Therapie der Prostata untersucht werden. In diesem Zusammenhang entwickelt die Arbeitsgruppe Computer-Assistierte Chirurgie Techniken zur verbesserten Bildsegmentierung und Mensch-Computer-Interaktion.
Dieser Text wurde mit DeepL übersetzt
Augmented Reality-gestützte 3D-Laparoskopie
Laufzeit: 01.07.2017 bis 30.06.2020
Die Einführung der 3D-Technologie hat zu einer erheblich verbesserten Orientierung, Präzision und Geschwindigkeit in der laparoskopischen Chirurgie geführt. Sie erleichtert die laparoskopische partielle Nephrektomie auch bei Nierentumoren in komplizierterer Lage. Nicht jeder Nierentumor ist anhand seiner Topographie leicht zu erkennen. Dafür gibt es verschiedene Gründe. Zum einen können Nierentumore nicht über den Parenchymrand hinausragen, zum anderen ist die Niere von einer Bindegewebskapsel umschlossen, die manchmal nur sehr schwer vom Parenchym zu trennen ist.
Andererseits besteht das Hauptziel der Tumorchirurgie darin, den karzinomatösen Herd vollständig zu entfernen. Daher wird die offene Operation regelmäßig bei Tumoren durchgeführt, die entweder nicht wesentlich aus dem Parenchym herausragen oder intraoperativ starke Adhäsionen mit der Nierenkapsel aufweisen, wie oben beschrieben. In Bezug auf die Behandlungssicherheit für die Niere führt diese Technik zu grundsätzlich ähnlichen Ergebnissen. Allerdings ist der größere Schnitt mit erheblichen Nachteilen für die Lebensqualität des Patienten verbunden.
In diesem Projekt wollen wir einen Augmented-Reality-Ansatz entwickeln, bei dem Schnittbilder (MRT oder CT) mit 3D-Laparoskopie-Bildern in Echtzeit verschmolzen werden. Das Forschungsprojekt zielt darauf ab, die Einbringung und Identifizierung von Markern, die sich besonders für die Bildgebung eignen, als Grundlage für eine bildgesteuerte Therapie zu etablieren.
Dieser Text wurde mit DeepL übersetzt
3D-Projektionsdarstellungen zum Training und zur Unterstützung medizinischer Eingriffe
Laufzeit: 01.04.2017 bis 30.04.2020
Die Projektionstechnologie hat im Zuge der voranschreitenden Digitalisierung aller Lebens- und Arbeitsbereiche in den letzten zehn Jahren eine starke Weiterentwicklung erlebt. Die Fähigkeit, lichtstarke und großflächige Projektionen zu erzeugen, wird bereits in vielen Bereichen genutzt, z. B. für Simulations- und Trainingsanwendungen in der Fahrzeug- und der Luftfahrtindustrie. Hochqualitative vielkanalige Projektionen erlauben es, die reale Umgebung mit virtuellen Objekten ohne Nutzung zusätzlicher Hardware zu erweitern (Augmented Reality) oder sogar zu ersetzen (Virtual Reality).
Im Rahmen eines Verbundprojektes, an dem die Firma domeprojection.com® GmbH und der Forschungscampus STIMULATE der Otto-von-Guericke Universität beteiligt sind, wird angestrebt, 3D-Projektionsdarstellungen zum Training und zur Unterstützung medizinischer Eingriffe zu erforschen und ihre klinische Anwendung vorzubereiten.
Auf Basis eines kameragestützten 3D-Multi-Projektorsystems sollen an der Otto-von-Guericke-Universität Magdeburg neue medizinische 3D-Visualisierungs- und Interaktionstechniken erforscht werden. Dies beinhaltet die Entwicklung neuer Algorithmen zum Rendering und zur Visualisierung von virtuellen 3D-Objekten, die Evaluation und Entwicklung geeigneter 3D-Interaktionstechniken sowie die systematische Evaluierung der entwickelten Verfahren in medizinischen Einsatzszenarien.
Verbesserung der räumlichen Wahrnehmung für medizinische Augmented Reality Anwendungen durch illustrative Visualisierungstechnik und auditives Feedback
Laufzeit: 01.04.2016 bis 30.04.2020
This project shall offer new findings for the encoding of spatial information in medical augmented reality (AR) illustrations. New methods for AR distance encoding via illustrative shadows and glyphs shall be investigated. Furthermore, context-adaptive methods for the delineation as well as methods for the encoding of spatial information via auditive feedback are developed. The results can be used to reduce incorrect spatial interpretations in medical AR, to expand existing AR visualization methods and to support physicians during image-guided interventions to reduce the risk of future medical interventions.
Hometraining für die Therapie kognitiver Störungen
Laufzeit: 01.03.2017 bis 28.02.2020
Der Kostendruck auf Rehabilitationskliniken führt dazu, dass Schlaganfallpatienten nach 3-4 Wochen aus der Klinik entlassen werden und die weitere Therapie über Praxen niedergelassener Neuropsychologen und Ergotherapeuten erfolgt. Die für eine effiziente Folgetherapie notwendige Behandlungsintensität wird jedoch nach Entlassung aus der Rehabilitationsklinik unter aktuellen Bedingungen nicht mehr gewährleistet. Um therapeutische Effekte zu erzielen, muss die begonnene Therapie durch ein intensives, möglichst tägliches Training fortgesetzt werden.
Ziel dieses Forschungsprojektes ist die Entwicklung eines Systems zur Therapie kognitiver Störungen für Patienten nach Schlaganfall im Hometraining. Hierfür sollen Benutzungsschnittstellen mit neuen Interaktions- und Visualisierungtechniken entwickelt werden. Weiterhin soll im Rahmen von Studien geprüft werden, ob Belohnungs- und Motivationstechniken aus dem Bereich der Computerspiele auf die neue Therapiesoftware übertragen werden können. Ein Element der Motivations- und Reward-Strategie z.B. ist die geeignete Darstellung der Leistungsdaten des Patienten.
Bei dem Vorhaben handelt es sich um ein Kooperationsprojekt zwischen dem Forschungscampus STIMULATE an der Otto-von-Guericke Universität, dem Universitätsklinikum Leipzig und der Hasomed GmbH.
Forschungscampus STIMULATE -> Forschungsgruppe Therapieplanung und Navigation
Laufzeit: 01.01.2015 bis 31.12.2019
In der FG "Therapieplanung und Navigation" werden Algorithmen und klinisch einsetzbare Prototypen zur Pllanung und Navigation minimal-invasiver Eingriffe entwickelt. Die Forschungsschwerpunkte liegen im Bereich Instrumententracking, Kalibrierung, Augmented Reality Visualisierung, und Mensch-Maschine-Interaktion unter sterilen Bedingungen.
Navigierte Thermoablation von Lebermetastasen in der MR
Laufzeit: 01.02.2015 bis 31.12.2019
Dieses Projekt des Forschungscampus STIMULATE befasst sich mit der Untersuchung eines MR-kompatiblen Navigationssystems für die MR-bildgesteuerte Thermoablation von Lebermetastasen. Zentrale Beiträge sind Methoden zur verbesserten Navigation unter MR-Bildgebung, insbesondere zur intra-interventionellen Anpassung von prospektiven Planungsdaten. Das Navigationssystem soll mit einem in diesem Projekt zu entwickelnden Projektor-Kamera-System bedienbar sein.
Dieser Text wurde mit DeepL übersetzt
Navigierte Thermoablation von Wirbelsäulenmetastasen
Laufzeit: 01.01.2015 bis 31.12.2019
Die Erforschung eines funkbasierten Navigationssystems zur Unterstützung von perkutanen Thermoablationen steht im Mittelpunkt dieses Projektes im Forschungscampus STIMULATE. Das Navigationssystem soll im Rahmen von navigierten Wirbelsäuleneingriffen, insbesondere zur Behandlung von Wirbelsäulenmetastasen, mit Hilfe des Angiographiesystems Artis zeego eingesetzt und evaluiert werden.
Dieser Text wurde mit DeepL übersetzt
Bewertung von Projektor-Sensor-Systemen für medizinische Anwendungen
Laufzeit: 01.12.2016 bis 30.11.2019
In diesem Projekt sollen 3D-Interaktions- und Visualisierungstechniken für die projektorbasierte Visualisierung von VR- und AR-Inhalten untersucht werden. Ein Schwerpunkt liegt dabei auf der schnellen und genauen Kalibrierung moderner Projektor-Sensor-Systeme. Die Projektergebnisse sollen Aufschluss darüber geben, in welcher Form die Systeme für medizinische Anwendungen geeignet sind.
Dieser Text wurde mit DeepL übersetzt
Fuß-Auge-Interaktion zur Steuerung medizinischer Software unter sterilen Bedingungen
Laufzeit: 01.05.2017 bis 30.04.2019
Die Verwendung medizinischer Bilddaten zur interventionellen Navigationsunterstützung erfordert ein immer höheres Maß an Interaktion zwischen Operateur und Computer. Der sterile, knappe Arbeitsraum begrenzt dabei die zur Verfügung stehenden Eingabemodalitäten. Die im medizinischen Alltag oft anzutreffende Delegation von Aufgaben an assistierendes Personal ist fehleranfällig und unterliegt Schwankungen in der Effektivität, abhängig von der Qualifikation und Erfahrung der Beteiligten. Berührungslose Eingabegeräte geben dem Operateur zwar die benötigte direkte Schnittstelle an die Hand, erfordern jedoch zeitintensive Unterbrechungen der Hauptaufgabe zum Zweck der Softwarebedienung.
Das Ziel dieses Projektes ist die Erforschung von berührungslosen Eingabegeräten und Mensch-Maschine Schnittstellen. In diesen Zusammenhang soll insbesondere die Nutzererfahrung (User Experience, UX) für den Gebrauch solcher Schnittstellen verbessert werden. Ziel ist die Entwicklung eines Eingabesystems, welches auf mehrere Modalitäten zurückgreift, die sich mit den Anforderungen im OP vereinbaren lassen.
Um das Thema umfassend zu beleuchten ist eine enge Zusammenarbeit mit Prof. Dr. Lennart Nacke der University of Waterloo (Ontario, Kanada) als Experten im Bereich Human-Computer-Interaction und User Experience vorgesehen. Professor Nacke forscht im Bereich verschiedener Eingabesysteme mit Spezialisierung auf physiologischen Sensoren und Eyetrackern.
2D-Kartendarstellungen zur Unterstützung neurochirurgischer Eingriffe
Laufzeit: 01.03.2017 bis 28.02.2018
Für die Planung komplexer chirurgischer Eingriffe werden 3D-Modelle der relevanten anatomischen und pathologischen Strukturen verwendet. In erster Linie wurden diese Modelle für die präoperative Operationsplanung entwickelt. Aufgrund der oft sehr hohen geometrischen Komplexität und des damit verbundenen Interpretations- und Interaktionsaufwands für den Betrachter kann das Potenzial von 3D-Modellen bei chirurgischen Eingriffen nur bedingt ausgeschöpft werden.
Während eines 12-monatigen Forschungsaufenthaltes am Surgical Planning Laboratory, Department of Radiology, Brigham and Womens Hospital, Harvard Medical School, Boston, USA, soll dieses Problem für neurochirurgische Eingriffe genauer analysiert werden. Dazu soll eine neue Methode zur 2D-Kartendarstellung zur Navigationsunterstützung bei neurochirurgischen Eingriffen konzipiert, entwickelt und evaluiert werden. Es sollen Algorithmen erforscht werden, die klassifizierte, gewichtete neurochirurgische Daten für eine 2D-Kartendarstellung liefern. Basierend auf diesen Algorithmen soll ein Prototyp für die Visualisierung relevanter neurochirurgischer Daten in Form einer 2D-Kartendarstellung erstellt werden.
Dieser Text wurde mit DeepL übersetzt
Segmentierung von 3D Ultraschalldaten
Laufzeit: 01.12.2015 bis 31.12.2016
In diesem Forschungsprojekt sollen neue Algorithmen zur Segmentierung von Strukturen in 3D Ultraschalldaten entwickelt werden. Ein Fokus liegt dabei auf der robusten Segmentierung der Schilddrüse im Rahmen nuklearmedizinischer Untersuchungen.
Augmented Reality Visualisierung für die 3D Laparoskopie
Laufzeit: 15.10.2015 bis 15.10.2016
In diesem Forschungsprojekt wird ein Augmented-Reality-Visualisierungsverfahren konzipiert, entwickelt und klinisch evaluiert. Hierbei werden virtuelle 3D Planungsmodelle der Niere (Tumore, Gefäße) in ein 3D Laparoskopiebild mit Hilfe geeigneter Visualisierungstechniken eingeblendet (Augmented Reality).
AngioNav: Planning of Vascular Interventions
Laufzeit: 01.04.2014 bis 31.08.2016
In der Angiologie und interventionellen Radiologie werden Eingriffe häufig über das Gefäßsystem des Menschen durchgeführt, u.a. um Gefäßerkrankungen zu therapieren oder ein spezielles Therapeutikum gezielt im Körper zu platzieren. Für die Behandlung werden Katheter eingesetzt, die durch den behandelnden Angiologen über das Gefäßsystem des Patienten zum Ziel navigiert werden. Für die Navigation des Katheters ist die Kenntnis der Morphologie der Gefäßstrukturen von hoher Bedeutung. Zur ersten Orientierung werden prä-interventionelle Schnittbilder (CT, MRT) verwendet. Die Navigation des Katheters erfolgt über die interventionelle Bildgebung, in der Regel mittels 2D Fluoroskopie. Da es sich hierbei um Projektionsbilder handelt, enthalten sie keinerlei Tiefeninformationen. Deshalb ist gerade bei komplexen Eingriffen die Zuhilfenahme von prä-interventionellen Daten in vielen Fällen auch während der Intervention nötig, um die Position und Orientierung des Katheters zu interpretieren und eine optimale Zielführung zu gewährleisten. Für die Generierung der interventionellen Planungsdaten ist die Entwicklung eines Software-Assistenten zur Planung vaskulärer Interventionen, insbesondere zur Segmentierung komplexer Gefäßstrukturen, notwendig.
Optimierung eines Sensors zur berührungslosen Gestensteuerung von medizinischer Software
Laufzeit: 01.10.2015 bis 31.12.2015
In diesem Forschungs- und Entwicklungsprojekt wird ein optischer Sensor zur berührungslosen Gestenerkennung im Rahmen einer Nutzerstudie evaluiert. Die gewonnen Erkenntnisse werden zur Verbesserung der Gestenerkennungsrate des Sensor eingesetzt.
Evaluierung von Algorithmen zur Segmentierung von Lebermetastasen
Laufzeit: 01.03.2015 bis 30.06.2015
Für die Planung und Durchführung von RF-Ablationen in der Leber ist die Kenntnis von Durchmesser, Form und Volumetrie von Lebermetastasen von hohem Interesse. In diesem Projekt sollen geeignete Algorithmen aus dem Algorithmen-Framework ITK gefunden, geeignet parametrisiert, und an CT-Datensätzen der Leber evaluiert werden. Das Verfahren ist mittlerweile im klinischen Einsatz.
Forschungscampus STIMULATE -> Computerassistierte Chirurgie
Laufzeit: 01.03.2013 bis 31.12.2014
Der Magdeburger Forschungscampus STIMULATE ist ein Vorhaben, das im Rahmen der Förderinitiative "Forschungscampus - öffentlich-private Partnerschaft für Innovationen" durch das BMBF gefördert wird.
Den Fokus von STIMULATE stellen Technologien für bildgeführte minimal-invasive Methoden in der Medizin dar. Das Ziel besteht in der Verbesserung medizinischer Behandlungsmethoden sowie in der Eindämmung der Kostenexplosion im Gesundheitswesen. Dabei werden schwerpunktmäßig altersbedingte Volkskrankheiten aus den Bereichen Onkologie, Neurologie sowie Gefäßerkrankungen betrachtet. Langfristig soll sich das Vorhaben STIMULATE zum "Deutschen Zentrum für bildgestützte Medizin" entwickeln.