Projekte

Abgeschlossene Projekte

Digital moderierte Gruppenentscheidungen - ein praxistaugliches Bewertungsmodell mit angemessenen Algorithmen zum Auflösen von Bewertungsdifferenzen
Laufzeit: 01.04.2019 bis 31.03.2022

Unternehmen treffen täglich Entscheidungen. Sie treffen Entscheidungen für neue Produkte, neue Produkt-funktionalitäten, für die Auswahl von Lieferanten oder auch für die Wahl von neuen Mitarbeitern. Diese Entscheidungen werden oft in Gruppen mit unterschiedlichen Expertisen getroffen. Moderne Arbeitsweisen verlangen nach einfachen und vorwiegend digitalen Entscheidungsmöglichkeiten. Allerdings gibt es keine digitalen Werkzeuge für die Vorbereitung von Gruppenentscheidungen, die sowohl dazu in der Lage sind, eine Auswahl von Alternativen zu bewerten als auch auftretende Differenzen in der Bewertung gezielt aufzulösen. Noch werden vorwiegend nur in der Forschung sogenannte Multi-Criteria-Decision-Making Verfahren (MCDM) eingesetzt. Sie ermöglichen es, komplizierte Entscheidungen auf eine Auswahl von Bewertungskriterien herunterzubrechen und Entscheidungen zu vereinfachen - auch digital. Heute können diese Verfahren aber nicht mit Differenzen in der Einzelbewertung von Entscheidern umgehen. Dies ist allerdings entscheidend für die Praxistauglichkeit. Für das Auflösen von Bewertungsdifferenzen in Gruppen finden sich in den sozialen Wissenschaften eine Reihe von Lösungsansätzen. Diese Lösungsansätze sollen in der Forschungsarbeit genutzt werden, um ein MCDM Verfahren zu ergänzen, so dass es praxistauglich wird.

Projekt im Forschungsportal ansehen

Beobachtbarkeit Virtueller Stochastischer Sensoren
Laufzeit: 01.02.2019 bis 31.01.2022

Virtuelle Stochastische Sensoren (VSS) wurden für die Analyse von teilweise beobachtbaren diskreten stochastischen Systemen entwickelt. In diesen Systemen erzeugen nur einige Ereignisse beobachtbare Ergebnisse. Diese können auch mehrdeutig sein. VSS ermöglichen die Verhaltensrekonstruktion von Augmented Stochastic Petri Nets (ASPN) auf Basis von Systemausgabeprotokollen. Die Qualität und der Nutzen eines VSS hängt davon ab, wie zuverlässig es den internen Zustand eines Systems aus einer beobachteten Ausgangssequenz rekonstruieren kann. Diese Ergebnisqualität wurde jedoch in früheren Arbeiten nicht angesprochen. Ziel dieses Forschungsprojektes ist es, ein Maß für die Beobachtbarkeit für VSS zu definieren. Die Beobachtbarkeit ermöglicht es, die Aussagekraft eines Virtuellen Stochastischen Sensors a priori zu bestimmen. Dadurch kann bereits im Vorfeld bestimmt werden, ob ein spezieller VSS für einen bestimmten Anwendungsfall verwendbar ist, oder ob das Sensorsetup angepasst werden muss, bzw. welches Sensorsetup bessere Rekonstruktionsergebnisse verspricht.

Projekt im Forschungsportal ansehen

Virtuelle Stochastische Sensoren für die Verhaltensrekonstruktion von Partiell Beobachtbaren Diskreten oder Hybriden Stochastischen Systemen
Laufzeit: 01.10.2012 bis 31.12.2021

Viele realweltliche Probleme lassen sich durch diskrete oder hybride stochastische Systeme beschreiben; z.B. Produktionssysteme oder Krankheitsverläufe. Deren Modellierung und Simulation ist sehr gut möglich, aber nur, wenn sie komplett beobachtbar sind. Oft sind aber nur bestimmte Ausschnitte oder Ausgaben des Systems beobachtbar, wie die Symptome eines Patienten. Wenn diese Beobachtungen dann noch stochastisch von den Zuständen des bereits stochastischen Prozesses abhängen, wird die Verhaltensrekonstruktion schwierig. Unsere verborgenen nicht-Markovschen Modelle können solche partiell beobachtbaren Systeme abbilden. Wir haben auch effiziente Algorithmen die typische Fragestellungen für diese Modellklasse beantworten können, z.B. kann ein virtueller stochastischer Sensor aus einen Beobachtungsprotokoll rekonstruieren, welches spezifische Systemverhalten dieses hervorgebracht hat, und mit welcher Wahrscheinlichkeit. Oder es kann auf das wahrscheinlichste Modell geschlossen werden, wenn mehrere möglich sind. Derzeitig werden verschiedene Anwendungsszenarien ausgelotet, beispielsweise die Analyse von Wartungs- und Lagerprozessen mit Hilfe von an neuralgischen Punkten aufgenommenen RFID Daten. Weiterhin ist eine Anwendung in Planung, die die Früherkennung von Demenz anhand einfacher Sensoren im Lebensumfeld von älteren Menschen ermöglichen soll.

Projekt im Forschungsportal ansehen

Evaluation der Anwendungsmöglichkeiten von verborgenen nicht-Markov'schen Modellen zur Muster- und Gestenerkennung
Laufzeit: 01.01.2013 bis 31.12.2017

Für viele Problemstellungen werden in der Praxis bereits verborgene Modelle verwendet, um, anhand von Beobachtungen eines sogenannten partiell beobachtbaren Systems, Rückschlüsse auf dessen 'verborgene', d.h. nicht beobachtbare, Zustände ziehen zu können. So werden beispielsweise Verborgene Markov Modelle zur Sprach-, Gesten- und 2D-Formenerkennung, aber auch zur Analyse von DNA-Strängen eingesetzt. Markov Modelle abstrahieren ein System jedoch sehr stark, da nur mit Zuständen und einer fixen Wahrscheinlichkeit je Zustandswechsel modelliert werden kann. Mit unseren Verborgenen nicht-Markov'schen Modellen können wir reale Systeme viel genauer modellieren, wodurch wir uns Verbesserungen und neue Möglichkeiten für die oben genannten Anwendungsgebiete erhoffen.  Dabei liegt der Fokus zunächst auf möglichen Formen der Gestenerkennung bei Multi-touch Geräten, da diese durch den Erfolg von Smartphones und Tablets eine große Verbreitung erfahren. Die zu bewältigenden Schwierigkeiten mit Verborgenen nicht-Markov'schen Modellen liegen in der meist höheren Berechnungskomplexität und vor allem in der komplexeren Parametrierung der Modelle anhand von Trainingsdaten.

Projekt im Forschungsportal ansehen

Computergestützte Innovationsprozesse
Laufzeit: 01.01.2011 bis 31.12.2014

Marktführende Unternehmen - insbesondere aus der Technologiebranche sind auf Innovation angewiesen, um ihre Zukunft zu sichern. Sie verwenden dazu einen Innovationsprozess, mit dem sie systematisch neue Produkte, Dienstleistungen und Geschäftsmodelle gewinnen. In diesem  Forschungsprojekt werden Methoden zur Unterstützung dieses Innovationsprozesses mit Hilfe der Informationstechnologie entwickelt. Diese Methoden sollen interdisziplinären Teams dabei helfen, interaktiv Geschäftsideen zu entwickeln und zu bewerten.

Die aktuelle Forschung teilt den Innovationsprozess in drei inhaltliche Phasen auf: die Ideengenerierung, den Ideenausbau und die Ideenselektion (auf Grund einer vorangegangen Bewertung). Traditionell steht dabei die Ideengenerierung am Anfang der Prozesskette und ist gefolgt von wiederkehrenden Ausbau- und Selektionsphasen. Das Ziel ist dabei, aus den ursprünglich zahlreichen, rohen Ideen diejenigen zu wählen, die bezüglich gegebener Kriterien am erfolgversprechendsten sind. Um dies entscheiden zu können, müssen die Ideen um Informationen angereichert, d.h. ausgebaut, werden. Nach der initialen Ideengenerierung folgt ein erster Auswahlprozess. Dadurch werden Ideen identifiziert, die zielführend und erfolgsversprechend erscheinen. In der ersten Ideenauswahl werden üblicherweise hunderte von Ideen in einer sehr rohen Form durch Experten gesichtet und bewertet.

Viele existierende Bewertungsmethoden sind jedoch nur auf einen Bewertungsprozess ausgelegt, der  mit wenigen und sehr weit entwickelten Alternativen arbeitet. Die Anwendung einer solchen Methode für die erste Ideenauswahl ist nicht nur aufwändig, sondern auch fehleranfällig. Sie entsprechen den Anforderungen an eine erste Ideenauswahl nicht. Finden diese Methoden dennoch Anwendung, würde die Zeit der Experten verschwendet werden. Die Arbeit von Jana Görs beschäftigt sich damit, wie die erste Ideenauswahl ihren Anforderungen entsprechend eine gute und schnelle Auswahl von Ideen ermöglicht.

Ein weiteres Problem bei der Ideenbewertung ist die in den Eingangsdaten enthaltene Ungewissheit. Die in Form von Rohideen und Auswahlkriterien vorliegende Information weist prozessbedingt große Defizite in ihrer Qualität und Quantität auf, was zu Ungewissheit in Form von z.B. Mehrdeutigkeiten, Ungenauigkeiten, Unbekannten, Annäherungen etc. führt. Diese Defizite erschweren die für die Bewertung nötige Urteilsbildung durch die Experten und können zu Fehlbewertungen führen. Die Promotion von Nadine Kempe untersucht, wie genau sich diese Effekte auswirken und soll Gegenmaßnahmen aufzeigen, die eine Ideenbewertung ermöglichen, die einerseits effizient bezüglich der investierten Zeit ist und andererseits die größtmögliche Gewissheit bzgl. der Eingangsdaten aufweist.

Projekt im Forschungsportal ansehen

Verborgene nicht-Markovsche Modelle - Formalisierung und Lösungsansätze
Laufzeit: 01.04.2008 bis 30.09.2012

Zur Modellierung diskreter stochastischer Systems ist es notwendig, das reale System komplett beobachten zu können. Es gibt aber auch Systeme, die nur indirekt beobachtbar sind durch ihre Interaktionen mit der Umwelt, welche als Signale interpretiert werden können. Diese Signale können mit bisherigen Methoden nicht oder nur schwer direkt in den Aufbau eines Modells mit einfließen. Weiterhin ist es nicht einfach möglich für eine Sequenz von Signalen zu bestimmen, wie wahrscheinlich diese ist, oder welches Systemverhalten sie erzeugt haben könnte. Hidden Markov-Modelle (HMM) können nicht beobachtbare Systeme mit stochastischen Signalausgaben abbilden und analysieren, sind aber durch die Verwendung von zeitdiskreten Markov-Ketten eingeschränkt. Diskrete stochastische Modelle (DSM) haben eine größere Ausdrucksmächtigkeit, setzen aber voraus, dass das zu modellierende System komplett beobachtbar ist. Durch die Kombination von HMM und DSM zu Hidden non-Markov-Modellen, werden die Analysemethoden der HMM auch für realistischere Modelle nutzbar. Dadurch ist es möglich Fragestellungen zu beantworten, die mit bisherigen Methoden nicht oder nur schwer lösbar sind.

Projekt im Forschungsportal ansehen

Entwicklung eines Simulationsmodells für die psychiatrische Versorgung in Nord Sachsen-Anhalt
Laufzeit: 01.11.2008 bis 31.08.2012

Ziel des Projektes ist die Entwicklung einer Software, die auf Basis eines Simulationsmodells Trendaussagen zur Versorgung in der Psychiatrie ermöglicht. Diese wird es erlauben, verschiedene Entwicklungen und Rahmenbedingungen zu variieren sowie deren Auswirkungen zu bestimmen.
Indem die Einfluss- und Zielgrößen untereinander kombinierbar gestaltet werden, wird es möglich sein, unterschiedliche Szenarien zu entwickeln. Derartige Größen können zum Beispiel demographische Faktoren, die Vergütung des Personals und politische Rahmenbedingungen in verschiedensten Wechselbeziehungen sein.

Die Aussagen eines Simulationsdurchlaufes sind dann vom Typ:
- Der Anteil der ambulant zu behandelnden Patienten beträgt im Jahr 2010 insgesamt x %.
- Die durchschnittlichen Kosten für die vollständige Behandlung von Krankheit X pro Patient entwickeln sich nach der folgenden Kurve…
- Wenn die stationäre Behandlung für Krankheit X um einen Tag gekürzt wird, erhöht sich die Rückfallquote schlagartig um 50% und die Kosten um…

Mithilfe des zu entwickelnden Modells können so mittel- und langfristige Vorhersagen der psychiatrischen Versorgungssituation gemacht werden.

Projekt im Forschungsportal ansehen

ThinXel und ThinkLets in Group Support Systemen: Definition, Spezifikation und Anwendungsgebiete
Laufzeit: 01.07.2007 bis 01.04.2012

Die Verwendung von Group Support Systemen (GSS) kann zu einer Verbesserung der Effektivität und Effizienz von Gruppenprozessen führen. Die Planung und Durchführung eines Gruppenprozesses setzt aber  Expertenwissen, in Form eines professionellen Moderators voraus. Viele Unternehmen scheuen daher, aufgrund von hohen Kosten, den Einsatz eines GSS.

Ein Ansatz zur Optimierung eines GSS stellt die Verbesserung der Benutzerfreundlichkeit dar. Hierdurch kann der Anwender bei der Bedienung des Systems weiter unterstützt werden. Für die Planung, Gestaltung und Durchführung werden aber formale Regeln benötigt, auf deren Grundlage ein System die Effizienz eines gestalteten Gruppenprozess einschätzen, bzw. mögliche Prozessschritte vorschlagen kann.

Dieses Projekt greift daher das Konzept der ThinkLets (DeVreede / Briggs) auf und versucht ein neues Framework für GSS auf der Basis einer formalen Sprache und dem neuen Konzept   ThinXel zu entwickeln. Ein ThinXel ist als eine elementare Moderationsanweisung definiert, welche bei den Teilnehmern eines Workshops eine zum Ziel führende Reaktion auslöst. ThinXels können wie in einer Programmiersprache unter formalen Regeln zu komplexeren Modulen zusammengefügt werden. Diese Module bilden eine Bibliothek, die zur Erstellung von Moderationsskripten für die Planung und Durchführung von Workshops genutzt werden können. ThinXels erlauben somit eine eindeutige, kompakte Darstellung von Moderationsanweisung für reale und computergestützte Gruppenprozesse.

Projekt im Forschungsportal ansehen

Training und Einsatz von Hidden non-Markovian Models im Bereich Mensch-Maschine-Interaktion
Laufzeit: 01.11.2011 bis 31.03.2012

Das Projekt hat das Ziel, Erkennungsprozesse im Bereich Mensch-Maschine-Interaktion zu verbessern. Dazu werden die an der OVGU entwickelten Hidden non-Markovian Models (HnMMs) eingesetzt. Sie ermöglichen eine zeitabhängige Musterbetrachtung und damit die Einführung des Faktors Ausführungsgeschwindigkeit zur Unterscheidung verschiedener Interaktionsmöglichkeiten Klassische stochastische Mustererkennungsverfahren wie Hidden Markov Models werden bereits erfolgreich eingesetzt, um bestimmte Interaktionen abzubilden und wiederzuerkennen.  Jedoch sind diese Modelle auf Markovsche Prozesse beschränkt und können damit gleiche Muster in verschiedenen Geschwindigkeiten schwierig unterscheiden. HnMMs hingegen können beliebige diskrete stochastische Prozesse (beispielsweise in Form eines Petri-Netzes) modellieren und verarbeiten. Somit ermöglichen sie zum Beispiel die Einbindung zeitbehafteter Zustandsübergänge und nebenläufiger Prozessen. Damit können im Bereich der Mensch-Maschine-Interaktion  semantisch verwandte Befehle durch unterschiedlich schnell ausgeführte Aktionen in Zusammenhang gebracht werden und nebeneinander ausgeführte Interaktionen isoliert werden. Um HnMMs im Bereich Mensch-Maschine-Interaktion anwenden zu können, müssen zunächst Möglichkeiten geschaffen werden, diese abhängig vom Nutzer spezialisieren, also trainieren, zu können. Die bisher betrachteten unüberwachten Lernalgorithmen konnten dabei nicht für HnMMs adaptiert werden. Daher wird in diesem Projekt die Anwendung überwachter Lernmethoden für HnMMs erforscht.

Projekt im Forschungsportal ansehen

Analyse Diskreter Stochastischer Partiell-Beobachtbarer Modelle
Laufzeit: 01.07.2009 bis 30.03.2012

Die bisher nur theoretisch mögliche Analyse partiell-beobachtbarer diskreter stochastischer Systeme verspricht, das interne Verhalten von stochastischen Systemen rekonstruieren zu können, wenn dieses zwar nicht beobachtet wurde (oder beobachtet werden konnte), aber beobachtete Auswirkungen hat. So könnte zum Beispiel aus dem Protokoll des Türsensors einer FastFood-Filiale berechnet werden, mit welcher Wahrscheinlichkeit der Angestellte während seiner Schicht weiter laufen musste als dies vom Arbeitsschutz her zulässig ist. Im Rahmen dieses Promotionsvorhabens werden Algorithmen entwickelt, um diese und andere praktischen Fragestellungen an partiell-beobachtbare diskrete stochastische Systeme effizient zu beantworten und die Genauigkeit der Antwort abschätzen zu können.

Projekt im Forschungsportal ansehen

Ein Markov Modell für multikriterielle Entscheidungsprobleme mit mehreren Entscheidungsträgern
Laufzeit: 01.08.2008 bis 31.03.2011

Dieses Forschungsvorhaben zielt ab auf einen neuen Algorithmus zur Bewertung von mehreren Alternativen durch mehrere Entscheidungsträger anhand verschiedener Kriterien. Die Motivation dafür kommt aus den ersten Phasen des Stage-Gate-Prozesses, wo es notwendig ist, schnell eine große Anzahl von Ideen zu bewerten. Der Algorithmus basiert auf einer Markov Kette die aus Paarvergleichen der Alternativen aufgebaut wird. Die stationäre Lösung dieser Markov Kette ergibt einen Ranking Vektor der Alternativen. Die Bewertungsmethode ist sehr ähnlich dem PageRank -Algorithmus, welchen Google zum Ranking von Webseiten verwendet. Der neue Algorithmus erlaubt weiche Bewertungskriterien und Gewichte sowohl für die einzelnen Entscheidungsträger als auch für die Kriterien. Damit ist es möglich schnell viele Alternative zu bewerten, ohne dabei auf fundierte Informationen zu den einzelnen Ideen angewiesen zu sein.

Projekt im Forschungsportal ansehen

Idea Engineering
Laufzeit: 01.08.2006 bis 31.12.2009

Idea Engineering ist eine Methode zur Produktion von Ideen, die an der Fakultät für Informatik der Universität Magdeburg entwickelt wird. Das Ziel von Idea Engineering ist, die Produktion von Ideen berechenbar, zuverlässig und effizient zu machen. Dies wird durch ein grundlegendes Verständnis für die Entstehungswege von Ideen und die Umsetzung dieser Erkenntnisse in praktisch anwendbare Methoden erreicht. Idea Engineering wird an der Fakultät für Informatik der Universität Magdeburg erforscht. Die Forschung umfasst

  • Theoretische Grundlagen der Ideenproduktion
  • Entwicklung und Optimierung von Techniken und Formaten
  • Software-Werkzeuge zur Online-Ideenproduktion

Projekt im Forschungsportal ansehen

Netstorming
Laufzeit: 01.08.2006 bis 31.12.2009

Netstorming ist die Online-Ideenfabrik im Internet. Es baut auf dem Forschungsprojekt "Idea Engineering" auf und wird vom Institut für Simulation und Graphik entwickelt. Ziel ist es, eine virtuelle Umgebung im Internet zu schaffen, in der Ideen nach der Idea Engineering Technologie möglichst effizient produziert werden können.In der Forschung sollen u.a. folgende Merkmale untersucht werden:* Social Loafing* Chef-Effekt* ProduktionsblockierungenDieses Forschungsprojekt wird durch eine Promotion am Lehrstuhl für Simulation und Graphik begleitet.

Projekt im Forschungsportal ansehen

Simulationsbasierte Optimierung und Bewertung von Projekten mit stochastischen Parametern
Laufzeit: 01.09.2006 bis 15.09.2009

Der Umfang aktueller Projekte reicht zum Beispiel von einer einfachen Reiseplanung bis hin zur Entwicklung eines neuen Fahrzeugs. Gerade in langjährigen und ressourcenintensiven Projekten ist es wichtig, stets die notwendige Transparenz und somit den Überblick über das gesamte Projekt zu haben, um im richtigen Moment die richtigen Entscheidungen zu treffen. Dies ist entscheidend für den Erfolg eines jeden Projektes.

Das Ziel dieses Forschungsprojektes ist es, bestehende Ansätze zur Modellierung und Bewertung von Projekten mit stochastischen Parametern zu erweitern. Dabei steht die abstrakte Projektkenngröße "Ergebnis" im Vordergrund der Forschung. Diese beschreibt die Abarbeitung und erreichte Qualität der geplanten Vorgaben durch die einzelnen Prozesse eines Projektes.

Darüberhinaus werden Optimierungalgorithmen entwickelt und Methodiken der Simulation implementiert, um den Projektverantwortlichen stets objektive Entscheidungshilfen anzubieten.

Folgenden Fragestellungen sind Gegenstand der aktuellen Forschung:

  • Welche Maßnahmen (Ressourcen, Zeit, Qualität) müssen ergriffen werden, um ein geplantes Resultat zu erreichen?
  • Existieren globale Kennzahlen oder eine Art "Fitnessfunktion", um Aussagen über ein Projekt und dessen Planung in Bezug auf das Ergebnis zu treffen?
  • Welche Auswirkungen hat "Gating" auf das Projektziel und den Projektverlauf? Wie muss "Gating" in einem Projekt mit stochastischen Parametern modelliert werden?
  • Welchen Einfluss haben "Meilensteine mit offenem Ergebnis" (Forschung/Entwicklung) auf das Gesamtprojekt?
  • Wie beeinflusst die Wiederholung eines Prozesses (Schleifen) dessen erreichtes Ergebnis?

Projekt im Forschungsportal ansehen

Entwicklung eines Simulationsmodells für die psychiatrische Versorgung
Laufzeit: 01.11.2006 bis 30.10.2008

Ziel des Projektes ist die Entwicklung einer Software, die auf Basis eines Simulationsmodells Trendaussagen zur Versorgung in der Psychiatrie ermöglichen wird. Sie wird erlauben, verschiedene Entwicklungen und Rahmenbedingungen zu variieren sowie deren Auswirkungen zu bestimmen. Indem die Einfluss- und Zielgrößen untereinander kombinierbar gestaltet werden, wird es möglich sein, unterschiedliche Szenarien zu entwickeln. Derartige Größen können zum Beispiel demographische Faktoren, die Vergütung des Personals und politische Rahmenbedingungen in verschiedensten Wechselbeziehungen sein.Die Aussagen eines Simulationsdurchlaufes sind dann vom Typ:- Der Anteil der ambulant zu behandelnden Patienten beträgt im Jahr 2010 insgesamt x %.- Die durchschnittlichen Kosten für die vollständige Behandlung von Krankheit X pro Patient entwickeln sich nach der folgenden Kurve…- Wenn die stationäre Behandlung für Krankheit X um einen Tag gekürzt wird, erhöht sich die Rückfallquote schlagartig um 50% und die Kosten um…Mithilfe des zu entwickelnden Modells können so mittel- und langfristige Vorhersagen der psychiatrischen Versorgungssituation gemacht werden.

Projekt im Forschungsportal ansehen

Kombination von Proxels, diskreten Phasenverteilungen und Lösungsverfahren für Markov-Ketten zur schnellen deterministischen Simulation zeitdiskreter stochastischer Modelle
Laufzeit: 01.10.2003 bis 30.09.2007

Dieses Projekt hat zum Ziel, das bereits entwickelte Proxel Simulationsverfahren, welches für kleine Modelle sehr effizient arbeitet, mit Hilfe von diskreten Phasenverteilungen und der Anwendung von Markov-Ketten Lösungsverfahren auch für größere Modelle nutzbar zu machen. Dies beinhaltet: - Entwicklung eines effizienten Fitting-Verfahren für zeitdiskrete Phasenapproximationen von allgemeinen Verteilungsfunktionen. - Integration dieser zeitdiskreten Phasenapproximationen in den Proxel-Simulations-Algorithmus als Alternative zum Proxel-Approximationsschema. - Implementation in einem allgemeinen Simulationswerkzeug mit Unterstützung des Benutzers bei der Approximation von allgemeinen Verteilungsfunktionen. - Erweiterung des Multi-Level Lösungsverfahrens auf zeitdiskrete Markov-Ketten und Anwendung auf das Proxelverfahren.

Projekt im Forschungsportal ansehen

Adaptive Datenaufbereitung, Modellkonstruktion und -analyse für ein rückgekoppeltes industrielles Prognose- und Steuerungssystem
Laufzeit: 01.01.2005 bis 31.12.2006

Im Rahmen des Projektes werden neue Methoden zur Modellanalyse von zeitdiskreten, stochastischen, nicht-markoffschen Prozessen auf Basis von sogenannten Proxels entwickelt, an welche die Erwartung gerichtet wird, effizienter als Monte-Carlo-Simulation zu sein. Der Schwerpunkt liegt dabei auf der industriellen Verwendbarkeit der Verfahren, weswegen der Industriepartner eigene realistische Modelle zur Verfügung stellt. Ziel des Projektes ist ein Verfahren, dass auch bei steifen Modellen mit der minimalen Anzahl zu verarbeitender Variablen auskommt.

Projekt im Forschungsportal ansehen

Zephram Ideenfabrik
Laufzeit: 01.06.2005 bis 31.05.2006

Zephram ist ein Ausgründungsprojekt aus der Fakultät für Informatik. Es nutzt die Technologie des Idea Engineerings, um auftragsbasierte Ideenentwicklungsprojekte anzubieten und durchzuführen. Mit Zephram wird die Generierung von Ideen effizient, planbar und sicher. Die generierten Ideen sind erfolgsorientiert, umsetzbar und bieten den Kunden einen wirklichen Mehrwert. Die Ausgründung wird vom Exist-Seed Programm des BMBF unterstützt.

Projekt im Forschungsportal ansehen

Proxelbasierte Simulation von stochastischen Zustandsräumen in einem industriellen Analysewerkzeug
Laufzeit: 01.10.2005 bis 01.01.2006

Im Rahmen einer industriellen Beauftragung wird das an der OvG-Universität entwickelte proxelbasierte Simulationsverfahren in die Analysesoftware des Auftraggebers eingefügt. Als Modellierungsparadigma kommen stochastische, zeit-kontinuierliche Zustandsräume zum Einsatz. Das proxelbasierte Simulationsverfahren führt die Analyse dieser Modelle zum Teil sehr viel effizienter aus, als die bisher verwendete ereignisbasierte Simulation. Der Schwerpunkt des Projektes liegt auf der nahtlosen Integration des neuen Verfahrens in die existierenden Benutzungsschnittstellen und Arbeitsabläufe der vorhandenen Softwarewerkzeuge.

Projekt im Forschungsportal ansehen

Zeitdiskrete Fit-Verfahren für Phasenmodelle
Laufzeit: 01.05.2004 bis 31.08.2004

Entwicklung von effizienten Fitting-Verfahren für zeitdiskrete Phasenapproximationen von allgemeinen Verteilungsfunktionen. Integration dieser zeitdiskreter Phasenapproximationen in den Proxel Simulations-Algorithmus als Alternative zur Proxel-Approximationsschema.

Projekt im Forschungsportal ansehen

Evaluierung der Proxel-Simulation
Laufzeit: 01.09.2003 bis 30.11.2003

The aim of this project is to explore the behaviour of the proxel-based simulation method. The approach analyses discrete stochastic models in a deterministic manner, avoiding the typical problems of discrete-event simulation and partial differential equations. The proxel-based simulation was shown to be very useful in analysing some classes of reliability models and fault-trees. It was especially superior to the discrete-event approach, applied on the same models because of the fact that the proxel-based method is less sensitive to the stiffness of the models. The ultimate goal of this work is to formally and completely define this new method, and study its behaviour under different circumstances, as well as prove that it can be superior to some of the traditional methods for certain classes of problems, which are to be distinguished.

Projekt im Forschungsportal ansehen

Letzte Änderung: 08.06.2023 - Ansprechpartner: Webmaster