-
Biomedizinische Modellierung und Numerische Simulation
Zur Beschreibung -
Maschinelles Lernen, daten- und wissensbasierte Modellierung
Zur Beschreibung -
Intelligente Bildverarbeitung
Zur Beschreibung -
Aggregationsfunktionen und Copulas
Zur Beschreibung -
Fuzzylogik und Fuzzy Systeme
Zur Beschreibung -
Quantenstrukturen und Quantisierung
zur Beschreibung
Biomedizinische Modellierung und Numerische SImulation
In-silico-Modelle sind heute neben den In-vivo- und In-vitro-Experimenten ein fester Bestandteil der Forschungstätigkeit von Ärzten und Biowissenschaftlern. Ärzte können von wirksamen und zuverlässigen nicht-invasiven, patientenspezifischen Instrumenten profitieren, um die Diagnose und Prognose zu verbessern. Im Gegenzug können mathematische und numerische Modelle rigorose Werkzeuge für quantitative Analysen mit diagnostischem und prognostischem Inhalt liefern, und patientenspezifische Simulationen werden durch die Integration solcher Modelle mit Daten und medizinischen Bildern möglich. Dennoch sind Probleme aus der biomedizinischen Forschung aus Sicht der Modellierung äußerst komplex und anspruchsvoll. Einerseits sind sie typischerweise durch bemerkenswerte Heterogenitäten und eine Dynamik auf mehreren Skalen, sowohl in Raum als auch in Zeit, gekennzeichnet. Andererseits sind sie mit Unsicherheiten behaftet, die in erster Linie aus der Variabilität der Eingaben (aleatorische/reduzierbare Unsicherheit), wie z. B. der anatomischen Definition, den Gewebemerkmalen und unbekannten Randbedingungen, oder aus mangelndem Wissen (epistemische/reduzierbare Unsicherheit), wie z. B. den Modellierungsannahmen oder dem Einfluss noch unbekannter physikalischer Phänomene, resultieren können. Ein zuverlässiges mathematisches Vorhersagemodell sollte in der Lage sein, mit all diesen Aspekten solide umzugehen.
In dieser Hinsicht liegen unsere Hauptaktivitäten in folgenden Bereichen
- Numerische Approximation von partiellen und fraktionalen Differentialgleichungen
- Quantifizierung der Ungewissheit
- Multiskalen-Modellierung
- Patientenspezifische Modellierung aus der medizinischen Bildgebung.
Die aktuellen Anwendungsgebiete sind
- Endokardiale Hochfrequenz-Ablation
- Hämodynamik und Sauerstofftransport
- Fractional Diffusion und Anwendungen in der Elektrokardiologie
- Modellierung von Gliomen
- Infektionskrankheiten und Ökologie.
Maschinelles Lernen,
daten- und wissensbasierte Modellierung
An unserem Institut werden Methoden des maschinellen Lernens, der daten- und wissensbasierte Modellierung zur Lösung von Aufgabenstellungen im Rahmen von geförderten internationalen Forschungs- und Industrieprojekten eingesetzt und weiterentwickelt. Typische Anwendungsbeispiele sind dabei
- die automatisierte Fehlererkennung im Rahmen von industriellen Prozessen der Qualitätskontrolle;
- die Modellierung, Vorhersage und Entscheidungsunterstützung in komplexen Systemen;
- das Strukturieren von Datenmengen und die Wissensextraktion aus Daten.
Wir wenden diese Methoden auf unterschiedliche Arten von Daten an wie beispielsweise (rein numerische) Messdaten, aber auch Zeitreihen, spektroskopische Daten oder Bilddaten.
Zu den dabei eingesetzten Methoden zählen dabei:
- Regression (supervised) zur Systemidentifikation, -modellierung und –vorhersage;
- Mustererkennung und Musterklassifikation (supervised) zur Entscheidungsunterstützung und zur Fehlerdetektion;
- Clustering-Techniken (unsupervised) zur Strukturierung von Daten, zur Bildsegmentierung und Datenreduktion;
- Auswahlverfahren zur Bestimmung charakteristischer Features (unsupervised und supervised) zur Elimination redundanter oder irrelevanter Informationen;
- wissensbasierte Modellierung mittels fuzzy Systemen für die Bestimmung interpretierbarer Modelle basierend auf Daten und zur Repräsentation von Expertenwissen.
Die Forschungsarbeiten und Publikationen am Institut aus diesem Bereich fokussieren auf evolvierende Fuzzy Systeme, auf inkrementellen machinellen Lernverfahren, auf Clustering-Methoden sowie die Fehlererkennung und -vorhersage in industriellen Anwendungen, mit einem Schwerpunkt auf online gelernten interpretierbaren Modellen, welche in Echtzeit und während der Produktionslaufzeit verfeinert, verbessert und adaptiert werden können.
Aggregationsfunktionen und Copulas
Unter Aggregation versteht man die Bestimmung eines repräsentativen Wertes oder einer repräsentativen Struktur für eine gegebene Ausgangsmenge an Eingangswerten oder Eingangsstrukturen.
Typische Aggregationsprozesse sind beispielsweise:
- in der Datenanalyse die Berechnung des Durchschnitts oder des Medians einer Datenmenge;
- bei multikriteriellen Entscheidungsprozessen die endgültige Beurteilung von Alternativen auf Basis von vorliegenden Evaluierungen nach Einzelkriterien;
- bei Wahl- oder Abstimmungsverfahren die Ermittlung eines Gruppenkonsens über die Reihung oder Auswahl von möglichen Alternativen basierend auf den Präferenzen der einzelnen Gruppenmitglieder;
- in mehrwertigen Logiken die Ermittlung des Wahrheitswertes einer zusammengesetzten Aussage basierend auf den Wahrheitswerten der enthaltenen Teilaussagen;
- in der Risikoanalyse die Bestimmung des Gesamtrisikos basierend auf Risikokoeffizienten für einzelne, möglicherweise unabhängige, Risikofaktoren.
In vielen Fällen werden Aggregationsprozesse durch reellwertige Funktionen, sogenannte Aggregationsfunktionen, repräsentiert, die abhängig vom konkreten Kontext charakteristische (mathematische) Eigenschaften zu erfüllen haben. Mathematische Eigenschaften werden häufig durch Funktionalgleichungen und Funktionalungleichungen beschrieben. Die Erforschung der Eigenschaften, sowie der Klasse von möglichen Lösungsfunktionen, ebenso wie die Erhaltung von zugrundeliegenden Eigenschaften im Aggregationsprozess stellen Forschungsschwerpunkte des Instituts dar.
Die Analyse von Abhängigkeiten innerhalb von Datenmengen oder zwischen Zufallsgrößen führt auf eine spezielle Klasse von Funktionen, nämlich sogenannte Copula-Funktionen. Dem Satz von Sklar folgend können mehrdimensionale Wahrscheinlichkeitsverteilungen durch eine Copula-Funktion und die eindimensionalen Randverteilungen beschrieben werden, wobei die Copula-Funktion die wechselseitigen (auch asymmetrischen) Abhängigkeiten zwischen den Variablen abbildet. Die Untersuchung, Klassifikation und Konstruktion von Copula-Funktionen (und ihrer Verallgemeinerungen) hinsichtlich weiterer, aus Anwendungen motivierten Eigenschaften ist Teil der Forschungsarbeiten des Instituts und trägt zu einem größeren Verständnis dieser Funktionenklassen und der durch sie repräsentierten Abhängigkeitsmodelle bei.
Intelligente Bildverarbeitung
Im Bereich der Bildverarbeitung entwickeln wir sowohl allgemeine Algorithmen als auch kundenspezifische Lösungen für konkrete Anwendungsprobleme beispielsweise für die Weiterverarbeitung und Auswertung von Mikroskopaufnahmen, von OCT Bildern, sowie Bildern aus der industriellen automatisierten Oberflächeninspektion. Wir kombinieren dazu klassische Bildverarbeitungsmethoden zur Datenvorverarbeitung sowie zur Merkmalserhebung mit maschinellen Lernverfahren für Klassifikations- und Evaluierungsaufgaben. Folgende Techniken kommen dabei zum Einsatz:
- statistische und klassische Bildverarbeitungsmethoden zum Entrauschen und zur Vorverarbeitung der Bilder;
- multiskalen Ansätze zur Detektion und Erkennung von Merkmalen;
- Berechnung von aggregierten Merkmalen zur Objektcharakterisierung;
- Mustererkennung und maschinelles Lernen.
Anwendungsfelder sind:
- Industrielle Bildverarbeitung für die Oberflächen- und Materialinspektion
- Biologische Bildverarbeitung für die mikrobiologische Bildanalyse
- Bildverarbeitung von OCT-Bildern sowohl im industriellen wie medizinischen Kontext
Bildverarbeitung für Mikrobiologie und Medizin
Biologische und medizinische Bilder und Daten, die mit Verfahren der Mikroskopie oder Optischen Kohärenztomographie (OCT) aufgezeichnet werden, stellen zahlreiche Herausforderungen für die Bildverarbeitung dar. Diese liegen hauptsächlich in den Eigenschaften der bildgebenden Techniken und Objekte selbst begründet: Unscharfe Ränder bei Strukturen, Speckles, hohe Variabilität der Objekte in den Bildern, geringes Signal - Rausch - Verhältnis, sowie ebenso das benötigte Expertenwissen.
In unseren Schwerpunkten und Aufgaben fokussieren wir auf:
-
Detektion von typischen oder seltenen Strukturen (z.B. in Mikroskopie oder OCT Bilddaten)
-
Klassifikation von Strukturen und Mustern
-
Bildrekonstruktion und Analyse für OCT Bildgebung
-
Learning in Bildgebung und Bildverarbeitung
Typische Schritte zur Lösung der Aufgaben sind:
-
Mathematische Formulierung basierend auf physikalischen Modellen in der Bildgebung
-
Model Learning basierend auf Daten-getriebenen Modellen
-
Validierung mittels Simulation und aufgezeichneten Bilddaten
Fuzzylogik und Fuzzy Systeme
Fuzzylogik und Fuzzysysteme zählen seit Mitte der 1970er Jahre zu unseren Hauptforschungsgebieten. Seit 1979 wird vom Institut beinahe jährlich das Linz Seminar on Fuzzy Set Theory mit wechselnden inhaltlichen Schwerpunkten organisiert. Nach 15 Jahren rein theoretischer Forschung wurde 1991 das Fuzzylogic Lab Linz-Hagenberg (FLLL) von Prof. Erich Peter Klement gegründet mit dem Ziel, diese Technologien bei der Lösung von industriellen Problemen einzusetzen.
Fuzzylogiken sind mehrwertige Logiken, bei denen die klassischen Wahrheitswerte "wahr" (1) und "falsch" (0) durch ein Kontinuum von Werten, zumeist das Einheitsintervall [0,1] ersetzt werden. Die algebraischen Strukturen von Fuzzylogiken sowie der Fokus im Speziellen auf triangulare Normen, welche zur semantischen Modellierung der logischen Konjunktion in Fuzzylogiken herangezogen werden, stellen wichtige Grundlagenforschungsthemen des Instituts dar.
Fuzzymengen, die auf dieser mehrwertigen Logik aufbauen, werden für die Modellierung sprachlicher Begriffe mit Vagheit wie beispielsweise "groß" oder "klein" verwendet. Fuzzymengen können dabei graduelle Mengenzugehörigkeiten bzw. einen fließenden Übergang zwischen der vollständigen Zugehörigkeit und der vollständigen Nichtzugehörigkeit zu einer Menge modellieren.
Ein Hauptanwendungsgebiet der Fuzzylogik ist die Möglichkeit, menschenähnliche Entscheidungsprozesse nachzubilden, vor allem in Situationen, in denen vages, unvollständiges und/oder zum Teil widersprüchliches Wissen und Informationen verfügbar sind. Diese Wissen wird in vielen Fällen durch logische und sprachliche Regeln abgebildet, welche wesentliche Bestandteile von Fuzzysystemen bilden. Ein weiterer Forschungsbereich des Instituts ist die Bestimmung und Entwicklung von Fuzzysystemen basierend auf Daten oder Datenströmen, sogenannte evolvierende Fuzzysysteme.
Ausgerichtet von unserem Institut treffen sich beim mehrtägigen Linz Seminar für Fuzzy Set Theory Forscher aus aller Welt aus dem Bereich Fuzzylogik und Fuzzysysteme.
Quantenstrukturen und Quantisierung
Die mathematische Beschreibung von Quantensystemen und Quantenphänomenen erfordert mathematische Strukturen speziellen Typs; die Hilberträume und die linearen Operatoren zwischen diesen sind wohl an erster Stelle zu nennen. Die Unterräume eines Hilbertraumes bilden einen sogenannten orthomodularen Verband, welche die Struktur des Raumes bereits im Wesentlichen eindeutig bestimmt. Wir sind daran interessiert, Hilberträume als orthomodulare Verbände oder als noch einfachere Strukturen wie etwa Orthomengen zu beschreiben. Letztere beruhen allein auf der Orthogonalitätsbeziehung zwischen den Vektoren eines Hilbertraumes.
Eine wichtige Rolle bei der Beschreibung von Quantensystemen spielt die Nichtkommutativität; die linearen Operatoren auf einem Hilbertraum bilden eine nichtkommutative Algebra. Algebren linearer Operatoren können als nichtkommutative Verallgemeinerungen von Funktionenalgebren angesehen werden, die für die Beschreibung klassischer Systeme geeignet sind. Es ergibt sich ein Muster: Die meisten Quantenphänomene haben klassische Gegenstücke, und die die Quantenphänomene beschreibenden mathematischen Strukturen erhält man oft als nichtkommutative Verallgemeinerungen der in der klassischen Physik verwendeten Strukturen. Ein Beispiel sind etwa die erwähnten orthomodularen Verbände, die als nichtkommutative Versionen boolescher Algebren betrachtet werden können, die klassischer Logik zugrundeliegen. Wir interessieren uns für mathematische Quantisierungsprozesse, durch welche sich systematisch nichtkommutative Verallgemeinerungen bestimmen lassen.