Logo des Graduiertenkollegs

Graduiertenkolleg Angewandte Algorithmische Mathematik



Forschungsprojekte


o  Überblick
o  Projektübersicht
o  Einzelvorstellung


Überblick

Die Forschungsgebiete der einzelnen, im beantragten Graduiertenkolleg ``Angewandte Algorithmische Mathematik'' zu behandelnden Forschungsprojekte fokussieren in vier thematischen Schwerpunkten, zwischen denen enge Synergien bestehen. Allen gemeinsam ist ihr enger Bezug zu algorithmischen Fragestellungen im Rahmen von Problemen der angewandten Mathematik. Im Einzelnen sollen im Rahmen des Graduiertenkollegs folgende Schwerpunkte gefördert werden:

I: Mathematische Methoden der Signal- und Bildanalyse
II: Stochastik
III:Mathematische Modellbildung, Differentialgleichungen und Numerik
IV: Diskrete, Geometrische und Algebraische Strukturen

Interaktionen der Forschungsprojekte

Die verschiedenen Forschungsprojekte der angewandten algorithmischen Mathematik werden in enger Zusammenarbeit der Träger/innen des Kollegs behandelt. Es findet ein reger Austausch zwischen allen Arbeitsgruppen statt.

Projektübersicht

Im einzelnen werden im Rahmen des Graduiertenkollegs folgende Forschungsvorhaben gefördert:

Einzelvorstellung

Numerik freier Unstetigkeitsprobleme

(F. Bornemann)

Freie Unstetigkeitsprobleme bieten eine natürliche Variationsformulierung für so unterschiedliche Anwendungen wie Riss- und Bruchmechanik, Bildsegmentierung, Signalrekonstruktion, Mehrphasenströmungen und die mathematische Beschreibung von Flüs\-sigkeitskristallen. Sie erlauben eine systematische und einheitliche mathematische Theorie, in welche nur physikalisch unmittelbar interpretierbare Parameter eingehen. Die numerische Behandlung dieser Variationsprobleme befindet sich jedoch noch in den Anfängen: sowohl die Diskretisierung als auch die zugehörige nichtkonvexe Optimierungsaufgabe weisen vielfältige mathematische Probleme auf, die in der Regel mit Regularisierungen behandelt werden, welche aber die Vorteile des Variationsansatzes zerstören. Im Rahmen des Graduiertenkollegs soll die Möglichkeit untersucht werden, einen adaptiven Finite-Elemente-Algorithmus mit Hilfe von stochastischen Multilevel-Algorithmen im Sinne eines kaskadischen Mehrgitterverfahrens zu beschleunigen und zu verbessern. Auf diese Weise würden die in der Literatur bislang getrennten Linien des Simulated Annealing und der Coarse-to-Fine-Homotopy (graduated nonconvexity algorithm) zusammengeführt werden.

HJB-Gleichungen für Steuerungsprobleme mit Hysteresis

(M. Brokate)

Systeme mit Hysteresis spielen in verschiedenen Anwendungsbereichen der Mathematik eine wichtige Rolle. Hysteretisches Verhalten kann als Gedächtniseffekt gedeutet und entweder explizit über zusätzliche innere Zustandsvariablen beschrieben oder implizit über nichtkonvexe Energiefunktionale erhalten werden. Im vorliegenden Projekt sind wir primär an ratenunabhängigen Hysteresen interessiert. Deren klassische Anwendungen liegen unter anderem im Bereich der Elastoplastizität und des Ferromagnetismus, neuerdings auch etwa bei der Beschreibung des piezoelektrischen Materialgesetzes und von Gleichgewichtssituationen in der ökonomischen Theorie. Systeme, in denen gewöhnliche oder partielle Differentialgleichungen mit ratenunabhängigen Hysteresen gekoppelt sind, sind in der mathematischen Analysis eingehend untersucht worden. Auf der Grundlage dieser Ergebnisse ist es möglich, auch Optimierungsprobleme für solche Systeme zu behandeln. Im Vordergrund des vorliegenden Projekts steht dabei die Untersuchung der Optimalwertfunktion und ihre Charakterisierung als Viskositätslösung einer zu ermittelnden HJB-Gleichung.

Mehrskalen-Differentialinklusionen mit Gedächtnis

(M. Brokate)

Dynamische Systeme mit Gedächtnis treten in vielen Bereichen der angewandten Mathematik auf. Typische Beispiele kommen aus der Steuerungstheorie, wo Feedback-Regelungen einen gewissen Verzögerungseffekt verursachen, oder aus dem Bereich der Elastoplastizität, wo Hystereseeffekte auftreten. In dem vorliegenden Projekt sollen Homogenisierungs-Methoden entwickelt werden, die es erlauben, Mehrskalen-Differentialgleichungen mit Gedächtnis auf eine einfachere Gestalt zu bringen und somit deren numerische Behandlung möglich zu machen. Im Hinblick auf deren Anwendbarkeit bei nicht-glatter oder unsicherer Dynamik sollen von Anfang an mengenwertige Differentialgleichungen (oder Differentialinklusionen) betrachtet werden.

Modellierung der Dynamik des angeborenen Immunsystems

(M. Brokate, Müller)

Man kann einen angeborenen und einen adaptiven Teil des Immunsystems unterscheiden. Während das adaptive Immunsystem für eine spezifische, auf ein spezielles Pathogene zugeschnittene Immunantwort verantwortlich ist, reagiert das angeborene Immunsystem unspezifisch auf eine große Klasse von Pathogenen. Diese Reaktion ist im evolutionären Sinne sehr alt; so verfügen auch Pflanzen über eine Immunantwort dieses Typs. Im Gegensatz zum adaptiven Immunsystem wurde der angeborene Teil von der Modellierung bisher wenig beachtet, obwohl medizinisch und biologisch wichtige Fragen offen sind, etwa die Bekämpfung des ``Systemic Inflammatoric Response Syndrome'' von Unfallopfern oder die Mechanismen der Aktivierung der systemischen inflammatorischen Immunantwort von Pflanzen. Die Modellierung mit Hilfe dynamischer Systeme bildet einen guten Ansatz, um diese Fragen zu behandeln. Die Theorie der dynamischen Systeme hilft, die möglichen Dynamiken zu klassifizieren. Parameter können z.B.mit Bayes'schen Methoden geschätzt werden, und mittels Kontrolltheorie können die Möglichkeiten, das System zu beeinflussen, untersucht werden.

Algorithmen zur Statistischen Analyse von komplexen Datenstrukturen mit kategorialer Zielvariable

(C. Czado)

Kategoriale Zielvariablen mit Kovariablen treten z.B. in Finanz- und Versicherungsmathematik, Medizin, Biologie, Sozialwissenschaften und Verkehrsforschung auf. Häufig weisen diese Daten noch zusätzliche Strukturen wie räumliche und zeitliche Abhängigkeiten auf. Daneben gilt es auch, Heterogenität und Clustereffekte zu berücksichtigen. In diesem Projekt sollen diese zusätzlichen Strukturen modelliert werden. Dabei sollen insbesondere Modelle formuliert werden, die Wechselwirkungen zwischen den Strukturen erlauben. Die Parameterschätzung in diesen komplexen Regressionsmodellen soll mit Hilfe von Markov Chain Monte Carlo Algorithmen erfolgen. Die Suche nach geeigneten Modellwahlkriterien und Modellvalidierungsverfahren schließt sich dann an. Die entwickelten Algorithmen und Verfahren sollen dann auf konkrete Fragestellungen aus der Kfz-Versicherung, der Migräneforschung und Mobilitätsforschung angewandt werden.

Strukturierte Regression

( L. Fahrmeir)

In komplexeren Anwendungen der Regression ist man oft mit mehreren der folgenden Probleme gleichzeitig konfrontiert: Der Einfluss einiger Kovariablen auf die Zielvariable ist nichtlinear, die Daten sind räumlich oder zeitlich korreliert, und es besteht unbeobachtete Heterogenität. Im Rahmen des Projekts werden strukturierte Regressionsmodelle entwickelt, die mit computerintensiven Bayesianischen oder Bayes--nahen Inferenzmethoden analysiert werden. Mögliche Anwendungen reichen von der funktionellen Neuroanatomie hin bis zur Analyse von Finanzrisiken bei Banken und Versicherungen.

Diskrete inverse Probleme

(P. Gritzmann)

In den letzten Jahren wurden detailliert kombinatorische Optimierungsprobleme studiert, die im Rahmen der diskreten Tomographie auftreten. In der dritten Förderperiode des Graduiertenkollegs soll der Aspekt der Schlechtgestelltheit dieses diskreten inversen Problems im Vordergrund stehen. Hierfür liegen weitgehende Instabilitätsresultate vor, die den Weg zu adäquaten Regularisierungen weisen. Insbesondere treten hier neue Fragen der Codierungstheorie auf sowie Fragen der adäquaten Behandlung statistischer Effekte.

Computational Convexity: Normmaximierung und Clustering

(P. Gritzmann)

Computational Convexity ist ein Teilgebiet der angewandten Mathematik, in dem Fragestellungen und Methoden aus den Bereichen Konvexgeometrie, Mathematische Optimierung und Informatik zusammenfließen. Typische Problemstellungen fragen nach der effizienten Berechnung geometrischer Funktionale oder nach effizienten algorithmischen Konstruktionen geometrischer Objekte. Der Schwerpunkt liegt dabei auf hochdimensionalen Phänomenen. Ein zentrales Problem ist das konvexe Maximierungsproblem der Normmaximierung in Minkowski-Räumen. Hier liegen bereits präzise theoretisch-algorithmische Ergebnisse vor (Gr. & Klee; Bodlaender, Gr., Klee & van Leeuwen; Brieden, Gr., Kannan, Klee, Lovasz & Simonovits). In der dritten Förderperiode des Graduiertenkollegs sollen nunmehr auf Methoden der Normmaximierung basierende Algorithmen für Clusterprobleme entwickelt werden, die (bei Projektpartnern) in der Medizin (Demenzforschung) und der Landwirtschaft (Flurbereinigung) auftreten.

Rekonstruierbarkeit von Punkt-Konfigurationen

(G. Kemper)

Es geht um Rekonstruktionsfragen in der Bildverarbeitung. Vor Kurzem ist gezeigt worden, dass die meisten ebenen Punkt-Konfigurationen eindeutig durch die Verteilung ihrer gegenseitigen Abstände bestimmt sind. Eindeutigkeit gilt hier bis auf die Operation der euklidischen Gruppe. Dies sollte auf andere in der Bildverarbeitung relevante Gruppenoperationen verallgemeinert werden, wobei Rekonstruierbarkeit aus der Verteilung gewisser Unter-Konfigurationen nachgewiesen werden soll. Besonders interessant sind hier die projektiven Gruppen PGL$_n$.

Algorithmische Invariantentheorie in positiver Charakteristik

(G. Kemper)

Vor nicht allzu langer Zeit wurde ein Algorithmus zur Berechnung von Invariantenringen reduktiver Gruppen in positiver Charakteristik entwickelt. Dieser ist jedoch auf den Fall von linearen Operationen beschränkt. Es sollen nun Algorithmen gefunden werden, bei denen diese Beschränkung zumindest teilweise aufgehoben ist. Ein sinnvolles Ziel wäre beispielsweise, den Fall von Operationen auf normalen Varietäten zu erreichen. Die Algorithmen sollen dann implementiert und an praktischen Beispielen getestet werden. Von großem Interesse sind auch Komplexitätsbetrachtungen.

Multivariate Lévy Prozesse mit Anwendungen im Risikomanagement

(C. Klüppelberg)

Ein grundlegendes mathematisches Problem der Versicherungsmathematik stellt sich im Integrierten Risiko Management (IRM). IRM umfasst die Modellierung, Bewertung und Absicherung von Versicherungsrisiken (Schäden) und Finanzrisiken (Investment) gleichzeitig. Analoge Fragestellungen betreffen den Finanzbereich, wo Portfolios aus verschiedenartigen Instrumenten gebildet werden; auch hier ist die dynamische multivariate Modellierung eine zentrale Frage. Wir schlagen ein allgemeines dynamisches Modell in der Form eines multivariaten Lévy Prozesses vor, das Versicherungs- und Finanzrisiken realistisch modelliert. Mögliche Abhängigkeiten zwischen Versicherungs- und Investmentprozess sollen ebenfalls auf Basis des Lévymaßes modelliert werden. Innerhalb dieses Modells sollen Ruinwahrscheinlichkeiten berechnet und Fragen des optimalen Investments beantwortet werden.

Schätzen von zeitstetigen Finanzmodellen

(C. Klüppelberg)

Zeitstetige Modelle haben in der Modellierung und Schätzung von Finanzzeitreihen große Bedeutung, da sie es erlauben, Zeitreihen zu analysieren, die zu irregulären Zeitpunkten gemessen werden. Das ist typisch für Finanzzeitreihen, wo zu jedem Handelszeitpunkt ein Preis notiert wird. In diesem Projekt sollen Schätzmethoden für einen neuen zeitstetigen GARCH Prozess (getrieben von einem Lévy Prozess) entwickelt und untersucht werden. Neben theoretischen Eigenschaften soll eine Simulationsstudie angefertigt und auch eine reale Finanzzeitreihe an das Modell angepasst werden.

Integraltransformationen: Zeit-Frequenzmethoden

(R. Lasser)

Das allgemeine Dach der Integral-Transformationen überspannt nicht nur Fourier-, gefensterte Fourier-, anharmonische Fourier- oder Wavelet-Transformation, sondern auch Hankel-Transformationen oder allgemeiner Sturm-Liouville-Transfomationen (z.B. anguläre und radiale sphäroidale Wellenfunktionen). Es ist wohlbekannt, dass gerade in vielen Anwendungsproblemen die Signale bzw. Bilder mittels verschiedener Wellenfunktionen optimal zerlegt werden können. Damit eine Analyse und Synthese von Signalen und Bildern mit derartigen Basisfunktionen theoretisch und algorithmisch erfolgreich durchgeführt werden kann, benötigt man eine dazu passende Familie von verallgemeinerten Translations-Operatoren. Diese sind für viele Beispiele von Eigenfunktionen bereits etabliert (siehe Lasser und Connett, Markett und Schwartz). Im Rahmen des Graduiertenkollegs sollen insbesondere Zeit-Frequenz-Methoden entwickelt werden, bei denen Jacobi-gewichtete Signalräume auf kompakten Intervallen eine optimale Beschreibung erlauben.

Harmonische Inversion in der NMR Spektroskopie

(R. Lasser)

In der NMR Spektroskopie treten Signale auf, sogenannte free induction decays (FID), die sich als Überlagerung von gedämpften harmonischen Schwingungen modellieren lassen. Die Aufgabe besteht nun darin, aus den Abtastwerten s_n = s(n \tau) die Amplituden und Exponenten zu bestimmen. Es liegt somit ein nichtlineares Interpolationsproblem vor, die ``Harmonische Inversion''. Die Filterdiagonalisierungsmethode basiert auf der Idee, dass die Abtastwerte von einem quantenmechanischen System erzeugt werden. Durch Einf"uhren bestimmter Basen kann das oben beschriebene Problem in ein verallgemeinertes endlichdimensionales Eigenwertproblem mit diagonaldominanten Matrizen transformiert werden. Ein anderer Lösungsansatz beruht auf der Idee, aus den Abtastwerten eine Funktion zu konstruieren, die ausgeprägte Extremalstellen an genau den Stellen besitzt, die den gesuchten Exponenten entsprechen. Diese Extremalstellen sollen dann mittels einer Wavelet-Zerlegung bestimmt werden.

Stochastische Bildanalysemethoden

(R. Lasser)

Mit der Entwicklung neuer bildgebender Verfahren in der Medizin und den daraus erwachsenden Anforderungen an die Signal- und Bildverarbeitung sind die Anwendung mehrskaliger Verfahren und die Nachfrage nach neuen derartigen Verfahren stark gewachsen. (Etwa bei der Fusion von Daten ergibt sich der Bedarf oft schon dadurch, dass Bilddatens"atze mit unterschiedlichen Auflösungen in Beziehung gesetzt werden müssen.) Zunehmende Bedeutung gewinnen stochastische Methoden wie Bayesianische oder penalisierte Loglikelihood-Ansätze. Sie dienen einerseits der Rauschunterdrückung bzw. Rekonstruktion und andererseits der Extraktion charakteristischer morphologischer Merkmale aus Signalen und Bilddaten. Im Graduiertenkolleg sollen auf Probleme der Lebenswissenschaften angepaßte Methoden entwickelt werden.

Computeralgebra

(E.W. Mayr)

In vielen Bereichen der Angewandten Mathematik, der Modellierung und Optimierung und der Informatik ergibt sich die Erfordernis, wenn möglich geschlossene mathematische Darstellungen für Lösungen mathematisch formulierter Probleme zu finden. Beispiele hierfür ergeben sich in den Bereichen der mathematischen Modellierung geometrischer Objekte, der Bewegungsplanung, -steuerung und -optimierung, aber auch in zunächst im wesentlichen kombinatorischen Problemen (etwa Bestimmung von Testmengen), die auf die Lösung von Systemen nichtlinearer, polynomieller Gleichungen hinauslaufen. Eine immer stärkere Beachtung finden aber auch hybride Ansätze, in denen numerische, meist iterative Methoden mit solchen der Computeralgebra verknüpft werden, etwa um bei iterativen Optimierungsalgorithmen eine bessere Konvergenz zu erreichen. Im Rahmen des Graduiertenkollegs sollen vor allem Probleme und Algorithmen aus der Computeralgebra untersucht werden, die eine praktisch handhabbare algorithmische Komplexität aufweisen. Hierzu zählen z.B. Polynomideale niedriger Dimension oder solche mit geeignet strukturierten Erzeugendensystemen, wie etwa torische Ideale, die Bedeutung bei der ganzzahligen kombinatorischen Optimierung haben.

Modellierung von Contact Tracing durch Stochastische Verzweigungsprozesse

(J. Müller)

Contact Tracing ist eine Methode, um die Ausbreitung einer infektiösen Krankheit in einer Population zu bekämpfen: Hat man ein erkranktes Individuum gefunden, so wird diese Person nach potentiell infektiösen Kontakten befragt. Die betreffenden Individuen werden wiederum auf die Krankheit hin untersucht. Gute Kriterien für Situationen, in denen diese Bekämpfungsmaßnahme (wirtschaftlich) effizient eingesetzt werden kann, oder Methoden zur Validierung der Durchführung bestehen bisher kaum. Ein Ansatz der Modellierung ist die Darstellung der Kontakte von Individuen durch einen stochastischen Graphen: Infizierte erzeugen weitere Infizierte und können selbst geheilt werden. Man erhält einen Geburts-Todesprozess, bei dem ``Geburt'' Infektion und ``Tod'' Heilung entspricht. Mit Hilfe des gerichteten Graphen, der von den Knoten ``lebenden Individuen'' und Kanten ``lebenden Müttern'' nach ``lebenden Töchtern'' gebildet wird (eine Verallgemeinerung der Family Graphs), kann man nun Contact Tracing beschreiben. Erste Ergebnisse, die Dynamik dieses stochastischen Graphen betreffend, liegen vor. Die Untersuchung soll nun weitergeführt werden.

Dynamische Systeme

(J. Scheurle)

Die Konzepte und Techniken der qualitativen Theorie dynamischer Systeme eignen sich ausgezeichnet, Fragen der mathematischen Modellierung und Analyse von vielen naturwissenschaftlichen, technischen und wirtschaftlichen Evolutionsprozessen zu untersuchen, insbesondere im nichtlinearen Fall. Während die Entwicklung der theoretischen Grundlagen in den letzten Jahren enorm vorangeschritten ist, erfordert die Komplexität praktischer Anwendungsprobleme darüber hinaus eine algorithmische Aufbereitung der grundlegenden Erkenntnisse und Methoden, so dass zur konkreten Umsetzung letzterer Mittel der modernen Datenverarbeitung eingesetzt werden können. Bei den im Rahmen des Graduiertenkollegs zu untersuchenden Fragestellungen der Dynamik soll der algorithmische Aspekt im Vordergrund stehen. In der kommenden Antragsperiode sollen Aspekte transienten dynamischen Verhaltens im Zusammenhang mit Streuproblemen der klassischen Mechanik sowie mit Problemen der Moleküldynamik im Mittelpunkt der Untersuchungen stehen. Aufgrund der beträchtlichen Komplexität derartiger Probleme kommt es entscheidend auf die Effizienz der auf der Basis der qualitativen Theorie dynamischer Systeme zu entwickelnden Methoden und Algorithmen an. Dynamische Aspekte spielen auch bei mehreren anderen Projekten dieses Graduiertenkollegs sowie beim Entwurf und der Analyse von mathematischen Algorithmen im Allgemeinen eine gewisse Rolle.

Automatische Erzeugung lesbarer Beweise in der Geometrie

(J. Richter-Gebert)

Ziel dieses Projektes ist es, Wissen über invariantentheoretische, kombinatorische und randomisierte Beweise zu verbinden und daraus einen sehr mächtigen Hybridbeweiser zu erarbeiten. Eine randomisierte Komponente soll dabei zunächst genutzt werden, um wahre Aussagen über eine Konfiguration zu sammeln (ohne zu diesem Zeitpunkt einen formalen Beweis der Aussagen zu haben). Eine logische Komponente soll dann auf dem so entstandenen Netzwerk wahrer Aussagen eine Beweisstrategie entwickeln, deren einzelne Teilschritte danach mit invariantentheoretischen Methoden durchgeführt werden.

Automatische Erkennung von geometrischen Ortskurven

(J. Richter-Gebert)

Mit Hilfe des dynamischen Geometrie-Programms Cinderella ist es unter anderem möglich, die Bahnkurve eines konstruierten Punktes unter der Bewegung eines der Basiselemente darzustellen. Oftmals handelt es sich bei diesen Kurven um klassische Kurven der Differentialgeometrie (Kardioiden, Lemiskaten, Watt Kurven, etc.) Ziel des Projektes ist es, diese per se nicht zugeordneten Kurven zu erkennen und mit einer Datenbank bekannter Kurven zu vergleichen und einzuordnen. Erschwert wird diese Aufgabe dadurch, dass die Kurven letztlich nur als numerisch fehlerbehaftete Punktmengen vorliegen und somit Verfahren, die approximative und invariantentheoretische Methoden vereinen, notwendig sind.

Wavelet-Theorie und Gruppendarstellungen

(G. Schlichting)

Die Theorie der Wavelets und ihrer Anwendungen in Medizin, Technik und Naturwissenschaften hat in den letzten Jahren explosionsartig zugenommen. Die Wavelettransformation hat sich in der Signaltheorie neben der Fourieranalyse zu etablieren begonnen. Die diskrete Wavelettransformation ist weit stärker verbreitet als die kontinuierliche. Gleichwohl besitzt die kontinuierliche Transformation eine Reihe von Vorteilen gegenüber der diskreten Variante. So sind die diskreten Transformationen in hohem Maße durch die Orthogonalitätsforderungen eingeschränkt. Dies wirkt sich direkt auf die Konstruktion der Wavelets aus, die im Allgemeinen nur schwer kontrollierbare Glattheits- und Symmetrieeigenschaften aufweisen und darüberhinaus in höheren Dimensionen schwer zu konstruieren sind. Eine weitere Schwäche diskreter Wavelettransformationen sind fehlende Kovarianzeigenschaften. Als letzter Vorteil der kontinuierlichen Transformationen sei schließlich die Verallgemeinerbarkeit auf (beinahe) beliebige Mannigfaltigkeiten genannt, dank des gruppentheoretischen Zugangs. Um kontinuierliche Wavelettransformationen für Probleme der Signal- und Bildanalyse zugänglicher zu machen, sind insbesondere effiziente Implementationen vonnöten, die im Rahmen des Graduiertenkollegs entwickelt werden sollen. Bereits am Kolleg durchgeführte Arbeiten belegen, dass dies möglich ist. Die Herausforderung besteht darin, die anfallenden Rechenzeiten zu kontrollieren. Weitere interessante Fragestellungen ergeben sich aus der Redundanz der Transformation. Viele Waveletalgorithmen in der Signalverarbeitung basieren auf einer Bearbeitung der Waveletkoeffizienten, mit anschließender Rücktransformation. Sobald ein Waveletsystem keine Orthonormalbasis ist, ergeben sich Abhängigkeiten zwischen den Waveletkoeffizienten, die es erschweren, die Folgen eines Bearbeitungsschrittes abzuschätzen. Hierfür Strategien zu entwickeln, würde der kontinuierlichen Wavelettransformation neue Anwendungsfelder erschließen und bereits bestehende Algorithmen mathematisch fundieren.

Modellierung und Simulation in der Biomechanik

(B. Simeon)

Sportwissenschaften und Unfallmedizin setzen in immer stärkerem Maße biomechanische Modelle ein, um Belastungssituationen für den menschlichen Körper zu untersuchen. Im Mittelpunkt steht dabei die Frage, wie man sowohl akute Verletzungsrisiken als auch Langzeitschäden reduzieren kann. Biomechanische Modelle basieren auf der Methode der Mehrkörpersysteme und führen auf gekoppelte Systeme von gewöhnlichen und partiellen Differentialgleichungen. Während Starrkörperbewegungen über gewöhnliche Differentialgleichungen erfasst werden, bildet die Deformation von Weichteilen (sogenannten Schwabbelmassen) die Hauptschwierigkeit in Modellbildung wie Numerik. Das Wissenschaftliche Rechnen soll in diesem Projekt einen wichtigen Beitrag leisten, um mittels hierarchischer Substrukturen zu leistungsfähigeren Techniken zu gelangen. Ziel ist es, Methoden zu entwickeln, um einzelne interessierende Körperregionen durch kontinuumsmechanische Modelle zunächst fein aufzulösen und dann mit einer Modellreduktion für die Gesamtsimulation aufzubereiten. Die Kopplungen werden dabei über Nebenbedingungen mit Lagrangemultiplikatoren realisiert und gehen zentral in die Diskretisierungen in Ort und Zeit ein.

Credit Risk Modeling

(R. Zagst)

Da das Kreditgeschäft noch immer bei vielen Banken den größten Teil des Bankgeschäfts einnimmt, ist durch die dramatische Zunahme von Kreditausfällen in den letzten Jahren verbunden mit der Bekanntgabe der Einführung der Richtlinien zu Basel II der Bedarf an einer Verbriefung oder Absicherung von Kreditrisiken erheblich gestiegen. Dementsprechend nahm das Handelsvolumen von Kreditderivaten und insbesondere Collateralized Debt Obligations enorm zu. Parallel dazu wurden in der Literatur eine Reihe von Modellen zur Beschreibung des Ausfallrisikos vorgeschlagen. Trotz einzelner empirischer Untersuchungen zu den verschiedenen Modellklassen gibt es bisher jedoch keine modellübergreifende empirische Studie, in der die Güte und der Erklärungsgrad dieser Modelle systematisch miteinander verglichen wird. Im ersten Teil dieses Projektes soll daher eine einheitliche Methodik entwickelt werden, um die verschiedenen Modelle miteinander zu vergleichen. Im zweiten Teil soll das Modell von Schmid und Zagst erweitert werden, um die Bewegungen der Zins-, Aktien- und Kreditmärkte gemeinsam modellieren zu können. Aufbauend auf den ersten beiden Teilen sollen im dritten Teil die Ergebnisse auf die Bewertung von komplexen Multi-Counterparty Kreditderivaten und insbesondere Collateralized Debt Obligations (CDOs) angewendet werden.

Robuste Portfolio Optimierung

(R. Zagst)

Einer der größten Nachteile der klassischen Portfolio Optimierung ist die starke Abhängigkeit von den i.A. mit Messfehlern behafteten Eingabedaten. Die robuste Optimierung - basierend auf second order cone programming und semidefinite programming - bietet hierzu einen Ausweg. Projektziel ist daher die Anwendbarmachung und Weiterentwicklung der Methoden der robusten Optimierung im Rahmen der Finanzmathematik. In einem weiteren Schritt sollen die entwickelten Verfahren mit bereits existierenden Einzelansätzen verglichen werden.



Andrea Kampfer (kampfer(at) ma.tum.de)
  May 2006