510 Mathematik
Refine
Document Type
- Master's Thesis (2)
- Bachelor Thesis (1)
- Preprint (1)
Has Fulltext
- yes (4)
Keywords
- 3D (1)
- Bilanzierung (1)
- Bildverarbeitung (1)
- Biomedical Imaging (1)
- Deconvolution (1)
- Equiangular (1)
- Equilateral (1)
- Filtering (1)
- Fixed-Angle (1)
- Knoten (1)
This work focuses on enhancing the quality of A- and B-scans of a novel linear optical coherence tomography system (LOCT), addressing the image degradation caused by noise and the blurring characteristics of the system’s three-dimensional point spread function. The enhancement procedure includes an initial spatial and frequency-based pre-filtering that is applied to the measured interference pattern. Subsequently, a more robust envelope detection technique based on the Hilbert transform is employed. Lastly, image structures are reconstructed using a deconvolution algorithm based on maximum likelihood estimation, tailored to meet our unique requirements by adapting it to Rician distributed intensity values and employing a sparseness regularization term. For the deconvolution, both the lateral and axial blur of the system are considered. Emphasis is placed on the optimization of signal detection in high-noise regions, while simultaneously preventing image boundary artifacts. The efficacy of this approach is demonstrated across multiple types of measurement objects, including both artificial and biological samples. All results show a significant reduction in noise as well as enhanced resolution. Structure distinguishability is also increased, which plays a crucial role in tomography applications. In summary, the proposed enhancement method substantially improves image quality. This is achieved by still using the same initial measurement data, but incorporating prior knowledge and maximizing the amount of extracted information. Although initially designed for LOCT systems, the processing steps have potential for broader application in other types of optical coherence tomography and imaging systems.
For most classes of chains, it is known if these contain locks, but especially for fixed-angle equilateral equiangular obtuse open polygonal chains in 3D, which can be used to model protein backbones, this is unknown. Fixed-angle equilateral equiangular obtuse closed and open polygonal chains can be used to model polymers. For these, it is clear, that locks based on knots exist, but not which chains are generally locked. We therefore examine both open and closed fixed-angle equilateral equiangular obtuse chains. For this purpose, those chains are divided into various subgroups and, depending on the subgroup, other aspects are investigated to show locks. Techniques from knot theory, graph theory, and specifically robot arm reachability and motion planning are combined. Algorithms are developed to create chains in desired configurations and to study them. It is shown why all fixed-angle equilateral equiangular obtuse closed chains are expected to be locked or in rare cases rigid and non-locked, but never non-locked and non-rigid. For fixed-angle equilateral equiangular obtuse open chains it is shown why it is expected that there are open chains that are locked and that the smallest locked open chain has 𝑛=7.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Die Lebensversicherer in Deutschland als institutionelle Investoren haben eine erhebliche Verantwortung für die Absicherung der Menschen im Alter. Aufgrund des anhaltenden schwierigen Zinsumfeldes stehen sie jedoch unter enormen Druck, ihre Leistungsversprechen langfristig einzuhalten zu können.
Der Gesetzgeber führte daher 2011 die Zinszusatzreserve (ZZR) ein, um im Rahmen der sinkenden Kapitalmarktzinsen eine moderate Form der Nachreservierung zu schaffen.
Als die ZZR eingeführt wurde, war allerdings nicht absehbar, dass sich das Niedrigzinsumfeld auf eine so lange Zeit erstrecken würde, wie es nun der Fall ist.
Die bisherige Systematik der ZZR führte in den letzten Jahren zu einem erheblichen Ausmaß und damit verbunden zu einer enormen Belastung für die Lebensversicherer. Bei einer Beibehaltung des Verfahrens könnte sich die ZZR nach Schätzungen der Assekurata Rating Agentur bis zum Jahr 2025 auf beachtliche 200 Milliarden Euro belaufen. Dies würde bedeuten, dass sich der Gesamtaufwand zur Dotierung der ZZR im Vergleich zum Geschäftsjahr 2017 noch verdreifachen würde.
Daher beschäftigt sich die vorliegende Arbeit mit einer Neukalibrierung der ZZR und einer damit verbundenen völlig neuen Berechnungsmethodik.
Die "Methode 2M", die von der Deutschen Aktuarvereinigung e. V. (DAV) entwickelt wurde, wird als möglicher Lösungsweg zur Entlastung der Lebensversicherer detailliert beschrieben und analysiert. Mithilfe aktuarieller Berechnungen werden dabei insbesondere die quantitativen Auswirkungen der Methode 2M im Hinblick auf verschiedene Zinsszenarien bis zum Jahr 2030 aufgezeigt und eine kritische Beurteilung vorgenommen, ob die neue Berechnungsmethodik den gewünschten Erfolg erzielt.