620 Ingenieurwissenschaften und Maschinenbau
Refine
Year of publication
Document Type
- Master's Thesis (40)
- Bachelor Thesis (21)
- Article (4)
- Preprint (2)
- Working Paper (2)
- Book (1)
- Contribution to a Periodical (1)
Has Fulltext
- yes (71)
Keywords
- ImageJ (5)
- Bildqualität (4)
- Probekörper <Werkstoffprüfung> (4)
- Bildverarbeitung (3)
- Detektion (3)
- Image Processing (3)
- Modulationsübertragungsfunktion (3)
- Digitalkamera (2)
- FPGA (2)
- Field programmable gate array (2)
Faculty
- Fakultät 07 / Institut für Medien- und Phototechnik (52)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (4)
- Fakultät 09 / Institut Anlagen und Verfahrenstechnik (3)
- Fakultät 06 / Institut für Konstruktiven Ingenieurbau (1)
- Fakultät 07 / Institut für Automatisierungstechnik (1)
- Fakultät 07 / Institut für Elektrische Energietechnik (1)
- Fakultät 08 / Institut für Produktion (1)
- Fakultät 09 / Institut für Technische Gebäudeausrüstung (1)
- Fakultät 10 / Institut of Electronics (1)
Maximising Distribution Grid Utilisation by Optimising E-Car Charging Using Smart Meter Gateway Data
(2023)
The transition towards climate neutrality will result in an increase in electrical vehicles, as well as other electric loads, leading to higher loads on electrical distribution grids. This paper presents an optimisation algorithm that enables the integration of more loads into distribution grid infrastructure using information from smart meters and/or smart meter gateways. To achieve this, a mathematical programming formulation was developed and implemented. The algorithm determines the optimal charging schedule for all electric vehicles connected to the distribution grid, taking into account various criteria to avoid violating physical grid limitations and ensuring non-discriminatory charging of all electric vehicles on the grid while also optimising grid operation. Additionally, the expandability of the infrastructure and fail-safe operation are considered through the decentralisation of all components. Various scenarios are modelled and evaluated in a simulation environment. The results demonstrate that the developed optimisation algorithm allows for higher transformer loads compared to a P(U) control approach, without causing grid overload as observed in scenarios without optimisation or P(U) control.
Diese Thesis befasst sich mit der Frage, in welcher Art und Weise sich das deutsche Feuerwehrwesen verändern und anpassen muss, um den abwehrenden Brandschutz nachhaltig sicherzustellen.
Ausgangspunkt ist die Problemstellung, dass einige Freiwillige Feuerwehren besonders tagsüber und vornehmlich im ländlichen Räumen nicht mehr den gesetzlichen Schutzzielen und Anforderungen entsprechen können. Um dieser Frage nachgehen zu können, ist die Methode des Benchmarkings auf Gefahrenabwehrsysteme adaptiert worden. Da die Forschungen innerhalb des deutschen Feuerwehrwesens nicht zielführend waren, ist das Benchmarking international und organisationsvergleichend ausgerichtet worden. Die Niederlande konnte als Vergleichspartner konstatiert werden, weil diese eine große kulturelle Ähnlichkeit zum deutschen Feuerwehrwesen aufweist und regionalisiert agiert. Das Merkmal der Regionalisierung stellte sich im europäischen Raum als eine vielversprechende Variante der Organisationsgestaltung heraus.
Der Benchmarkingprozess ist morphologisch beibehalten worden. Die Analysen, Vergleiche und Bewertung erfolgten nach Vorbild der Organisationsanalyse nach den Ausführungen von Wenger, Thom und Ritz, welche in das Benchmarking implementiert wurden. Diese Vorgehensweise stellte sich als erfolgreich heraus.
Die Verbesserungs- und Handlungsoptionen für das deutsche Feuerwehrwesen aus dem Benchmarking mit den Niederlanden sind folgende:
• Bündelung und Verknüpfung von Gefahrenabwehraufgaben in
regionalen Strukturen sowie die Regionalisierung der
Feuerwehren
• Anpassung der Schutzziele und Hilfsfristen an
Effizienzkriterien und Risiko unter der Bedingung weiterer
einhergehender Maßnahmen (Wandel von einer
strukturqualitätsorientierten hinzu einer
prozessqualitätsorientierten Philosophie)
o Standardisierung der Ausbildung aller
Feuerwehrdienstleistenden (in Modulen) und I
Intensivierung der ehrenamtlichen Ausbildung
o Festlegen der Staffel als Standardeinheit
o Einführung von Zwischenebenen zwischen
freiwilliger/zufälliger und beruflicher/sicherer
Verfügbarkeit
o Vergütung von arbeitsverhältnisähnlichen Dienstzeiten
o Reduzierung der Fahrzeugvielfalt
o Risikoorientierente und regionalstrukturierte
Fahrzeugvorhaltung
o Objektbezogene Risikoanalyse
o Einführung eines Qualitätsmanagementsystems und eines
standardisierten Controllings
o Transparenz- und Einbindungsstrategie mit der
Öffentlichkeit verfolgen
Weitere Maßnahmen, die sich zwar im heutigen Feuerwehrsystem umsetzen ließen und die Effektivität und Effizienz steigern würden, aber nicht das Problem der nicht erreichbaren Schutzziele beheben könnten, sind Maßnahmen wie die Etablierung des Krisenmanagements, die wissenschaftliche Erschließung des Feuerwehrwesens, die Bündelung rückwärtiger Tätigkeiten oder die Weiterentwicklung des Führungssystems hinsichtlich mehrstufiger Skalierbarkeit sowie wirkungsvoller und interdisziplinärer Zusammenarbeit.
Die hochwertige und umfassende Ausbildung von Führungskräften in der Gefahrenabwehr gilt als ausschlaggebender Punkt für die effektive Bewältigung von Gefahrenlagen. Zur Erreichung dieser Anforderungen wurde im Pilotlehrgang der Bundesakademie für Bevölkerungsschutz und Zivile Verteidigung erstmals die Software „Feuerwehr-Einsatzsimulation“ für die Darstellung von Planübungen bei der Ausbildung von Verbandsführern und Verbandsführerinnen eingesetzt. Ziel der vorliegenden Masterarbeit ist die Evaluierung des neuen Ausbildungskonzeptes im Rahmen einer Pilotstudie, um feststellen zu können, welchen Einfluss die Nutzung einer computergestützten Simulation im Vergleich zu konventionellen Ausbildungskonzepten auf den Lernprozess der angehenden Verbandsführer beziehungsweise Verbandsführerinnen hat. Zur umfassenden Evaluation wird eine Datenerhebung nach dem Mixed-Methods Prinzip mithilfe eines quantitativen Fragebogens, einer qualitativen Gruppendiskussion mit den Teilnehmenden sowie qualitativen Leitfadeninterviews mit den Dozierenden des Pilotlehrganges durchgeführt.
Die Ergebnisse zeigen, dass sowohl die Teilnehmenden als auch die Dozierenden den Einsatz der Software positiv bewerten. Es kann festgestellt werden, dass die Nutzung der Simulation einen positiven Einfluss auf den Lernprozess der Teilnehmenden hat. Begründen lässt sich dieser durch die realistischere Darstellung der Einsatzszenarien, der Erkundung der Einsatzstelle unter realen Bedingungen und dem besseren Feedback durch die Dozierenden, da die getroffenen Maßnahmen in der Simulation umfassend dargestellt werden können. Verbesserungsbedarf besteht bei der Immersion für die Teilnehmenden und einer leichteren Bedienung der Software für die Dozierenden. Der Einsatz einer computergestützten Simulation bei der Ausbildung von Verbandsführern und Verbandführerinnen erfüllt die hohen Anforderungen an eine praxisorientierte Ausbildung. Es ist daher empfehlenswert, eine computergestützte Simulation zur Darstellung von Planübungen für die Ausbildung von Verbandsführern und Verbandsführerinnen einzusetzen.
Die Arbeit richtet sich an die mit der Ausbildung von Verbandsführern bzw. Verbandsführerinnen beauftragten Stellen und deren Dozierenden.
Vergangene Ereignisse haben gezeigt, dass es trotz gesetzlicher Vorgaben und technischer Regeln, welche die Notstromversorgung von Krankenhäusern bestimmen, zu Vorfällen mit menschlichen Verlusten als Folge von Stromausfällen kam. Deshalb befasst sich diese Masterthesis mit der Entwicklung einer Bewertungsmethode für die Notfallplanung von deutschen Krankenhäusern im Bereich der Energieversorgung unter Berücksichtigung von technischen und organisatorischen Anforderungen. Sie soll in der Krankenhausalarm- und Einsatzplanung Anwendung finden.
Das Ziel ist es, eine Methode zu entwickeln, welche von Anwender:innen mit unterschiedlicher Ausprägung der Fachexpertise in der Krankenhausalarm- und Einsatzplanung sowie Risikoanalyse genutzt werden kann. Über zwei Scoping Reviews für die Krankenhausalarm- und Einsatzplanung sowie zur Energieversorgung von Krankenhäusern werden bestehende Vorgaben und Konzepte sowie Anforderungen an die Methode ermittelt. Basierend auf diesen Informationen wird ein gestuftes Bewertungsmodell vorgeschlagen. Es setzt sich aus einer Synthese eines Verfahrens des Bundesamts für Bevölkerungsschutz und Katastrophenhilfe zur Vulnerabilitätsanalyse mit Methoden der multikriteriellen Entscheidungsunterstützung (Satisfizierungsverfahren und Analytic Network Process) zusammen. Anhand einer exemplarischen Durchführung erfolgte eine empirische Validierung. Des Weiteren wurden der Praxisbezug und die Anwendbarkeit mit Expert:innen-Gesprächen untersucht.
Als Ergebnis kann festgehalten werden, dass sich das gestufte Bewertungsmodell als Planungsmodell für die Bewertung der Energienotversorgung von Krankenhäusern eignet. Es ist in eine Einsteiger-, Fortgeschrittenen- und Expertenstufe unterteilt, um für alle Anwender:innen unabhängig von ihrer Fachexpertise nutzbar zu sein. Es sind weitere Arbeiten unter enger Einbindung von Krankenhausbetreibenden erforderlich, um anhand des Modells priorisierte Checklisten mit allgemeinen technischen und organisatorischen Anforderungen für die Fortgeschrittenenstufe zu entwickeln. Durch die exemplarische Durchführung hat sich herausgestellt, dass das gestufte Bewertungsmodell zudem zur Identifizierung von Abhängigkeiten und Kritikalität des untersuchten Systems genutzt werden kann.
Als Herausforderung stellte sich die Übertragung des Analytic Network Process zu einem Bewertungs- und Priorisierungssystem der technischen und organisatorischen Anforderungen in Verbindung mit der Vulnerabilität heraus. Die Anwendungsgrenzen werden durch die Stufung des Bewertungsmodells gering gehalten. Es sind jedoch weitere Arbeiten, wie die Erstellung eines Leitfadens, notwendig, um die praktische Umsetzung zu ermöglichen.
Metallic tubular micro-components play an important role in a broad range of products,
from industrial microsystem technology, such as medical engineering, electronics and optoelectronics, to sensor technology or microfluidics. The demand for such components is increasing, and forming processes can present a number of advantages for industrial manufacturing. These include, for example, a high productivity, enhanced shaping possibilities, applicability of a wide spectrum of materials and the possibility to produce parts with a high stiffness and strength. However, certain difficulties arise as a result of scaling down conventional tube forming processes to the microscale. These include not only the influence of the known size effects on material and friction behavior, but also constraints in the feasible miniaturization of forming tools. Extensive research work has been conducted over the past few years on micro-tube forming techniques, which deal with the development of novel and optimized processes, to counteract these restrictions. This paper reviews the relevant advances in micro-tube fabrication and shaping. A particular focus is enhancement in forming possibilities, accuracy and obtained component characteristics, presented in the reviewed research work. Furthermore, achievements in severe plastic deformation for micro-tube generation and in micro-tube testing methods are discussed.
Life cycle assessment is a crucial tool in evaluating systems performances for sustainability and decision-making. This paper provided environmental impact of integrating renewable energy systems to the utility-grid based on a baseline optimized energy production data from “HOMER” for renewable systems modelling of a site in northern Nigeria. The ultimate goal was to ascertain the best hybrid option(s) in sustaining the environment. Different assumptions and scenarios were modelled and simulated using Ganzleitlichen Bilanz (GaBi). Uncertainty analysis was ensured to the impact data based on pedigree-matrix and Excel-program, as well as overall policy relevance. The results of the impact categories revealed first scenario (i.e., conventional path-based) with the highest impacts on global warming potential (GWP), acidification potential (AP), human toxicity potential (HTP), and abiotic depletion potential (ADP fossils). The lowest impacts arise in
the renewable-based scenarios for all the considered categories except the Ozone-layer depletion potential Category where the highest contribution falls in the third scenario (i.e., photovoltaic (PV)/biomass-biogas system) although all values being infinitesimal. In quantitative terms, the reduction in the GWP from the highest being the first scenario to the lowest being the fourth scenario (i.e., wind/biomass-biogas system) was 96.5%. Hence, with the outstanding contributions of the hybrid renewable systems, adopting them especially the lowest impact scenarios with expansions is relevant for environmental sustainability.
This contribution deals with the topic of the consistent further development of a wheel hub motor for battery electric vehicles (BEV) based on the principle of an outer rotor switched reluctance machine (SRM). The research work presented in this paper was founded by the ERDF.NRW program, Investment for Growth and Employment and the European Regional Development Fund. The R&D project was named Switched - Reluctance fo(u)r wheel (SR4Wheel). Based on the experience made by first prototype Evolution 0 (EVO 0), developed in the Laboratory for Automation Engineering, Power Electronics and Electrical Drives of the Cologne University of Applied Sciences (CUAS), the test results of EVO 1, as well as the redesign, EVO 2 is presented in this paper.
The prototype EVO 0, a first proof of concept leads to several optimizations and lessons learned for the predecessor model EVO 1. The overall target of developing such a gearless outer rotor wheel hub motor is the full integration of the complete machine including its power electronics into the given space between the original friction brake and the rim. Furthermore, due to the additional integration of the power electronics, great opportunities in terms of new vehicle design as well as retrofitting capabilities of already existing vehicle platforms can be achieved. Thereby, further drive train assembly space like the engine compartment is no longer necessary. The SRM does not require magnets for torque production which leads to independence from the changeable commodity prices on the rare earth element markets. This paper presents the developing process, testing, and verification of the innovative drive train concept starting with the final CAD of EVO 1. During the testing and verification process a machine characteristic mapping is performed on a drive train test bench and subsequently the results of a finite element analysis (FEA) are plausibility checked by the test bench results. The process continues with energy conversion test scenarios of the project demonstrator vehicle on a roller test bench focused on noise vibrationharshness (NVH) behavior and efficiency. As a conclusion, the gained knowledge by evaluating two EVO 1 prototypes on the rear axle of the test vehicle, and the design for the front axle drive train EVO 2 will be presented. As a major task on the front axle, the limited space due to the large disc brake can be identified and solved.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
A level graph G = (V,E,λ) is a graph with a mapping λ : V → {1,...,k}, k ≥ 1, that partitions the vertex set V as V = V1 ∪...∪ Vk, Vj = λ-1(j), Vi ∩ Vj = ∅ for i ≠ j, such that λ(v) = λ(u) + 1 for each edge (u, v) ∈ E. Thus a level planar graph can be drawn with the vertices of every Vj, 1 ≤ j ≤ k, placed on a horizontal line, representing the level lj , and without crossings of edges, which can be drawn as straight line segments between the levels. Healy, Kuusik and Leipert gave a complete characterization of minimal forbidden subgraphs for level planar graphs (MLNP patterns) for hierarchies [4]. Minimal in terms of deleting an ar- bitrary edge leads to level planarity. A radial graph partitions the vertex set on radii, which can be pictured as concentric circles, instead of levels, lj = (j cos(α), j sin(α)), α ∈ [0,2π), mapped around a shared center, where j, 1 ≤ j ≤ k indicates the concentric circles’ radius. Comparing embeddings of radial graphs with that of level graphs we gain a further possibility to place an edge and eventually avoid edge crossings which we wish to prevent for planarity reasons. This offers a new set of minimal radial non planar subgraphs (MRNP patterns). Some of the MLNP pat- terns can be adopted as MRNP patterns while some turn out to be radial planar. But based on the radial planar MLNP patterns and the use of augmentation we can build additional MRNP patterns that did not occur in the level case. Furthermore we point out a new upper bound for the number of edges of radial planar graphs. It depends on the subgraphs in- duced between two radii. Because of the MRNP patterns these subgraphs can either consist of a forest or a cycle with several branches. Applying the bound we are able to characterize extremal radial planar graphs. Keywords: radial graphs, minimal non-planarity, extremal radial planar
Im Rahmen dieser Bachelorarbeit wurde der von Debevec und Malik verwendete Algorithmus zur Erstellung von HDR-Bildern als Plugin für die Bildverarbeitungssoftware ImageJ implementiert. Darüber hinaus wurde die Implementierung durch Tests auf ihre Funktionalität überprüft und Schwachstellen des Algorithmus erläutert. Durch Modifizierungen des erstellten Plugins wurden einige Schwächen des Algorithmus verbessert.
For audio signals, we use the sign of the coefficients of the redundant discrete wavelet transform to generate primary hash vectors assigning bit 1 to positive or zero coefficients and bit 0 in the negative case. Discarding the highest frequency band and using a 6 step transform we get for each sample a 6 bit primary hash value which we may save as an integer. We then select a possible primary hash value (in our experiments we chose 0 or 63) and take the time indices where this primary hash value occurs as the secondary hash vector which is attributed to the whole audio signal. Comparing two audio signals, the number of elements in the intersection of the corresponding time indices are called "number of matches", a high number may indicate a similarity between the files. This secondary hash vector turns out to be robust against addition of noise, GSM-, G.726-, MP3 coding and packet loss. It may therefore be useful to detect spam telephone calls without analyzing the semantic content by the similarity of the corresponding signals. An algorithm is given to detect similar but shifted signals. Results of experiments are reported using a test corpus of 5 000 audio files of regular calls and 200 audio files of different versions of 20 original spam recordings augmented by a set of 45 files of different versions of 9 "special spam" signals.
Diese Arbeit beschreibt einen optischen Aufbau zur Herstellung von Holografisch-Optischen Elementen. Der Aufbau nutzt dabei einen räumlichen Lichtmodulator, um die Phasenverteilung eines ebenen Wellenfelds gezielt zu manipulieren. Das Wellenfeld wird mithilfe eines 4f-Aufbaus einer optischen Filterung unterzogen und anschließend mit einer Referenzwelle überlagert. Die Inten- sitätsverteilung des Interferenzmusters, das bei dieser Überla- gerung entsteht, wird in ein Fotopolymer belichtet. Die Belich- tung regt dabei Polymerisationsprozesse im Fotopolymer an, die zu einer räumlichen Modulation des Brechungsindex führen. So- mit kann eine definierte räumliche Phasenverteilung in das Foto- polymer geschrieben werden, welches als Holografisch-Optisches Element bezeichnet wird. Aufgrund der geringen Dauer des ge- samten Prozesses wird dieser als Rapid Prototyping bezeichnet.
Diese Arbeit behandelt die physikalisch plausible Bildsynthese virtueller Szenen anhand strahlungsphysikalischer Größen sowie physikalisch plausibler Beleuchtungsmodelle in Kombination mit qualitativ hochwertigem Schattenwurf. Verschiedene Modelle und Verfahren werden untersucht und in einer Echtzeitumgebung implementiert.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
In dieser Bachelorarbeit werden die Grenzwerte der stereoskopischen Seheindrücke, in Bezug auf parallaktische Verschiebungen und dem Raumwinkel, empirisch ermittelt und mit bekannten Grenzwerten verglichen. Die Ermittlung der Grenzwerte erfolgte durch einen empirischen Test mit einer repräsentativen Personengruppe. In dem Ergebnis wird u. a. die Raumwinkeldefinition nach Lüscher bekräftigt. Neue Grenzwerte werden im Bereich der Parallaxengröße definiert.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Durch den hohen Bedienkomfort und die übersichtliche Darstellungsweise sind berührungsempfindliche Bildschirme eines der wichtigsten Eingabegeräte geworden. Neben den technischen Aspekten wie der Bildwiedergabetechnik, der Touchscreen-Technologie und der Mediensteuerung, wird in dieser Arbeit die Mensch-Computer-Interaktion beschrieben. Ziel der vorliegenden Diplomarbeit ist die Gestaltung einer intuitiven ouchpaneloberfläche zur Steuerung medientechnischer Anlagen, welches am Beispiel eines Videokonferenzraumes beschrieben wird.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Kölner Stahlbautabellen : Bemessungshilfen für den Stahlbau nach DIN EN 1993-1-1 und DIN EN 1993-1-8
(2012)
Die Kölner Stahlbautabellen sind Bemessungshilfen für den Stahlbau auf der Grundlage des Eurocode 3. Sie enthalten Querschnittswerte und Beanspruchbarkeiten genormter Walzprofile. Für Typisierte Verbindungen (Winkelanschlüsse, Stirnplattenanschlüsse) sind die Geometrien und die Grenzquerkräfte angegeben.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
In der vorliegenden Arbeit wird ein softwaregestütztes Verfahren vorgestellt, mit dem untersucht werden kann, wie weit die Dosis in der Mammographie abgesenkt werden kann. Die entwickelte Software analysiert dabei die jeweilige Modalität anhand von Aufnahmen des PAS 1054-Prüfkörpers. Die erfassten Daten werden verwendet, um an vorhandenen Mammogrammen eine Dosisreduktion zu simulieren. Dazu kommen Verfahren der Bildverarbeitung, insbesondere die Wavelet-Transformation zum Einsatz. Durch eine vergleichende Auswertung der simulierten Aufnahmen mit den originalen können Grenzwerte für die diagnostische Tauglichkeit von Aufnahmen mit reduzierter Dosis gewonnen werden.
In der vorliegenden Bachelorarbeit werden Objektive und deren Eigenschaften hinsichtlich ihrer Eignung für die Time-of-Flight Technologie in Verwendung mit dem PMD[vision]®CamCube3.0 untersucht. Dabei wird zunächst die Scharfstellung geprüft und analysiert. Desweiteren werden System-MTF-Kurven von verschiedenen Objektiven in unterschiedlichen Entfernungen gemessen. Die Objektive werden untereinander verglichen und die gemessenen Werte den Hersteller-MTF-Kurven gegenübergestellt. Außerdem wird eine Simulation zur Berechnung des aus einer nicht perfekten Modulationsübertragung resultierenden Phasenfehlers durchgeführt und analysiert.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
Motion capturing plays an important role in computer animation and combines many different fields of research in media engineering, such as camera calibration, marker detection via image processing and 3D reconstruction. Most professional motion capture systems are distributed proprietarily by a handful of companies and do not grant much insight into detailed workflows. The motivation for the project this thesis is based on was to autonomously develop a simpler, yet similar system, which would capture static poses of a puppet. This thesis points out the designing steps of this system and illustrates how many of the aforementioned aspects of motion capturing are answered using the example of the stop-motion capture system, thus building a basis for the comprehension of more complex systems.
The objective of this paper is to implement a baseband OFDM transceiver on FPGA hardware. The design uses 8-point SLT/ISLT (Slantlet/Inverse Slantlet) for the processing module with processing block of 8 inputs data wide. All modules are designed and implemented using VHDL programming language. Software tools used in this work includes Altera Quartus II 7.2 and ModelSim Altera 6.1g, to assist the design process and downloading process into FPGA board while Cyclone III board EP3C120F780C7 is used to realize the designed module.
This paper presents the design procedure and implementation results of a proposed software defined radio (SDR) using Altera Cyclone II family board. The implementation uses Matlab/SimulinkTM, Embedded MatlabTM blocks, and Cyclone II development and educational board. The design has first implemented in Matlab/SimulinkTM environment. It is then converted to VHDL level using Simulink HDL coder. The design is synthesized and fitted with Quartus II 9.0 Web Edition® software, and downloaded to Altera Cyclone II board. The results show that it is easy to develop and understand the implementation of SDR using programmable logic tools. The paper also presents an efficient design flow of the procedure followed to obtain VHDL netlists that can be downloaded to FPGA boards.
Die Grundlage für diese Arbeit ist das opensource Roboterkettenfahrzeug SRV1 der Firma Surveyor [www-surveyor]. Im Auslieferungszustand ist es möglich, das Fahrzeug über ein Steuerungsprogramm fernzusteuern. Dies entspricht dem Funktionsumfang eines normalen ferngesteuerten Fahrzeugs, erweitert um eine Kamera, jedoch ohne jegliche Autonomie oder Intelligenz. Da das Fahrzeug auf einem embedded Board aufgebaut ist, welches über eine WLAN Verbindung verfügt, bietet es einen guten Ausgangspunkt für Erweiterungen. Ziel dieser Arbeit ist es eine Grundlage für autonome Fahrten zu schaffen. Als Betriebssystem wird uClinux, ein Linux für embedded Plattformen genutzt. Das Fahrzeug soll um einen zur Orientierung dienenden Kompass erweitert werden. Außerdem kommt ein RFID-Reader zum Einsatz, mit dessen Hilfe werden RFID-Transponder auf einer Teststrecke als künstliche Landmarken zur Positionsbestimmung genutzt. Es wird eine Software für autonome Fahrten entwickelt, die es ermöglicht, durch Verwendung der erweiterten Hardware, den Roboter eigenständig Punkte der Teststrecke anfahren zu lassen. Hierzu ist es erst notwendig alle Hardware im Betriebssystem, beispielsweise durch Treiber verfügbar zu machen.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
Die World Health Organisation (WHO) beobachtet weltweit die Entwicklung der Influenzaerreger. Ein Ausbruch einer Pandemie soll dadurch schnell erkannt werden. Prinzipiell könnte jedes Influenzavirus eine Influenzapandemie auslösen. Voraussetzungen für ein pandemisches Virus wäre die Anpassung des Virus an den Menschen, eine Mensch zu Mensch-Übertragbarkeit sowie eine fehlende Immunität der Bevölkerung gegen dieses Virus. Die bedeutendste Bedrohung jedoch geht vom aviären H5N1-Virus aus. Vermutlich benötigt es nur wenige Mutationsschritte, sich zu einem pandemischen Virus zu entwickeln. Mit jedem an H5N1 verendeten Vogel und mit jeder Vogel zu Mensch-Übertragung steigt die Wahrscheinlichkeit einer Influenzapandemie durch H5N1. Ein pandemisches Influenzavirus unterscheidet sich von saisonalen Influenzaviren wahrscheinlich in vielen Eigenschaften. Die unterschiedlichen Eigenschaften der Viren und die Situation der Pandemie erfordern andere Schutzmaßnahmen als bei einer saisonalen Grippeepidemie. Ein Impfstoff für eine geeignete Schutzimpfung wird zu Beginn einer Pandemie noch nicht entwickelt und produziert sein. Der Einsatz von erfolgreichen antiviralen Medikamenten ist durch die verfügbare Menge und eine mögliche Resistenzbildung des Virus gefährdet. Der Expositionsschutz gehört daher zu den wichtigsten Schutzmaßnahmen und sollte bei Ausbruch einer Pandemie sofort verfügbar sein. Besondere Bedeutung hat der Schutz der Atemwege, da die aerogene Übertragung die wesentliche bei einer Influenzapandemie ist. Zum Schutz der Atemwege bieten sich Schutzmasken an. Empfohlen werden im nationalen Pandemieplan partikelfiltrierende Halbmasken und Mund-Nase-Schutzmasken. Welche die geeignete Maske für den Pandemiefall zum Schutz der Bevölkerung ist, kann nicht abschließend geklärt werden. Zu viele Faktoren des Erregers, die Einfluss auf die Wahl der Schutzmaske haben, sind unbekannt. Die Entwicklung von Anforderungen an eine geeignete Pandemieschutzmaske ist erforderlich. Anhand dieser Anforderungen könnten unter vergleichbaren Bedingungen vorhandene Masken auf ihre Tauglichkeit geprüft werden. Die Prüfungen der Masken müssen in einem geeigneten Labor stattfinden. Die Vorschriften, die für dieses Testlabor gelten, sind abhängig von den Prüfungen. Anhand einer Analyse und Beurteilung von Gefährdungen, die aufgrund der Durchführung der Prüfungen entstehen, sind die Vorschriften für das Labor zu ermitteln. Daraus folgende Maßnahmen u.a. zum Schutze der Beschäftigten müssen eingehalten und auf ihre Wirksamkeit überprüft werden. Die Dokumentation der Analyse und der Maßnahmen schließen die Gefährdungsbeurteilung ab.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.
In dieser Bachelorarbeit wird ein Verfahren zur HDR-Bilderstellung vorgestellt und mit anderen Verfahren verglichen, das eine beliebige Belichtungsreihe verarbeitet und auf der Erstellung von Histogrammen der Helligkeitsverhältnisse zwischen den Aufnahmen basiert. Der Algorithmus wurde in Java als Plugin für die Bildverarbeitungssoftware ImageJ implementiert.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
Fernseh- und Videobilder in Fernsehsendungen oder in digitalen Videoarchiven, aber beispielsweise auch auf Grafiken basierende Inhalte von Internetseiten enthalten eine große Anzahl von in sie eingebetteten Texten. Die Lokalisierung und Erkennung dieser Texte eröffnet eine Vielzahl von Anwendungsmöglichkeiten. So können Texte beispielsweise als Ergebnis der Suche und Verarbeitung von großen digitalen Videoarchiven mit Inhalten von Nachrichtensendungen oder Dokumentationen zum Erstellen von Datenbanken dienen. Da in Nachrichtensendungen sehr oft Einblendungen von Orten, Namen, Uhrzeiten oder sonstigen Informationen vorhanden sind, können diese Grundlage für Datenbanken werden, durch die sehr schnell auf einzelne Beiträge zugegriffen werden kann. Auch dienen diese Datenbanken der Verknüpfung unterschiedlicher Inhalte von Beiträgen miteinander. Für Firmen die im Fernsehen Werbung schalten ist es von Interesse zu überprüfen, ob und gegebenenfalls wann der eigene Werbespot gesendet wurde. Auch hier wäre eine automatische Erkennung von Schriftzügen wie beispielsweise des Produktnamens und die gleichzeitige Aufzeichnung der Uhrzeit und des Sendekanals von Interesse. Eine weitere Anwendung ist die Erkennung von Inhalten in Webseiten welche nicht textbasiert sind, also zum Beispiel in Flash oder ähnlichen Formaten vorliegen. Auf die in diesen Seiten hinterlegten Informationen können Standard-Suchmaschinen nicht zugreifen, weshalb die Informationen bei einer Suchanfrage nicht berücksichtigt werden. An diese Problem und die Anwendungsmöglichkeiten anknüpfend, ist es das Ziel die ser Arbeit Möglichkeiten zur Erkennung von in Fernsehbildern eingebetteten Schriften, wie beispielsweise ”www.schrift-im-videobild.de” aufzuzeigen und als reinen ASCII-Text zu extrahieren. Dazu wurde eine Sammlung von verschiedenen Testbildern erstellt, die unterschiedliche von den Fernsehanstalten eingeblendete Texte enthalten. Darüber hinaus soll ein Programm mit Hilfe der Programmiersprache C++ erstellt werden, das die Testvorlagen für eine Texterkennung durch kommerzielle Optical Character Recognition (OCR) Software, wie sie für die Erkennung von reinen Binärbildern (zum Beispiel eingescannte Schreibmaschinentexte) genutzt wird, vorverarbeitet. Um dieses zu erreichen wurden Möglichkeiten untersucht, die im Bild enthaltenen Schriften zu detektieren, zu segmentieren und in einem weiteren Verarbeitungsschritt in ein neues Bild zu extrahieren, wobei das schlussendliche Bildresultat nach Möglichkeit nur noch schwarze Schrift vor weißem Hintergrund enthalten soll.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
In dieser Bachelorarbeit werden der automatische Weißabgleich dreier Digitalkameras mit einem neuen Weißabgleich-Verfahren, dass derzeit von der Fachhochschule Köln entwickelt wird, verglichen. Eine Anzahl von Fotos in verschiedenen Situationen werden dafür erstellt, die zum Vergleich anhand verschiedener Parameter ausgewertet werden. Die Ergebnisse zeigen die Unterschiede zwischen den Verfahren der drei Kameras und dem neuen Verfahren auf, das die Lichtfarbe einer Beleuchtungsquelle durch Messung polarisierter Reflexe ermittelt, statt, wie bei anderen Weißabgleich-Verfahren üblich, anhand von Schätzungen. Die Verfahren werden so auf ihre Tauglichkeit im alltäglichen Einsatz und im Hinblick auf die Optimierung des neuen Verfahrens getestet.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.
Ziel dieser Arbeit ist die Automatisierung von Prüfverfahren, welche in der PAS 1054 definiert sind und in der digitalen Mammographie ihre Anwendung finden. Dazu standen Aufnahmen eines Prototypen des in der PAS beschriebenen Prüfkörpers zur Verfügung, die mit dem Sectra MDM angefertigt wurden. Anhand dessen konnte mit der Programmiersprache Java und unter Verwendung der Software ImageJ ein Programm geschrieben werden, welches die automatische Analyse der Bilddaten ermöglicht. Eine übersichtliche Benutzeroberfläche und die Ausgabe von Ergebnissen, die auf das Wesentliche reduziert sind, gewährleisten eine zeitsparende und effektive Handhabung.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
Diese Arbeit befasst sich mit der Thematik des Live-Streamings und webbasierter Medien-übertragung. Im Fokus steht in diesem Zusammenhang der Adobe Flash Media Server 3.0 als Streaming-Plattform sowie Adobe Flash CS3 als Entwicklungsumgebung. Neben den theoretischen Grundlagen wird die praktischen Umsetzung in Form einer iTVG-Applikation für einen exemplarischen Anwendungszweck eingehend erläutert. Dabei werden sowohl der technische Hintergrund der Programmierung wie auch die Methoden und Prinzipien des interakti-ven Designs, der Usability, diskutiert und in den Entwicklungsprozess integriert. Die Flash-Media Applikation wird abschließend einer kritischen Betrachtung unterzogen, um mögliche Fehlerquellen sowie weitere Entwicklungspotentiale aufzuzeigen.
In dieser Diplomarbeit wird ein neues Verfahren für den automatischen Weißabgleich einer digitalen Kamera beschrieben. Das Verfahren bestimmt die beleuchtende Lichtfarbe durch Messung von polarisierten Reflexen. Die Arbeit untersucht mit diesem Verfahren Reflexe an verschiedenen Oberflächen. Herausgearbeitet werden die kritischen Situationen der Anwendung. Dies geschieht im Hinblick auf die spätere Optimierung des Verfahrens.
Um Strahlenschäden zu vermeiden und die Aufnahmequalität der Röntgenbilder in der Veterinärmedizin zu verbessern, wurde im Rahmen dieser Arbeit ein Konzept für einen „Digitaler Aufnahmehelfer für die Kleintierradiologie“ entwickelt. Bei der Produktion dieser flashbasierten Software wurden beispielhaft computergenerierte Grafiken (CGI) und 3D-Animationen erstellt. Ebenso wurden Belichtungstabellen eingebunden. Diese wurden in Zusammenarbeit mit der Tierhochschule Hannover und der Firma Gierth X-Ray international erarbeitet. Es ergaben sich Belichtungswerte, die auf physikalischen Grundlagen beruhen.
Ziel dieser Arbeit ist es, herauszufinden, ob der Parameter der fraktalen Dimension in Zukunft nützlich sein könnte für die computergestützte Auswertung von Mammographien. Dies gilt insbesondere für die Detektion architektonischer Störungen im Brustparenchym, die zuweilen durch den Radiologen schwer ausfindig zu machen sind. Die fraktale Dimension ist deshalb als Parameter so interessant, weil sie auf der Eigenschaft der Selbstähnlichkeit beruht. Eine Selbstähnlichkeit in der Struktur könnte auch das Brustgewebe haben, da Gewebewachstum ein fortlaufender Prozess ist, bei dem sich wiederholend die gleichen Formen herausbilden. Kommt es hier zu pathologischen Veränderungen, so ist dieser Ablauf unterbrochen und die Strukturen verändern sich.
Die Entwicklung in Technik und Elektronik ermöglicht es, medizinische Bilder in elektronischer Form zu speichern, zu verarbeiten und darzustellen. Der Austausch von Patientendaten wird vereinfacht und der Informationstransfer beschleunigt. Diagnose und Befundungen über Netzwerke sind möglich und eröffnen neue Möglichkeiten in der medizinischen Kommunikation. Für die Gewährleistung der Wiedergabekonstanz von Bildwiedergabesystemen wie CRT- und LCD-Monitore sind Richtlinien notwendig, die messbare Parameter definieren.
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
Die detektive Quantenausbeute (DQE) erlaubt eine umfassende Charakterisierung bildgebender Systeme, da sie sowohl etwas über das Auflösungsvermögen, als auch über die Rauscheigenschaften des Systems aussagt. Im Rahmen dieser Arbeit wurde die DQE zweier digitaler Mammographie-Einrichtungen bestimmt, wobei für vergleichbare Dosisniveaus folgende Ergebnisse erzielt wurden: Für eine Ortsfrequenz von einem Lp/mm beträgt die DQE des indirekten Systems ca. 42% und die des direkten Systems auf Basis von amorphem Selen ca. 62%.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
In der Diplomarbeit wurden die lichttechnischen Eigenschaften einer Bildwand für die Rückprojektion untersucht. Die Projektion erfolgte mit einem Beamer. Die Bildwand bestand aus einer Streuscheibe und einer Fresnellinse. Die horizontale und vertikale Abstrahlcharakteristik, der Transmissionsgrad und die maximal mögliche Leuchtdichtemodulation wurden bestimmt. Die Abstrahleigenschaften der Streuscheibe und ihr Reflexionsgrad wurden gemessen. Dies ermöglicht den Einfluss von Streulicht abzuschätzen. Mit Hilfe eines Spaltes und eines selbst erstellten Computerprogramms wurde die Modulationsübertragungsfunktion in horizontaler und vertikaler Ausrichtung berechnet. Abschließend werden die Grundprinzipien für den Aufbau einer Rückprojektionseinrichtung diskutiert.
Analytisches Berechnungsmodell ohne empirische Exponentenansätze : Rauchentwicklung bei Bränden
(2002)
Es wird ein analytisches Berechnungsmodell zur Rauchentwicklung über einem Brandherd vorgestellt, das auf der Annahme der Wärme- und Impulserhaltung in der aufsteigenden Rauchsäule basiert, sowie der Kenntnis des Ausbreitungswinkels. Beobachtungen zufolge beträgt der halbe Ausbreitungswinkel etwa 7° bis 8°. Ein Vorteil des Modells gegenüber anderen, meist empirischen "PLume-Formeln" liegt darin, dass erstmals die drei wichtigsten Einflussparameter der Brandrauchausbreitung (Wärmefreisetzungsrate, Brandfläche, Raumhöhe) gemeinsam berücksichtigt werden und es keine versuchsbedingten Gültigkeitsgrenzen gibt.