Refine
Year of publication
- 2006 (20) (remove)
Document Type
- Master's Thesis (14)
- Article (2)
- Study Thesis (2)
- Book (1)
- Review (1)
Language
- German (20) (remove)
Has Fulltext
- yes (20)
Keywords
- Literatur / Übersetzung (2)
- Process Management (2)
- Ablaufanalyse (1)
- Affekt (1)
- Alphabetisierung (1)
- Analphabet (1)
- Analphabetismus (1)
- Arbeitsablauf / Management (1)
- Architekt (1)
- Architekturfakultät (1)
Faculty
- Fakultät 07 / Institut für Medien- und Phototechnik (8)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (5)
- Fakultät 10 / Institut für Informatik (4)
- Fakultät 03 / Institut für Informationswissenschaft (1)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (1)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (1)
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.