Refine
Year of publication
Document Type
- Master's Thesis (39)
- Bachelor Thesis (19)
- Article (4)
- Conference Proceeding (4)
- Book (1)
- Contribution to a Periodical (1)
Has Fulltext
- yes (68)
Keywords
- ImageJ (7)
- Bildqualität (4)
- Bildverarbeitung (4)
- Image Processing (4)
- Probekörper <Werkstoffprüfung> (4)
- Detektion (3)
- Modulationsübertragungsfunktion (3)
- Tone Mapping (3)
- Authentifikation (2)
- Browser (2)
Faculty
- Fakultät 07 / Institut für Medien- und Phototechnik (68) (remove)
In this work, we propose a novel data-driven approach to recover missing or corrupted motion capture data, either in the form of 3D skeleton joints or 3D marker trajectories. We construct a knowledge-base that contains prior existing knowledge, which helps us to make it possible to infer missing or corrupted information of the motion capture data. We then build a kd-tree in parallel fashion on the GPU for fast search and retrieval of this already available knowledge in the form of nearest neighbors from the knowledge-base efficiently. We exploit the concept of histograms to organize the data and use an off-the-shelf radix sort algorithm to sort the keys within a single processor of GPU. We query the motion missing joints or markers, and as a result, we fetch a fixed number of nearest neighbors for the given input query motion. We employ an objective function with multiple error terms that substantially recover 3D joints or marker trajectories in parallel on the GPU. We perform comprehensive experiments to evaluate our approach quantitatively and qualitatively on publicly available motion capture datasets, namely CMU and HDM05. From the results, it is observed that the recovery of boxing, jumptwist, run, martial arts, salsa, and acrobatic motion sequences works best, while the recovery of motion sequences of kicking and jumping results in slightly larger errors. However, on average, our approach executes outstanding results. Generally, our approach outperforms all the competing state-of-the-art methods in the most test cases with different action sequences and executes reliable results with minimal errors and without any user interaction.
Die Blockchain ist nicht nur im Bereich der Finanzwelt angekommen, auch andere Branchen versuchen sich an ihrer Anwendung. In diesem Artikel werden Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vorgestellt, indem die zugehörigen Veröffentlichungen referiert und diskutiert werden. Die Anwendungsbereiche variieren aktuell über den Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.
Risk-based authentication (RBA) is an adaptive security measure to strengthen password-based authentication. RBA monitors additional implicit features during password entry such as device or geolocation information, and requests additional authentication factors if a certain risk level is detected. RBA is recommended by the NIST digital identity guidelines, is used by several large online services, and offers protection against security risks such as password database leaks, credential stuffing, insecure passwords and large-scale guessing attacks. Despite its relevance, the procedures used by RBA-instrumented online services are currently not disclosed. Consequently, there is little scientific research about RBA, slowing down progress and deeper understanding, making it harder for end users to understand the security provided by the services they use and trust, and hindering the widespread adoption of RBA.
In this paper, with a series of studies on eight popular online services, we (i) analyze which features and combinations/classifiers are used and are useful in practical instances, (ii) develop a framework and a methodology to measure RBA in the wild, and (iii) survey and discuss the differences in the user interface for RBA. Following this, our work provides a first deeper understanding of practical RBA deployments and helps fostering further research in this direction.
Online services such as social networks, online shops, and search engines deliver different content to users depending on their location, browsing history, or client device. Since these services have a major influence on opinion forming, understanding their behavior from a social science perspective is of greatest importance. In addition, technical aspects of services such as security or privacy are becoming more and more relevant for users, providers, and researchers. Due to the lack of essential data sets, automatic black box testing of online services is currently the only way for researchers to investigate these services in a methodical and reproducible manner. However, automatic black box testing of online services is difficult since many of them try to detect and block automated requests to prevent bots from accessing them.
In this paper, we introduce a testing tool that allows researchers to create and automatically run experiments for exploratory studies of online services. The testing tool performs programmed user interactions in such a manner that it can hardly be distinguished from a human user. To evaluate our tool, we conducted - among other things - a large-scale research study on Risk-based Authentication (RBA), which required human-like behavior from the client. We were able to circumvent the bot detection of the investigated online services with the experiments. As this demonstrates the potential of the presented testing tool, it remains to the responsibility of its users to balance the conflicting interests between researchers and service providers as well as to check whether their research programs remain undetected.
Risikobasierte Authentifizierung (RBA) ist eine adaptive Sicherheitsmaßnahme zur Stärkung passwortbasierter Authentifizierung. Sie zeichnet Merkmale während des Logins auf und fordert zusätzliche Authentifizierung an, wenn sich Ausprägungen dieser Merkmale signifikant von den bisher bekannten unterscheiden. RBA bietet das Potenzial für gebrauchstauglichere Sicherheit. Bisher jedoch wurde RBA noch nicht ausreichend im Bezug auf Usability, Sicherheit und Privatsphäre untersucht. Dieser Extended Abstract legt das geplante Dissertationsvorhaben zur Erforschung von RBA dar. Innerhalb des Vorhabens konnte bereits eine Grundlagenstudie und eine darauf aufbauende Laborstudie durchgeführt werden. Wir präsentieren erste Ergebnisse dieser Studien und geben einen Ausblick auf weitere Schritte.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Die Hough-Transformation liefert die Parameter von in einem Bild vorkommenden Geraden. Durch die Kameraverzerrung werden die in der realen Welt vorkommenden Geraden jedoch nicht mehr auf Geraden abgebildet. Dies führt dazu, dass im Hough-Raum die entsprechenden Geradenpunkte nicht mehr auf den gleichen Punkt abgebildet werden. Durch Variation der Verzerrungsparameter mit Hilfe eines bereits vorliegenden Optimierungsprogrammes ist eine Korrektur zu ermitteln. Dabei sollen drei unterschiedliche Ansätze miteinander verglichen werden. Bildmaterial sollte Aufnahmen von Testobjekten und Gebäuden sein.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Die detektive Quantenausbeute (DQE) erlaubt eine umfassende Charakterisierung bildgebender Systeme, da sie sowohl etwas über das Auflösungsvermögen, als auch über die Rauscheigenschaften des Systems aussagt. Im Rahmen dieser Arbeit wurde die DQE zweier digitaler Mammographie-Einrichtungen bestimmt, wobei für vergleichbare Dosisniveaus folgende Ergebnisse erzielt wurden: Für eine Ortsfrequenz von einem Lp/mm beträgt die DQE des indirekten Systems ca. 42% und die des direkten Systems auf Basis von amorphem Selen ca. 62%.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
In dieser Bachelorarbeit werden der automatische Weißabgleich dreier Digitalkameras mit einem neuen Weißabgleich-Verfahren, dass derzeit von der Fachhochschule Köln entwickelt wird, verglichen. Eine Anzahl von Fotos in verschiedenen Situationen werden dafür erstellt, die zum Vergleich anhand verschiedener Parameter ausgewertet werden. Die Ergebnisse zeigen die Unterschiede zwischen den Verfahren der drei Kameras und dem neuen Verfahren auf, das die Lichtfarbe einer Beleuchtungsquelle durch Messung polarisierter Reflexe ermittelt, statt, wie bei anderen Weißabgleich-Verfahren üblich, anhand von Schätzungen. Die Verfahren werden so auf ihre Tauglichkeit im alltäglichen Einsatz und im Hinblick auf die Optimierung des neuen Verfahrens getestet.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.
Diese Arbeit beschreibt einen optischen Aufbau zur Herstellung von Holografisch-Optischen Elementen. Der Aufbau nutzt dabei einen räumlichen Lichtmodulator, um die Phasenverteilung eines ebenen Wellenfelds gezielt zu manipulieren. Das Wellenfeld wird mithilfe eines 4f-Aufbaus einer optischen Filterung unterzogen und anschließend mit einer Referenzwelle überlagert. Die Inten- sitätsverteilung des Interferenzmusters, das bei dieser Überla- gerung entsteht, wird in ein Fotopolymer belichtet. Die Belich- tung regt dabei Polymerisationsprozesse im Fotopolymer an, die zu einer räumlichen Modulation des Brechungsindex führen. So- mit kann eine definierte räumliche Phasenverteilung in das Foto- polymer geschrieben werden, welches als Holografisch-Optisches Element bezeichnet wird. Aufgrund der geringen Dauer des ge- samten Prozesses wird dieser als Rapid Prototyping bezeichnet.
In der Diplomarbeit wurden die lichttechnischen Eigenschaften einer Bildwand für die Rückprojektion untersucht. Die Projektion erfolgte mit einem Beamer. Die Bildwand bestand aus einer Streuscheibe und einer Fresnellinse. Die horizontale und vertikale Abstrahlcharakteristik, der Transmissionsgrad und die maximal mögliche Leuchtdichtemodulation wurden bestimmt. Die Abstrahleigenschaften der Streuscheibe und ihr Reflexionsgrad wurden gemessen. Dies ermöglicht den Einfluss von Streulicht abzuschätzen. Mit Hilfe eines Spaltes und eines selbst erstellten Computerprogramms wurde die Modulationsübertragungsfunktion in horizontaler und vertikaler Ausrichtung berechnet. Abschließend werden die Grundprinzipien für den Aufbau einer Rückprojektionseinrichtung diskutiert.