Refine
Year of publication
Document Type
- Master's Thesis (39)
- Bachelor Thesis (19)
- Article (4)
- Conference Proceeding (4)
- Book (1)
- Contribution to a Periodical (1)
Has Fulltext
- yes (68)
Keywords
- ImageJ (7)
- Bildqualität (4)
- Bildverarbeitung (4)
- Image Processing (4)
- Probekörper <Werkstoffprüfung> (4)
- Detektion (3)
- Modulationsübertragungsfunktion (3)
- Tone Mapping (3)
- Authentifikation (2)
- Browser (2)
Faculty
- Fakultät 07 / Institut für Medien- und Phototechnik (68) (remove)
In this work, we propose a novel data-driven approach to recover missing or corrupted motion capture data, either in the form of 3D skeleton joints or 3D marker trajectories. We construct a knowledge-base that contains prior existing knowledge, which helps us to make it possible to infer missing or corrupted information of the motion capture data. We then build a kd-tree in parallel fashion on the GPU for fast search and retrieval of this already available knowledge in the form of nearest neighbors from the knowledge-base efficiently. We exploit the concept of histograms to organize the data and use an off-the-shelf radix sort algorithm to sort the keys within a single processor of GPU. We query the motion missing joints or markers, and as a result, we fetch a fixed number of nearest neighbors for the given input query motion. We employ an objective function with multiple error terms that substantially recover 3D joints or marker trajectories in parallel on the GPU. We perform comprehensive experiments to evaluate our approach quantitatively and qualitatively on publicly available motion capture datasets, namely CMU and HDM05. From the results, it is observed that the recovery of boxing, jumptwist, run, martial arts, salsa, and acrobatic motion sequences works best, while the recovery of motion sequences of kicking and jumping results in slightly larger errors. However, on average, our approach executes outstanding results. Generally, our approach outperforms all the competing state-of-the-art methods in the most test cases with different action sequences and executes reliable results with minimal errors and without any user interaction.
Die Blockchain ist nicht nur im Bereich der Finanzwelt angekommen, auch andere Branchen versuchen sich an ihrer Anwendung. In diesem Artikel werden Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vorgestellt, indem die zugehörigen Veröffentlichungen referiert und diskutiert werden. Die Anwendungsbereiche variieren aktuell über den Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.
Risk-based authentication (RBA) is an adaptive security measure to strengthen password-based authentication. RBA monitors additional implicit features during password entry such as device or geolocation information, and requests additional authentication factors if a certain risk level is detected. RBA is recommended by the NIST digital identity guidelines, is used by several large online services, and offers protection against security risks such as password database leaks, credential stuffing, insecure passwords and large-scale guessing attacks. Despite its relevance, the procedures used by RBA-instrumented online services are currently not disclosed. Consequently, there is little scientific research about RBA, slowing down progress and deeper understanding, making it harder for end users to understand the security provided by the services they use and trust, and hindering the widespread adoption of RBA.
In this paper, with a series of studies on eight popular online services, we (i) analyze which features and combinations/classifiers are used and are useful in practical instances, (ii) develop a framework and a methodology to measure RBA in the wild, and (iii) survey and discuss the differences in the user interface for RBA. Following this, our work provides a first deeper understanding of practical RBA deployments and helps fostering further research in this direction.
Online services such as social networks, online shops, and search engines deliver different content to users depending on their location, browsing history, or client device. Since these services have a major influence on opinion forming, understanding their behavior from a social science perspective is of greatest importance. In addition, technical aspects of services such as security or privacy are becoming more and more relevant for users, providers, and researchers. Due to the lack of essential data sets, automatic black box testing of online services is currently the only way for researchers to investigate these services in a methodical and reproducible manner. However, automatic black box testing of online services is difficult since many of them try to detect and block automated requests to prevent bots from accessing them.
In this paper, we introduce a testing tool that allows researchers to create and automatically run experiments for exploratory studies of online services. The testing tool performs programmed user interactions in such a manner that it can hardly be distinguished from a human user. To evaluate our tool, we conducted - among other things - a large-scale research study on Risk-based Authentication (RBA), which required human-like behavior from the client. We were able to circumvent the bot detection of the investigated online services with the experiments. As this demonstrates the potential of the presented testing tool, it remains to the responsibility of its users to balance the conflicting interests between researchers and service providers as well as to check whether their research programs remain undetected.
Risikobasierte Authentifizierung (RBA) ist eine adaptive Sicherheitsmaßnahme zur Stärkung passwortbasierter Authentifizierung. Sie zeichnet Merkmale während des Logins auf und fordert zusätzliche Authentifizierung an, wenn sich Ausprägungen dieser Merkmale signifikant von den bisher bekannten unterscheiden. RBA bietet das Potenzial für gebrauchstauglichere Sicherheit. Bisher jedoch wurde RBA noch nicht ausreichend im Bezug auf Usability, Sicherheit und Privatsphäre untersucht. Dieser Extended Abstract legt das geplante Dissertationsvorhaben zur Erforschung von RBA dar. Innerhalb des Vorhabens konnte bereits eine Grundlagenstudie und eine darauf aufbauende Laborstudie durchgeführt werden. Wir präsentieren erste Ergebnisse dieser Studien und geben einen Ausblick auf weitere Schritte.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Die Hough-Transformation liefert die Parameter von in einem Bild vorkommenden Geraden. Durch die Kameraverzerrung werden die in der realen Welt vorkommenden Geraden jedoch nicht mehr auf Geraden abgebildet. Dies führt dazu, dass im Hough-Raum die entsprechenden Geradenpunkte nicht mehr auf den gleichen Punkt abgebildet werden. Durch Variation der Verzerrungsparameter mit Hilfe eines bereits vorliegenden Optimierungsprogrammes ist eine Korrektur zu ermitteln. Dabei sollen drei unterschiedliche Ansätze miteinander verglichen werden. Bildmaterial sollte Aufnahmen von Testobjekten und Gebäuden sein.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.