Refine
Year of publication
Document Type
- Master's Thesis (39)
- Bachelor Thesis (19)
- Article (4)
- Conference Proceeding (4)
- Book (1)
- Contribution to a Periodical (1)
Has Fulltext
- yes (68)
Keywords
- ImageJ (7)
- Bildqualität (4)
- Bildverarbeitung (4)
- Image Processing (4)
- Probekörper <Werkstoffprüfung> (4)
- Detektion (3)
- Modulationsübertragungsfunktion (3)
- Tone Mapping (3)
- Authentifikation (2)
- Browser (2)
Faculty
- Fakultät 07 / Institut für Medien- und Phototechnik (68) (remove)
Im Rahmen dieser Bachelorarbeit wurde der von Debevec und Malik verwendete Algorithmus zur Erstellung von HDR-Bildern als Plugin für die Bildverarbeitungssoftware ImageJ implementiert. Darüber hinaus wurde die Implementierung durch Tests auf ihre Funktionalität überprüft und Schwachstellen des Algorithmus erläutert. Durch Modifizierungen des erstellten Plugins wurden einige Schwächen des Algorithmus verbessert.
High-quality rendering of spatial sound fields in real-time is becoming increasingly important with the steadily growing interest in virtual and augmented reality technologies. Typically, a spherical microphone array (SMA) is used to capture a spatial sound field. The captured sound field can be reproduced over headphones in real-time using binaural rendering, virtually placing a single listener in the sound field. Common methods for binaural rendering first spatially encode the sound field by transforming it to the spherical harmonics domain and then decode the sound field binaurally by combining it with head-related transfer functions (HRTFs). However, these rendering methods are computationally demanding, especially for high-order SMAs, and require implementing quite sophisticated real-time signal processing. This paper presents a computationally more efficient method for real-time binaural rendering of SMA signals by linear filtering. The proposed method allows representing any common rendering chain as a set of precomputed finite impulse response filters, which are then applied to the SMA signals in real-time using fast convolution to produce the binaural signals. Results of the technical evaluation show that the presented approach is equivalent to conventional rendering methods while being computationally less demanding and easier to implement using any real-time convolution system. However, the lower computational complexity goes along with lower flexibility. On the one hand, encoding and decoding are no longer decoupled, and on the other hand, sound field transformations in the SH domain can no longer be performed. Consequently, in the proposed method, a filter set must be precomputed and stored for each possible head orientation of the listener, leading to higher memory requirements than the conventional methods. As such, the approach is particularly well suited for efficient real-time binaural rendering of SMA signals in a fixed setup where usually a limited range of head orientations is sufficient, such as live concert streaming or VR teleconferencing.
Motion capturing plays an important role in computer animation and combines many different fields of research in media engineering, such as camera calibration, marker detection via image processing and 3D reconstruction. Most professional motion capture systems are distributed proprietarily by a handful of companies and do not grant much insight into detailed workflows. The motivation for the project this thesis is based on was to autonomously develop a simpler, yet similar system, which would capture static poses of a puppet. This thesis points out the designing steps of this system and illustrates how many of the aforementioned aspects of motion capturing are answered using the example of the stop-motion capture system, thus building a basis for the comprehension of more complex systems.
Diese Arbeit behandelt die physikalisch plausible Bildsynthese virtueller Szenen anhand strahlungsphysikalischer Größen sowie physikalisch plausibler Beleuchtungsmodelle in Kombination mit qualitativ hochwertigem Schattenwurf. Verschiedene Modelle und Verfahren werden untersucht und in einer Echtzeitumgebung implementiert.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Web browsers use HTTP caches to reduce the amount of data to be transferred over the network and allow Web pages to load faster. Content such as scripts, images, and style sheets, which are static most of the time or shared across multiple websites, are stored and loaded locally when recurring requests ask for cached resources. This behaviour can be exploited if the cache is based on a naive implementation. This paper summarises possible attacks on the browser cache and shows through extensive experiments that even modern web browsers still do not provide enough safeguards to protect their users. Moreover, the available built-in as well as addable cache controls offer rather limited functionality in terms of protection and ease of use. Due to the volatile and inhomogeneous APIs for controlling the cache in modern browsers, the development of enhanced user-centric cache controls remains -until further notice- in the hands of browser manufacturers.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
Ziel dieser Arbeit ist es, herauszufinden, ob der Parameter der fraktalen Dimension in Zukunft nützlich sein könnte für die computergestützte Auswertung von Mammographien. Dies gilt insbesondere für die Detektion architektonischer Störungen im Brustparenchym, die zuweilen durch den Radiologen schwer ausfindig zu machen sind. Die fraktale Dimension ist deshalb als Parameter so interessant, weil sie auf der Eigenschaft der Selbstähnlichkeit beruht. Eine Selbstähnlichkeit in der Struktur könnte auch das Brustgewebe haben, da Gewebewachstum ein fortlaufender Prozess ist, bei dem sich wiederholend die gleichen Formen herausbilden. Kommt es hier zu pathologischen Veränderungen, so ist dieser Ablauf unterbrochen und die Strukturen verändern sich.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Durch den hohen Bedienkomfort und die übersichtliche Darstellungsweise sind berührungsempfindliche Bildschirme eines der wichtigsten Eingabegeräte geworden. Neben den technischen Aspekten wie der Bildwiedergabetechnik, der Touchscreen-Technologie und der Mediensteuerung, wird in dieser Arbeit die Mensch-Computer-Interaktion beschrieben. Ziel der vorliegenden Diplomarbeit ist die Gestaltung einer intuitiven ouchpaneloberfläche zur Steuerung medientechnischer Anlagen, welches am Beispiel eines Videokonferenzraumes beschrieben wird.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
Due to the COVID-19 pandemic, university students worldwide have experienced drastic changes in their academic and social lives, with the rapid shift to online courses and contact restrictions being reported among the major stressors. In the present study, we aimed at examining students’ perceived stress over the course of the pandemic as well as individual psychological and social coping resources within the theoretical framework of the Transactional Model of Stress and Coping in the specific group of STEM students. In four cross-sectional studies with a total of 496 computer science students in Germany, we found that students reported significantly higher levels of perceived stress at both measurement time points in the second pandemic semester (October/November 2020; January/February 2021) as compared to the beginning of the first (April/May 2020), indicating that students rather became sensitized to the constant pandemic-related stress exposure than habituating to the “new normal”. Regarding students’ coping resources in the higher education context, we found that both high (a) academic self-efficacy and (b) academic online self-efficacy as well as low (c) perceived social and academic exclusion among fellow students significantly predicted lower levels of students’ (d) belonging uncertainty to their study program, which, in turn, predicted lower perceived stress at the beginning of the first pandemic semester. At the beginning of the second pandemic semester, we found that belonging uncertainty still significantly mediated the relationship between students’ academic self-efficacy and perceived stress. Students’ academic online self-efficacy, however, no longer predicted their uncertainty about belonging, but instead had a direct buffering effect on their perceived stress. Students’ perceived social and academic exclusion among fellow students only marginally predicted their belonging uncertainty and no longer predicted their perceived stress 6 months into the pandemic. We discuss the need and importance of assessing and monitoring students’ stress levels as well as faculty interventions to strengthen students’ individual psychological and social coping resources in light of the still ongoing pandemic.
Durch die rasante technologische Entwicklung der digitalen Cinematographie sind nicht nur neue Daten-Kameras entwickelt worden, sondern es wurden auch neue Objektive, sowohl für die digitale als auch für die analoge Filmwelt entwickelt. Ziel dieser Arbeit ist es, einen weitgehend praxisbezogenen Überblick über das aktuelle Angebot an Objektiven, sowohl für die analoge als auch für die digitale Cinematographie zu erstellen. Weiterhin werden Entscheidungskriterien und Qualitätsparameter dargestellt. Technische und finanzielle Unterschiede werden kurz erläutert. Zum Einstieg hierfür wird eine allgemeine Einführung in die physikalisch-optischen Grundlagen vorangesetzt. Dem folgt ein Abriss über die in der Praxis angewendeten Mess- und Prüfgeräte. Ergänzend befindet sich eine ausführliche Zusammenstellung mit den Detailinformationen zu einzelnen Objektiven im Anhang.
Im Rahmen dieser Bachelorarbeit wurde erfolgreich erarbeitet, dass mit Hilfe der Hough-Transformation aus Bildern der realen Welt die inneren Kameraparameter optisches Zentrum und Brennweite mit hinreichender Annäherung automatisch bestimmt werden können. Umgesetzt wurde der Algorithmus in Java als Plug-In für das Open Source Bildverarbeitungsprogramm ImageJ. Zur Bestimmung der Fluchtpunkte wird die Hough- Transformation innerhalb des Plug-Ins zweimal durchgeführt. Es eignet sich für Aufnahmen von Gebäuden und ähnlichen rechtwinkligen Strukturen.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
Musik Frequenzen Formeln
(2018)
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
In dieser Diplomarbeit wird ein neues Verfahren für den automatischen Weißabgleich einer digitalen Kamera beschrieben. Das Verfahren bestimmt die beleuchtende Lichtfarbe durch Messung von polarisierten Reflexen. Die Arbeit untersucht mit diesem Verfahren Reflexe an verschiedenen Oberflächen. Herausgearbeitet werden die kritischen Situationen der Anwendung. Dies geschieht im Hinblick auf die spätere Optimierung des Verfahrens.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Die vorliegende Arbeit behandelt eine Marktuntersuchung der Portraitfotografie in Deutschland und in China. Dazu ist eine Umfrage erforderlich. Da eine repräsentative Befragung Grundgesamtheit „Bevölkerung Deutschlands“ im Rahmen einer Diplomarbeit nicht möglich ist, soll eine Internetumfrage durchführt werden. Hierbei liegt der Schwerpunkt auf der Marktentwicklung und Zukunftchancen der Portraitfotoindustrie in Deutschland.
In der vorliegenden Arbeit wird ein softwaregestütztes Verfahren vorgestellt, mit dem untersucht werden kann, wie weit die Dosis in der Mammographie abgesenkt werden kann. Die entwickelte Software analysiert dabei die jeweilige Modalität anhand von Aufnahmen des PAS 1054-Prüfkörpers. Die erfassten Daten werden verwendet, um an vorhandenen Mammogrammen eine Dosisreduktion zu simulieren. Dazu kommen Verfahren der Bildverarbeitung, insbesondere die Wavelet-Transformation zum Einsatz. Durch eine vergleichende Auswertung der simulierten Aufnahmen mit den originalen können Grenzwerte für die diagnostische Tauglichkeit von Aufnahmen mit reduzierter Dosis gewonnen werden.
In dieser Bachelorarbeit wird ein Verfahren zur HDR-Bilderstellung vorgestellt und mit anderen Verfahren verglichen, das eine beliebige Belichtungsreihe verarbeitet und auf der Erstellung von Histogrammen der Helligkeitsverhältnisse zwischen den Aufnahmen basiert. Der Algorithmus wurde in Java als Plugin für die Bildverarbeitungssoftware ImageJ implementiert.
Diese Arbeit befasst sich mit der Thematik des Live-Streamings und webbasierter Medien-übertragung. Im Fokus steht in diesem Zusammenhang der Adobe Flash Media Server 3.0 als Streaming-Plattform sowie Adobe Flash CS3 als Entwicklungsumgebung. Neben den theoretischen Grundlagen wird die praktischen Umsetzung in Form einer iTVG-Applikation für einen exemplarischen Anwendungszweck eingehend erläutert. Dabei werden sowohl der technische Hintergrund der Programmierung wie auch die Methoden und Prinzipien des interakti-ven Designs, der Usability, diskutiert und in den Entwicklungsprozess integriert. Die Flash-Media Applikation wird abschließend einer kritischen Betrachtung unterzogen, um mögliche Fehlerquellen sowie weitere Entwicklungspotentiale aufzuzeigen.
Microphone arrays consisting of sensors mounted on the surface of a rigid, spherical scatterer are popular tools for the capture and binaural reproduction of spatial sound scenes. However, microphone arrays with a perfectly spherical body and uniformly distributed microphones are often impractical for the consumer sector, in which microphone arrays are generally mounted on mobile and wearable devices of arbitrary geometries. Therefore, the binaural reproduction of sound fields captured with arbitrarily shaped microphone arrays has become an important field of research. In this work, we present a comparison of methods for the binaural reproduction of sound fields captured with non-spherical microphone arrays. First, we evaluated equatorial microphone arrays (EMAs), where the microphones are distributed on an equatorial contour of a rigid, spherical 1.
Second, we evaluated a microphone array with six microphones mounted on a pair of glasses. Using these two arrays, we conducted two listening experiments comparing four rendering methods based on acoustic scenes captured in different rooms2. The evaluation includes a microphone-based stereo approach (sAB stereo), a beamforming-based stereo approach (sXY stereo), beamforming-based binaural reproduction (BFBR), and BFBR with binaural signal matching (BSM). Additionally, the perceptual evaluation included binaural Ambisonics renderings, which were based on measurements with spherical microphone arrays. In the EMA experiment we included a fourth-order Ambisonics rendering, while in the glasses array experiment we included a second-order Ambisonics rendering. In both listening experiments in which participants compared all approaches with a dummy head recording we applied non-head-tracked binaural synthesis, with sound sources only in the horizontal plane. The perceived differences were rated separately for the attributes timbre and spaciousness. Results suggest that most approaches perform similarly to the Ambisonics rendering. Overall, BSM, and microphone-based stereo were rated the best for EMAs, and BFBR and microphone-based stereo for the glasses array.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
Die Entwicklung in Technik und Elektronik ermöglicht es, medizinische Bilder in elektronischer Form zu speichern, zu verarbeiten und darzustellen. Der Austausch von Patientendaten wird vereinfacht und der Informationstransfer beschleunigt. Diagnose und Befundungen über Netzwerke sind möglich und eröffnen neue Möglichkeiten in der medizinischen Kommunikation. Für die Gewährleistung der Wiedergabekonstanz von Bildwiedergabesystemen wie CRT- und LCD-Monitore sind Richtlinien notwendig, die messbare Parameter definieren.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
Fernseh- und Videobilder in Fernsehsendungen oder in digitalen Videoarchiven, aber beispielsweise auch auf Grafiken basierende Inhalte von Internetseiten enthalten eine große Anzahl von in sie eingebetteten Texten. Die Lokalisierung und Erkennung dieser Texte eröffnet eine Vielzahl von Anwendungsmöglichkeiten. So können Texte beispielsweise als Ergebnis der Suche und Verarbeitung von großen digitalen Videoarchiven mit Inhalten von Nachrichtensendungen oder Dokumentationen zum Erstellen von Datenbanken dienen. Da in Nachrichtensendungen sehr oft Einblendungen von Orten, Namen, Uhrzeiten oder sonstigen Informationen vorhanden sind, können diese Grundlage für Datenbanken werden, durch die sehr schnell auf einzelne Beiträge zugegriffen werden kann. Auch dienen diese Datenbanken der Verknüpfung unterschiedlicher Inhalte von Beiträgen miteinander. Für Firmen die im Fernsehen Werbung schalten ist es von Interesse zu überprüfen, ob und gegebenenfalls wann der eigene Werbespot gesendet wurde. Auch hier wäre eine automatische Erkennung von Schriftzügen wie beispielsweise des Produktnamens und die gleichzeitige Aufzeichnung der Uhrzeit und des Sendekanals von Interesse. Eine weitere Anwendung ist die Erkennung von Inhalten in Webseiten welche nicht textbasiert sind, also zum Beispiel in Flash oder ähnlichen Formaten vorliegen. Auf die in diesen Seiten hinterlegten Informationen können Standard-Suchmaschinen nicht zugreifen, weshalb die Informationen bei einer Suchanfrage nicht berücksichtigt werden. An diese Problem und die Anwendungsmöglichkeiten anknüpfend, ist es das Ziel die ser Arbeit Möglichkeiten zur Erkennung von in Fernsehbildern eingebetteten Schriften, wie beispielsweise ”www.schrift-im-videobild.de” aufzuzeigen und als reinen ASCII-Text zu extrahieren. Dazu wurde eine Sammlung von verschiedenen Testbildern erstellt, die unterschiedliche von den Fernsehanstalten eingeblendete Texte enthalten. Darüber hinaus soll ein Programm mit Hilfe der Programmiersprache C++ erstellt werden, das die Testvorlagen für eine Texterkennung durch kommerzielle Optical Character Recognition (OCR) Software, wie sie für die Erkennung von reinen Binärbildern (zum Beispiel eingescannte Schreibmaschinentexte) genutzt wird, vorverarbeitet. Um dieses zu erreichen wurden Möglichkeiten untersucht, die im Bild enthaltenen Schriften zu detektieren, zu segmentieren und in einem weiteren Verarbeitungsschritt in ein neues Bild zu extrahieren, wobei das schlussendliche Bildresultat nach Möglichkeit nur noch schwarze Schrift vor weißem Hintergrund enthalten soll.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.
In dieser Bachelorarbeit werden die Grenzwerte der stereoskopischen Seheindrücke, in Bezug auf parallaktische Verschiebungen und dem Raumwinkel, empirisch ermittelt und mit bekannten Grenzwerten verglichen. Die Ermittlung der Grenzwerte erfolgte durch einen empirischen Test mit einer repräsentativen Personengruppe. In dem Ergebnis wird u. a. die Raumwinkeldefinition nach Lüscher bekräftigt. Neue Grenzwerte werden im Bereich der Parallaxengröße definiert.
Um Strahlenschäden zu vermeiden und die Aufnahmequalität der Röntgenbilder in der Veterinärmedizin zu verbessern, wurde im Rahmen dieser Arbeit ein Konzept für einen „Digitaler Aufnahmehelfer für die Kleintierradiologie“ entwickelt. Bei der Produktion dieser flashbasierten Software wurden beispielhaft computergenerierte Grafiken (CGI) und 3D-Animationen erstellt. Ebenso wurden Belichtungstabellen eingebunden. Diese wurden in Zusammenarbeit mit der Tierhochschule Hannover und der Firma Gierth X-Ray international erarbeitet. Es ergaben sich Belichtungswerte, die auf physikalischen Grundlagen beruhen.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
Ziel dieser Arbeit ist die Automatisierung von Prüfverfahren, welche in der PAS 1054 definiert sind und in der digitalen Mammographie ihre Anwendung finden. Dazu standen Aufnahmen eines Prototypen des in der PAS beschriebenen Prüfkörpers zur Verfügung, die mit dem Sectra MDM angefertigt wurden. Anhand dessen konnte mit der Programmiersprache Java und unter Verwendung der Software ImageJ ein Programm geschrieben werden, welches die automatische Analyse der Bilddaten ermöglicht. Eine übersichtliche Benutzeroberfläche und die Ausgabe von Ergebnissen, die auf das Wesentliche reduziert sind, gewährleisten eine zeitsparende und effektive Handhabung.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
In der vorliegenden Bachelorarbeit werden Objektive und deren Eigenschaften hinsichtlich ihrer Eignung für die Time-of-Flight Technologie in Verwendung mit dem PMD[vision]®CamCube3.0 untersucht. Dabei wird zunächst die Scharfstellung geprüft und analysiert. Desweiteren werden System-MTF-Kurven von verschiedenen Objektiven in unterschiedlichen Entfernungen gemessen. Die Objektive werden untereinander verglichen und die gemessenen Werte den Hersteller-MTF-Kurven gegenübergestellt. Außerdem wird eine Simulation zur Berechnung des aus einer nicht perfekten Modulationsübertragung resultierenden Phasenfehlers durchgeführt und analysiert.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
In der Diplomarbeit wurden die lichttechnischen Eigenschaften einer Bildwand für die Rückprojektion untersucht. Die Projektion erfolgte mit einem Beamer. Die Bildwand bestand aus einer Streuscheibe und einer Fresnellinse. Die horizontale und vertikale Abstrahlcharakteristik, der Transmissionsgrad und die maximal mögliche Leuchtdichtemodulation wurden bestimmt. Die Abstrahleigenschaften der Streuscheibe und ihr Reflexionsgrad wurden gemessen. Dies ermöglicht den Einfluss von Streulicht abzuschätzen. Mit Hilfe eines Spaltes und eines selbst erstellten Computerprogramms wurde die Modulationsübertragungsfunktion in horizontaler und vertikaler Ausrichtung berechnet. Abschließend werden die Grundprinzipien für den Aufbau einer Rückprojektionseinrichtung diskutiert.
Diese Arbeit beschreibt einen optischen Aufbau zur Herstellung von Holografisch-Optischen Elementen. Der Aufbau nutzt dabei einen räumlichen Lichtmodulator, um die Phasenverteilung eines ebenen Wellenfelds gezielt zu manipulieren. Das Wellenfeld wird mithilfe eines 4f-Aufbaus einer optischen Filterung unterzogen und anschließend mit einer Referenzwelle überlagert. Die Inten- sitätsverteilung des Interferenzmusters, das bei dieser Überla- gerung entsteht, wird in ein Fotopolymer belichtet. Die Belich- tung regt dabei Polymerisationsprozesse im Fotopolymer an, die zu einer räumlichen Modulation des Brechungsindex führen. So- mit kann eine definierte räumliche Phasenverteilung in das Foto- polymer geschrieben werden, welches als Holografisch-Optisches Element bezeichnet wird. Aufgrund der geringen Dauer des ge- samten Prozesses wird dieser als Rapid Prototyping bezeichnet.
In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
In dieser Bachelorarbeit werden der automatische Weißabgleich dreier Digitalkameras mit einem neuen Weißabgleich-Verfahren, dass derzeit von der Fachhochschule Köln entwickelt wird, verglichen. Eine Anzahl von Fotos in verschiedenen Situationen werden dafür erstellt, die zum Vergleich anhand verschiedener Parameter ausgewertet werden. Die Ergebnisse zeigen die Unterschiede zwischen den Verfahren der drei Kameras und dem neuen Verfahren auf, das die Lichtfarbe einer Beleuchtungsquelle durch Messung polarisierter Reflexe ermittelt, statt, wie bei anderen Weißabgleich-Verfahren üblich, anhand von Schätzungen. Die Verfahren werden so auf ihre Tauglichkeit im alltäglichen Einsatz und im Hinblick auf die Optimierung des neuen Verfahrens getestet.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
Die detektive Quantenausbeute (DQE) erlaubt eine umfassende Charakterisierung bildgebender Systeme, da sie sowohl etwas über das Auflösungsvermögen, als auch über die Rauscheigenschaften des Systems aussagt. Im Rahmen dieser Arbeit wurde die DQE zweier digitaler Mammographie-Einrichtungen bestimmt, wobei für vergleichbare Dosisniveaus folgende Ergebnisse erzielt wurden: Für eine Ortsfrequenz von einem Lp/mm beträgt die DQE des indirekten Systems ca. 42% und die des direkten Systems auf Basis von amorphem Selen ca. 62%.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Die Hough-Transformation liefert die Parameter von in einem Bild vorkommenden Geraden. Durch die Kameraverzerrung werden die in der realen Welt vorkommenden Geraden jedoch nicht mehr auf Geraden abgebildet. Dies führt dazu, dass im Hough-Raum die entsprechenden Geradenpunkte nicht mehr auf den gleichen Punkt abgebildet werden. Durch Variation der Verzerrungsparameter mit Hilfe eines bereits vorliegenden Optimierungsprogrammes ist eine Korrektur zu ermitteln. Dabei sollen drei unterschiedliche Ansätze miteinander verglichen werden. Bildmaterial sollte Aufnahmen von Testobjekten und Gebäuden sein.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Risikobasierte Authentifizierung (RBA) ist eine adaptive Sicherheitsmaßnahme zur Stärkung passwortbasierter Authentifizierung. Sie zeichnet Merkmale während des Logins auf und fordert zusätzliche Authentifizierung an, wenn sich Ausprägungen dieser Merkmale signifikant von den bisher bekannten unterscheiden. RBA bietet das Potenzial für gebrauchstauglichere Sicherheit. Bisher jedoch wurde RBA noch nicht ausreichend im Bezug auf Usability, Sicherheit und Privatsphäre untersucht. Dieser Extended Abstract legt das geplante Dissertationsvorhaben zur Erforschung von RBA dar. Innerhalb des Vorhabens konnte bereits eine Grundlagenstudie und eine darauf aufbauende Laborstudie durchgeführt werden. Wir präsentieren erste Ergebnisse dieser Studien und geben einen Ausblick auf weitere Schritte.
Online services such as social networks, online shops, and search engines deliver different content to users depending on their location, browsing history, or client device. Since these services have a major influence on opinion forming, understanding their behavior from a social science perspective is of greatest importance. In addition, technical aspects of services such as security or privacy are becoming more and more relevant for users, providers, and researchers. Due to the lack of essential data sets, automatic black box testing of online services is currently the only way for researchers to investigate these services in a methodical and reproducible manner. However, automatic black box testing of online services is difficult since many of them try to detect and block automated requests to prevent bots from accessing them.
In this paper, we introduce a testing tool that allows researchers to create and automatically run experiments for exploratory studies of online services. The testing tool performs programmed user interactions in such a manner that it can hardly be distinguished from a human user. To evaluate our tool, we conducted - among other things - a large-scale research study on Risk-based Authentication (RBA), which required human-like behavior from the client. We were able to circumvent the bot detection of the investigated online services with the experiments. As this demonstrates the potential of the presented testing tool, it remains to the responsibility of its users to balance the conflicting interests between researchers and service providers as well as to check whether their research programs remain undetected.
Risk-based authentication (RBA) is an adaptive security measure to strengthen password-based authentication. RBA monitors additional implicit features during password entry such as device or geolocation information, and requests additional authentication factors if a certain risk level is detected. RBA is recommended by the NIST digital identity guidelines, is used by several large online services, and offers protection against security risks such as password database leaks, credential stuffing, insecure passwords and large-scale guessing attacks. Despite its relevance, the procedures used by RBA-instrumented online services are currently not disclosed. Consequently, there is little scientific research about RBA, slowing down progress and deeper understanding, making it harder for end users to understand the security provided by the services they use and trust, and hindering the widespread adoption of RBA.
In this paper, with a series of studies on eight popular online services, we (i) analyze which features and combinations/classifiers are used and are useful in practical instances, (ii) develop a framework and a methodology to measure RBA in the wild, and (iii) survey and discuss the differences in the user interface for RBA. Following this, our work provides a first deeper understanding of practical RBA deployments and helps fostering further research in this direction.
Die Blockchain ist nicht nur im Bereich der Finanzwelt angekommen, auch andere Branchen versuchen sich an ihrer Anwendung. In diesem Artikel werden Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vorgestellt, indem die zugehörigen Veröffentlichungen referiert und diskutiert werden. Die Anwendungsbereiche variieren aktuell über den Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.
In this work, we propose a novel data-driven approach to recover missing or corrupted motion capture data, either in the form of 3D skeleton joints or 3D marker trajectories. We construct a knowledge-base that contains prior existing knowledge, which helps us to make it possible to infer missing or corrupted information of the motion capture data. We then build a kd-tree in parallel fashion on the GPU for fast search and retrieval of this already available knowledge in the form of nearest neighbors from the knowledge-base efficiently. We exploit the concept of histograms to organize the data and use an off-the-shelf radix sort algorithm to sort the keys within a single processor of GPU. We query the motion missing joints or markers, and as a result, we fetch a fixed number of nearest neighbors for the given input query motion. We employ an objective function with multiple error terms that substantially recover 3D joints or marker trajectories in parallel on the GPU. We perform comprehensive experiments to evaluate our approach quantitatively and qualitatively on publicly available motion capture datasets, namely CMU and HDM05. From the results, it is observed that the recovery of boxing, jumptwist, run, martial arts, salsa, and acrobatic motion sequences works best, while the recovery of motion sequences of kicking and jumping results in slightly larger errors. However, on average, our approach executes outstanding results. Generally, our approach outperforms all the competing state-of-the-art methods in the most test cases with different action sequences and executes reliable results with minimal errors and without any user interaction.