Open Access
Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (147)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (52)
- Study Thesis (47)
- Working Paper (46)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (584)
- English (313)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (71)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (51)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Interaktive Systeme können ihre Nutzer bei der Erledigung alltäglicher Aufgaben, sowie beim Lernen unterstützen oder dienen der Unterhaltung. Sie können den Nutzer jedoch auch bei der Lösung eines bestimmten Problems unterstützen, wobei es sich hierbei häufig um sehr komplexe Probleme handelt. Diese lassen sich oftmals nicht klar definieren oder werden erst im Laufe der Entwicklung eindeutig identifiziert. Bei der Untersuchung der Probleme muss aufgrund ihrer Komplexität häufig multiperspektivisch vorgegangen werden, um möglichst alle Dimensionen potentieller Lösungen zu berücksichtigen. Eine Entwicklung in multidisziplinären Teams unter Einbeziehung der Kunden und zukünftiger Nutzer ist daher ratsam. Durch die multidisziplinäre Zusammensetzung von Entwicklungsteams können Kommunikations- und Verstädigungsschwierigkeiten auftreten, die sich aus der spezifischen Fachsprache der Domäne und individuellen Denkmustern ergeben. In dieser Arbeit wurde unter Berüksichtigung prozeduraler und kognitionspsychologischer Aspekte ein Ansatz entwickelt, um den Prozess der Problemlösung im Entwicklungsprozess zu unterstützen. Es wurde untersucht, inwieweit die Verwendung von Kreativitätstechniken in einem frühen Stadium des Entwicklungsprozesses zur Verbesserung des Verständnisses über die Aufgabe, sowie der Kommunikation zwischen den beteiligten Personen geeignet ist.
Motion capturing plays an important role in computer animation and combines many different fields of research in media engineering, such as camera calibration, marker detection via image processing and 3D reconstruction. Most professional motion capture systems are distributed proprietarily by a handful of companies and do not grant much insight into detailed workflows. The motivation for the project this thesis is based on was to autonomously develop a simpler, yet similar system, which would capture static poses of a puppet. This thesis points out the designing steps of this system and illustrates how many of the aforementioned aspects of motion capturing are answered using the example of the stop-motion capture system, thus building a basis for the comprehension of more complex systems.
Die Gebrauchstauglichkeit eines Produktes hat sich zu einem entscheidenden Qualitätskriterium in der Softwareentwicklung entwickelt. Neben den Nutzern erkennen auch immer mehr Organisationen den Mehrwert von gebrauchstauglichen Produkten, insbesondere die steigende Produktivität, die verbesserte Qualität und den damit verbunden Profit. In Praxis und Wissenschaft wird daher derzeit dem Wunsch nachgegangen, Usability Engineering und Software Engineering zu integrieren. In dieser Arbeit werden Standards der beiden Disziplinen in Bezug auf Aktivitäten und Artefakte analysiert, welche in einem ganzheitlichen Modell zur Integration von Usability Engineering und Software Engineering abgebildet werden sollen. So sollen mögliche Anknüpfungspunkte zwischen Aktivitäten und Artefakten aufgezeigt werden. Ziel ist die Evaluation dieses Modells anhand von Konformitäts- und Rahmenanforderungen, sowie durch eine Expertenbefragung.
Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch -- technisch betrachtet -- ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
Die folgende Arbeit hat den Titel "Bibliotheksgebühren: Gebührenmodelle, Rahmen- bedingungen der Erhebung und Auswirkungen auf die Nutzung. Ein Vergleich verschiedener Öffentlicher Bibliotheken in Nordrhein-Westfalen." Ziel der Arbeit ist es herauszufinden, ob es Auswirkungen von Bibliotheksgebühren auf die Nutzung Öffentlicher Bibliotheken gibt, und wenn ja, welcher Art diese Auswirkungen sind. Abschließend sollen Empfehlungen zur Gestaltung eines Gebührenmodells gegeben werden. Es werden vorhandene empirische Erhebungen zu der Thematik ausgewertet, und eine Umfrage unter den Leitungen der Bibliotheken der Städte Dortmund, Düsseldorf, Bonn, Münster, Hamm, Witten und Hürth durchgeführt. Die verschiedenen Bibliotheken und ihre Gebühren-, bzw. Entgeltmodelle werden miteinander verglichen. Um die Ergebnisse der Umfrage bewerten zu können, werden die Städte außerdem anhand verschiedener Indikatoren vorgestellt.
Aquest recull conté poemes d´Aina Torrent escrits en llengua catalana durants els anys 2007 i 2008. Es tracta d´un volum quatrilingüe (català, castellà, alemany, romanès).
Die Begriffe iPhone und Blackberry stehen schon seit einiger Zeit für hochentwickelte Mobiltelefone mit einem großen Repertoire an Fähigkeiten. Neben diesen Geräten entwickelten diverse Hersteller weitere Smartphones und all diese finden eine immer größer werdende Zielgruppe. Mitverantwortlich für diesen Trend ist die Entstehung der verschiedenen Plattformen für „Apps“ oder Applikationen, die eine große Vielfalt an Erweiterungsmöglichkeiten für diese Geräte bieten. Diese Entwicklung sorgte für erste Entstehungen im Bibliotheksbereich. Beginnend mit einer Analyse der Möglichkeiten zur technischen Realisierung im ersten Teil, werden im zweiten Abschnitt bestehende Angebote vorgestellt und hinsichtlich ihres Nutzens analysiert. Weitere bearbeitete Aspekte stellen zukünftig denkbare Entwicklungen, den personellen und finanziellen Aufwand sowie Erkenntnisse aus einer E-Mail-Befragung dar.
Diese Arbeit befasst sich mit der Problematik der Zugriffe auf nachrichtenorientierte Kommunikationsdienste von mobilen Geräten. Da diese Kommunikationsdienste nicht dafür ausgelegt sind via Netzwerk zugänglich zu sein, sondern nur lokal in der gleichen virtuellen Maschine ausgeführt werden können, wird ein zusätzlicher Dienst entwickelt der diesen Zugriff möglich macht. Zusätzlich beinhaltet er die verarbeitende Komponente und fungiert somit als Schnittstelle. Es wird detailliert darauf eingegan- gen wie genau ein Lösungsansatz aussehen könnte, in Rücksichtnahme auf gewählte Softwarekomponenten. Eine Abwägung der jeweiligen Komponenten und Darstellung der Alternativen, sowie eine Diskussion des Problem- sowie Lösungsraums, gehen dem Ganzen voraus. Im Mittelpunkt der Arbeit steht die Verarbeitung der Anfragen und Weiterleitung an bestehende nachrichtenorientierte Systeme mittels Web Services, sowie ihre Darstellung. Somit wird die Funktionalität eines solchen Systems, in diesem Fall Java Message Service, genutzt um eine Kommunikation zwischen diversen Nutzern zu etablieren. Der Gedanke dabei ist, einen Nachrichtenaustausch zwischen diesen, mittels wohl definierter Schnittstellen, zu ermöglichen. Weiterhin wird die Funktion anhand einer prototypischen Implementation demonstriert und ein Ausblick gegeben in wie weit sich dieser Prototyp erweitern lässt um dem Gesamtkonzept zu genügen.
Mobile Systeme haben sich fest in den Alltag des Menschen in der westlichen Welt integriert. Sie helfen bei der Erledigung von Aufgaben der Benutzer und versuchen, deren Bedürfnisse bestmöglich zu erfüllen. Um dies zu erreichen, wurden verschiedene Lösungen entwickelt, dazu gehören kontextsensitive Anwendungen, die sich dadurch auszeichnen, dass sie ihr Verhalten nach den Belangen der Benutzer, bestimmt durch die jeweilige Situation, anpassen können. Zur Entwicklung solcher Anwendungen gibt es Rahmenwerke, um Problemen, bedingt durch die Komplexität dieses Bereiches, vorzubeugen und die Entwicklung zu erleichtern. Dabei spielt auch die Fähigkeit dieser Rahmenwerke, mehrere Anwendungen gleichzeitig zu bedienen, gerade bei steigender Popularität von kontextsensitiven Applikationen, eine entscheidende Rolle. Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung des Multiprozessbetriebes für kontextsensitive Anwendungen auf Basis eines bestehenden Rahmenwerkes. Innerhalb der Arbeit werden Anforderungen für den Multiprozessbetrieb ermittelt, auf deren Basis ein Konzept zur Erweiterung des Rahmenwerkes erstellt wird. Anhand des Konzeptes wird eine Implementierung des Rahmenwerkes auf der Android-Plattform durchgeführt, welche danach mittels der Durchführung eines Testszenarios mit mehreren Anwendungen evaluiert wird.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Im Titel der vorliegenden Arbeit wird bereits herausgestellt, dass eine Architektur von der Konzeption über die prototypische Implementierung bis hin zu einer ersten Validierung betrachtet wird. Dabei soll die Architektur dienstorientiert aufgebaut sein und sich für die Realisierung von Multimediaanwendungen eignen. In dieser Arbeit wird dazu zunächst allgemein in die Thematik der Dienstorientierung eingeführt und die jeweiligen Besonderheiten im Zusammenhang mit Multimediaanwen- dungen dargelegt. Im weiteren Verlauf wird die Architektur prototypisch umgesetzt und auf Grund der Implementierung eines Anwendungsszenarios validiert.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Ein Online-Tutorial für vascoda. Theoretische Grundlegung - Konzeption - Praktische Umsetzung
(2009)
Inhalt der vorliegenden Masterarbeit ist die Konzeption und praktische Umsetzung eines Online-Tutorials (Lernprogramms) für die Benutzer des wissenschaftlichen Internetportals vascoda. In einem umfangreichen Theorieteil werden zunächst der sachliche Hintergrund (Fachportale und Funktionen des Dachportals vascoda), der didaktisch-methodische Hintergrund (Mediendidaktik, Lerntheorien, Instruktionsdesign mit besonderer Berücksichtigung von E-Learning, Begriffsgeschichte und Definitionen des Begriffs Tutorial, Informationskompetenz) sowie der technische Hintergrund (Autorenwerkzeuge) dargestellt. Auf dieser Grundlage wird eine ausführliche Planung für das vascoda-Tutorial in verschiedenen Kategorien erarbeitet (Begründung der Medienwahl, Zielgruppenanalyse, inhaltliche und didaktisch-methodische Konzeption, technische Umsetzung), an deren Ende eine detaillierte Aufstellung der Lehrinhalte und Lehrziele steht. Das Ergebnis der praktischen Umsetzung ist auf einem beiliegenden Datenträger verfügbar (ein aus vier Untermodulen bestehendes Hauptmodul des vascoda-Tutorials als exemplarischer Prototyp). Das Schlusskapitel der Arbeit enthält eine abschließende Kritik dieses produzierten Moduls und zeigt Möglichkeiten einer Weiterentwicklung auf.
Die fortschreitende Verbreitung drahtloser Kommunikationsnetze sowie immer leistungsfähigerer mobiler Computer schafft ein großes Potenzial für ein breites Spektrum innovativer Anwendungen. Kontextsensitive Applikationen adaptieren die Gegebenheiten der jeweiligen Situation des Nutzers, wodurch neuartige, intelligente Anwendungen und Benutzungsschnittstellen möglich werden. Die zunehmende Menge verfügbarer Sensortechniken und die daraus resultierende Vielfalt erfassbarer Kontextinformationen erschweren jedoch vermehrt die Verbreitung dieser Applikationen. Ein Rahmenwerk zur Kontextrepräsentation soll die Entwicklung kontextsensitiver Applikationen ohne Berücksichtigung von Details der Kontexterfassung und -verwaltung ermöglichen. Außerdem sollen Austausch und Wiederverwendbarkeit von Kontextinformationen zwischen Applikationen und Nutzern gestattet werden. In dieser Arbeit wird ein solches Rahmenwerk entwickelt. Zu Beginn steht die Untersuchung von Fragen der Kontextmodellierung, auf deren Grundlage anschließend eine Konzeption erarbeitet wird. Der praktische Teil der Arbeit führt eine Referenzimplementation des Systems durch um zu evaluieren, ob die Konzeption auf Basis aktueller Technologien in die Realität umgesetzt, und als Grundlage für weitere Untersuchungen herangezogen werden kann.
In dieser Arbeit werden Klebstoffe für die Rissverklebung an Leinenfäden getestet. Als Grundlage werden die Eigenschaften von ausgewählten Klebstoffen und von Leinenfäden vorgestellt. Es wurden Zugversuche mit 25 Klebstoffen an insgesamt über 6.000 Fäden durchgeführt. Mit den Klebstoffen Störleim-Weizenstärkekleister, Mowilith D50, Polyamid 5065 und einem Epoxidharz erfolgten weitergehende Versuche. Dabei wurde zusätzlich die Abhängigkeit der Zugbeständigkeit von der verklebenden Person getestet. Außerdem wurden aufgespannte verklebte Leinenfäden wechselnden klimatischen Bedingungen ausgesetzt und deren Zugbeständigkeit in „normalem“, extrem trockenem und extrem feuchtem Klima geprüft. Die Arbeit schließt mit einer Diskussion anhand einer Versuchsreihe zur Übertragbarkeit der Ergebnisse auf Klebungen in Gewebestrukturen. Die Ergebnisse werden durch Diagramme veranschaulicht und geben Hinweise für die Umsetzung bei der Einzelfadenverklebung am textilen Bildträger.
Durch technische und politische Veränderungen wird die Vernetzung verschiedenster gesellschaftlicher Gebiete immer leichter – so auch im Bibliotheksbereich. Vor diesem Hintergrund stellt sich die Frage, was dies für die „Bibliothekslandschaft“ Europas bedeutet: Befinden die europäischen Bibliotheken sich in einer Phase intensiver Zusammenarbeit durch Vernetzung – oder ist bereits ein arbeitsteiliges System auf europäischer Ebene im Entstehen begriffen? Nach Beschreibung der verschiedenen Infrastrukturebenen wird das Zustandekommen zweier unterschiedlicher, EU-geförderter Projekte erläutert (IMPACT und EDLnet). Zum einen, um die Bedeutung von Vernetzung für typische Projektabläufe darzustellen, zum anderen, um zu zeigen, dass Projekte als „temporäre Systeme“ funktionieren. Auf Basis der Analyse werden „Desiderate“ für die Zusammenarbeit formuliert und abschließend die Frage nach „Systembildung“ oder „Vernetzung“ beantwortet.
Seit Ende des 20. Jahrhunderts sind Kooperationen in Bibliotheken zum alltäglichen Mittel der komplexen Arbeitsbewältigung geworden. Durch die Veränderung der bibliothekarischen Umwelt, beispielsweise die Digitalisierung der Medien und das sich daraus wandelnde Nutzerverhalten, werden die Bibliotheken neuen Herausforderungen unterworfen. Diesen muss sich aufgrund der Fülle und Masse an zu bewältigenden Aufgaben kooperativ gestellt werden. Die Veränderungen veranlassen gleichzeitig neue Perspektiven der Konzeption von Kooperationen einzubeziehen. Hier bieten sich die Kooperationsforschung der Betriebswirtschaftslehre sowie die Systemtheorie Luhmannscher Prägung an. Ebenfalls sollten Kooperationsmodelle aus dem Ausland beobachtet werden, um neue Impulse für die Bildung von Kooperationen zu erlangen. Das Zusammenfassen dieser drei Ansätze führt zur Erlangung neuer Erkenntnisse im Bereich der sich verändernde Umwelt der Bibliotheken und die daraus zu schließende Reaktion in Form der Bildung geeigneter Kooperationen.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
Die vorliegende Diplomarbeit beschäftigt sich mit Senioren in Öffentlichen Bibliotheken und liefert Konzepte für eine zielgruppenspezifische Bibliotheksarbeit. Dabei werden zunächst Begrifflichkeiten geklärt und die physischen und gesellschaftlichen Besonderheiten der Zielgruppe sowie die daraus resultierenden Voraussetzungen für Bibliotheken untersucht. Anschließend werden Empfehlungen für den Bestandsaufbau gegeben und verschiedene Veranstaltungsformen und Aktionen speziell für Senioren vorgestellt. Außerdem wird sowohl auf die aktive Medienvermittlung an heim- oder hausgebundene ältere Menschen eingegangen als auch auf effektive Möglichkeiten der Öffentlichkeitsarbeit und Werbung. Ferner werden Senioren als freiwillige Mitarbeiter in Bibliotheken berücksichtigt. Am Beispiel der Stadtbibliothek Eisenach wird dann die Umsetzung unterschiedlicher Angebote für die besagte Zielgruppe und die Resonanz der Benutzer darauf dargestellt. Abschließend wird ein Ausblick auf die Entwicklung der Zielgruppenorientierung auf Senioren gegeben.
Einzelne Lebensereignisse und geschaffene Werke beinhalten häufig Bezüge zu anderen Geschehnissen oder sie werden beeinflusst durch die Beziehungen zu Mitmenschen, Herkunft, bestimmte Charaktereigenschaften, zeitgeschichtliche Ereignisse o.ä. Dem Schreibprozess einer Biographie muss ein umfassendes Verständnis dieses komplexen Systems vorausgehen, um zu verhindern, dass sich deren Inhalt auf eine chronologische Darstellung beschränkt. Am Ludwig Boltzmann Institut für Geschichte und Theorie der Biographie in Wien ist zu diesem Zweck ein biographisches Research-Wiki konzipiert worden. Dieses dient als Ablagesystem und Arbeitsinstrument für die am Institut entstehenden wissenschaftlichen Biographien. Besonders die Materialfülle des räumlich verteilten Hugo-von-Hofmannsthal-Nachlasses soll auf diese Weise besser zugänglich gemacht werden. Es ist geplant das Hofmannsthal-Wiki eventuell auch als Netzbiographie zu veröffentlichen. Zu den entscheidenden Funktionalitäten des Wikis gehören die hypertextuellen Verweise zwischen Ereignis- und Briefchronik, Themenkomplexe sowie die Gewährleistung der wissenschaftlichen Methode mittels ebenfalls hypertextuellen Referenzierungen aller Informationen. In dieser Arbeit wird untersucht, inwiefern sich Wikis und Hypertexte im Allgemeinen für einen Einsatz in der Biographieforschung eignen. Dabei werden zunächst die Eigenschaften einer Biographie und die Methoden der Biographieforschung dargestellt. Im Anschluss daran werden die Begriffe Hypertext und Wiki in den Kontext der Biographieforschung eingeordnet. Das Hugo-von-Hofmannsthal-Research-Wiki und teilweise auch das Jandl-Research-Wiki nehmen in dieser Arbeit die Funktion des Modellprojektes ein. Daher enthält die gesamte Arbeit Beispiele aus diesen beiden Datenbanken. Zusätzlich werden die Stärken und Schwächen des Hofmannsthal-Wikis in einem gesonderten Kapitel analysiert. Schließlich findet ein Vergleich mit dem Heine-Wiki, dem Heinrich-Heine-Portal und der Klagenfurter Ausgabe des Robert-Musil-Nachlasses statt. Abschließend wird ein Ausblick sowie Empfehlungen speziell in Bezug auf das Hofmannsthal-Research-Wiki, aber auch hinsichtlich des Nutzens von Wikis für die gesamte Biographieforschung, geboten.
The objective of this paper is to implement a baseband OFDM transceiver on FPGA hardware. The design uses 8-point SLT/ISLT (Slantlet/Inverse Slantlet) for the processing module with processing block of 8 inputs data wide. All modules are designed and implemented using VHDL programming language. Software tools used in this work includes Altera Quartus II 7.2 and ModelSim Altera 6.1g, to assist the design process and downloading process into FPGA board while Cyclone III board EP3C120F780C7 is used to realize the designed module.
This paper presents the design procedure and implementation results of a proposed software defined radio (SDR) using Altera Cyclone II family board. The implementation uses Matlab/SimulinkTM, Embedded MatlabTM blocks, and Cyclone II development and educational board. The design has first implemented in Matlab/SimulinkTM environment. It is then converted to VHDL level using Simulink HDL coder. The design is synthesized and fitted with Quartus II 9.0 Web Edition® software, and downloaded to Altera Cyclone II board. The results show that it is easy to develop and understand the implementation of SDR using programmable logic tools. The paper also presents an efficient design flow of the procedure followed to obtain VHDL netlists that can be downloaded to FPGA boards.
In der Arbeit wird das Thema Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef, in den Studiengängen von Hospitality Management und Tourism Management, betrachtet. In dem theoretischen Teil werden allgemeine Definitionen, Modelle und Standards von Informationskompetenz vorgestellt, und die allgemeine Bedeutung von Informationskompetenz in der Informationsgesellschaft erläutert. Es werden auch die Geschichte, Methoden und Didaktik der Vermittlung von Informationskompetenz besprochen. In dem empirischen Teil wird einerseits durch eine Umfrage an die Studenten der Fachhochschule und andererseits durch eine Analyse der Abschlussarbeiten der Stand der Vermittlung von Informationskompetenz erforscht. Durch einen Vergleich mit anderen Hochschulen mit vergleichbaren Studiengängen wird weitere Einsicht in das Thema gewonnen. Auf der Basis der Umfrage und Analyse der Abschlussarbeiten ist der Stand der Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef relativ gut, aber er könnte auch noch mit kleinen Veränderungen verbessert werden. Einige konkrete Empfehlungen zur Verbesserung werden gemacht.
Die Grundlage für diese Arbeit ist das opensource Roboterkettenfahrzeug SRV1 der Firma Surveyor [www-surveyor]. Im Auslieferungszustand ist es möglich, das Fahrzeug über ein Steuerungsprogramm fernzusteuern. Dies entspricht dem Funktionsumfang eines normalen ferngesteuerten Fahrzeugs, erweitert um eine Kamera, jedoch ohne jegliche Autonomie oder Intelligenz. Da das Fahrzeug auf einem embedded Board aufgebaut ist, welches über eine WLAN Verbindung verfügt, bietet es einen guten Ausgangspunkt für Erweiterungen. Ziel dieser Arbeit ist es eine Grundlage für autonome Fahrten zu schaffen. Als Betriebssystem wird uClinux, ein Linux für embedded Plattformen genutzt. Das Fahrzeug soll um einen zur Orientierung dienenden Kompass erweitert werden. Außerdem kommt ein RFID-Reader zum Einsatz, mit dessen Hilfe werden RFID-Transponder auf einer Teststrecke als künstliche Landmarken zur Positionsbestimmung genutzt. Es wird eine Software für autonome Fahrten entwickelt, die es ermöglicht, durch Verwendung der erweiterten Hardware, den Roboter eigenständig Punkte der Teststrecke anfahren zu lassen. Hierzu ist es erst notwendig alle Hardware im Betriebssystem, beispielsweise durch Treiber verfügbar zu machen.
Für Bibliothekare als Informationsspezialisten ist es essentiell, auf dem neuesten Stand der Entwicklungen zu bleiben und sich aus aktuellsten Quellen zu informieren und weiterzubilden. Aber auch die Vernetzung und der Austausch mit anderen fachkundigen Personen sind von Bedeutung. Ein Medium, das beide Aspekte vereint – eine aktuelle Informations- und Weiterbildungsquelle sowie die Möglichkeit der Vernetzung und des Austauschs – stellt das Weblog von und für Bibliothekare dar. In Deutschland besteht ein ausdifferenziertes Angebot bibliothekarischer Weblogs. Zentrale Fragestellung dieser Arbeit ist, ob und in welchem Maße dieses Angebot von deutschen Bibliothekaren angenommen und genutzt, das heißt rezipiert, wird. Dazu wird eine Online-Umfrage durchgeführt, welche über Mailinglisten und einige deutsche bibliothekarische Weblogs verbreitet wird. Zunächst wird das Weblog näher vorgestellt, danach folgt eine Darstellung des Hauptgegenstands dieser Arbeit – dem Fachblog und dessen aktueller Situation im bibliothekarischen Bereich in Deutschland. Nach der Vorstellung der deutschen Bibliobloglandschaft folgt eine Beschreibung des US-amerikanischen Stands von bibliothekarischen Fachblogs um im nächsten Schritt die deutsche mit der US-amerikanischen Situation zu vergleichen. Im weiteren Verlauf werden die Vorgehensweise der Online-Befragung sowie deren Auswertung und die Analyse der Auswertungsergebnisse behandelt. Eine Zusammenfassung der Ergebnisse mit Empfehlungen führt zum Abschluss der Arbeit.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.
Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
Seit den 90er Jahren des letzten Jahrtausends existieren Virtuelle Fachbibliotheken, die im Rahmen des Programms zur überregionalen Literaturversorgung von der DFG gefördert werden und mit der Verbindung von Nachweis und Zugang zu elektronischen und gedruckten wissenschaftlichen Informationen einen wichtigen Beitrag zur Fachinformationsversorgung für nahezu alle Wissenschaftsbereiche leisten. In dieser Arbeit wird überprüft, in wie fern die Virtuelle Fachbibliothek für die Medizin (Medpilot) die Anforderungen, die in der Literatur an eine Virtuelle Fachbibliothek gestellt werden erfüllt und in welcher Form die einzelnen Module umgesetzt wurden. Nach einer ausführlichen Beschreibung und einer Bewertung der einzelnen enthaltenen Module anhand definierter Kriterien werden Unterschiede zu anderen Angeboten aufgezeigt und Verbesserungsvorschläge unterbreitet.
Die World Health Organisation (WHO) beobachtet weltweit die Entwicklung der Influenzaerreger. Ein Ausbruch einer Pandemie soll dadurch schnell erkannt werden. Prinzipiell könnte jedes Influenzavirus eine Influenzapandemie auslösen. Voraussetzungen für ein pandemisches Virus wäre die Anpassung des Virus an den Menschen, eine Mensch zu Mensch-Übertragbarkeit sowie eine fehlende Immunität der Bevölkerung gegen dieses Virus. Die bedeutendste Bedrohung jedoch geht vom aviären H5N1-Virus aus. Vermutlich benötigt es nur wenige Mutationsschritte, sich zu einem pandemischen Virus zu entwickeln. Mit jedem an H5N1 verendeten Vogel und mit jeder Vogel zu Mensch-Übertragung steigt die Wahrscheinlichkeit einer Influenzapandemie durch H5N1. Ein pandemisches Influenzavirus unterscheidet sich von saisonalen Influenzaviren wahrscheinlich in vielen Eigenschaften. Die unterschiedlichen Eigenschaften der Viren und die Situation der Pandemie erfordern andere Schutzmaßnahmen als bei einer saisonalen Grippeepidemie. Ein Impfstoff für eine geeignete Schutzimpfung wird zu Beginn einer Pandemie noch nicht entwickelt und produziert sein. Der Einsatz von erfolgreichen antiviralen Medikamenten ist durch die verfügbare Menge und eine mögliche Resistenzbildung des Virus gefährdet. Der Expositionsschutz gehört daher zu den wichtigsten Schutzmaßnahmen und sollte bei Ausbruch einer Pandemie sofort verfügbar sein. Besondere Bedeutung hat der Schutz der Atemwege, da die aerogene Übertragung die wesentliche bei einer Influenzapandemie ist. Zum Schutz der Atemwege bieten sich Schutzmasken an. Empfohlen werden im nationalen Pandemieplan partikelfiltrierende Halbmasken und Mund-Nase-Schutzmasken. Welche die geeignete Maske für den Pandemiefall zum Schutz der Bevölkerung ist, kann nicht abschließend geklärt werden. Zu viele Faktoren des Erregers, die Einfluss auf die Wahl der Schutzmaske haben, sind unbekannt. Die Entwicklung von Anforderungen an eine geeignete Pandemieschutzmaske ist erforderlich. Anhand dieser Anforderungen könnten unter vergleichbaren Bedingungen vorhandene Masken auf ihre Tauglichkeit geprüft werden. Die Prüfungen der Masken müssen in einem geeigneten Labor stattfinden. Die Vorschriften, die für dieses Testlabor gelten, sind abhängig von den Prüfungen. Anhand einer Analyse und Beurteilung von Gefährdungen, die aufgrund der Durchführung der Prüfungen entstehen, sind die Vorschriften für das Labor zu ermitteln. Daraus folgende Maßnahmen u.a. zum Schutze der Beschäftigten müssen eingehalten und auf ihre Wirksamkeit überprüft werden. Die Dokumentation der Analyse und der Maßnahmen schließen die Gefährdungsbeurteilung ab.
Moderne Mobiltelefone bieten heutzutage eine Vielzahl von Funktionen, die weit über die grundlegenden Sprachdienste hinausgehen. Sie können als Terminplaner oder auch als Foto- und Videokamera genutzt werden. Die Nutzung dieser Funktionen wurde durch die steigende Leistungsfähigkeit der Geräte möglich. Mit der Entwicklung von UMTS und insbesondere den Übertragungstechniken HSDPA und HSUPA erhält das „mobile Internet" mehr und mehr Einzug auf mobilen Endgeräten. Aufgrund der hohen Leistungsfähigkeit und des Vorhandenseins der nötigen Infrastruktur können auch Videostreaming-Dienste genutzt werden. Um die Qualität einer Videoübertragung sicherzustellen, ist es notwendig, eine Software zu haben, die die Rahmenbedingung der Übertragung bestimmt und so Rückschlüsse auf die entscheidenden Parameter ermöglicht. In dieser Arbeit soll eine Software entwickelt werden, mit der es möglich ist, die Qualität einer Videoübertragung zu bewerten. Um eine möglichst hohe Qualität der Videos zu ermöglichen, müssen sie zur Übertragung effizient komprimiert werden. Einer der neuesten Standards zur Komprimierung ist H.264. Dieser Standard bietet eine durchschnittlich dreimal höhere Kompressionsrate als MPEG-2, welches beispielsweise bei der Übertragung von digitalem Fernsehen (DVB) und der Speicherung von Videodaten auf einer DVD zum Einsatz kommt. H.264 ist Teil des MPEG-4 Standards, der sich im Bereich der mobilen Endgeräte schon jetzt durchgesetzt hat. Die Struktur von H.264 wird im zweiten Kapitel dargestellt, der Transport von H.264 über verschiedene Streaming-Protokolle im dritten Kapitel dieser Arbeit. Die zur Bewertung der Qualität verwendeten Parameter werden im vierten Kapitel zusammengefasst. Die zu erstellende Software soll primär für die Android Plattform entwickelt werden. Jedoch soll bei der Entwicklung auch darauf geachtet werden, dass die Software leicht in eine andere Umgebung portierbar ist. Die Android Plattform ist ein komplettes Softwarepaket für mobile Endgeräte wie Smartphones und Netbooks. Neben einem auf Linux basierenden Betriebssystem liefert Android eine Middleware für die Entwicklung und den Betrieb der Anwendungen. Im fünften Kapitel wird der grundlegende Aufbau und die Entwicklung einer Android Anwendung beschrieben. Nach der Betrachtung der Grundlagen zur H.264-Videokompression, der verwendeten Streaming-Protokolle und der Entwicklung einer Android Anwendung folgt das sechste Kapitel, welches sich mit dem Softwareentwurf und der Implementierung beschäftigt. Der plattformunabhängige Teil der Software steht hier im Fokus, während dem plattformabhängigen Teil lediglich ein kleiner Teil des Kapitels gewidmet ist. Die Qualitätssicherung der Software wird im siebten Kapitel beschrieben. Hier erfolgt eine Betrachtung des Einflusses der Software auf die Übertragung. Ebenso werden Methoden zur Überprüfung der Korrektheit erläutert. Das achte Kapitel zeigt die Auswertung der Messerergebnisse. Im neunten Kapitel wird die entworfene Software dargestellt. Es wird die Bedienung der Software erläutert, sowie die Darstellung der Messergebnisse präsentiert.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.
In dieser Bachelorarbeit wird ein Verfahren zur HDR-Bilderstellung vorgestellt und mit anderen Verfahren verglichen, das eine beliebige Belichtungsreihe verarbeitet und auf der Erstellung von Histogrammen der Helligkeitsverhältnisse zwischen den Aufnahmen basiert. Der Algorithmus wurde in Java als Plugin für die Bildverarbeitungssoftware ImageJ implementiert.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
Fernseh- und Videobilder in Fernsehsendungen oder in digitalen Videoarchiven, aber beispielsweise auch auf Grafiken basierende Inhalte von Internetseiten enthalten eine große Anzahl von in sie eingebetteten Texten. Die Lokalisierung und Erkennung dieser Texte eröffnet eine Vielzahl von Anwendungsmöglichkeiten. So können Texte beispielsweise als Ergebnis der Suche und Verarbeitung von großen digitalen Videoarchiven mit Inhalten von Nachrichtensendungen oder Dokumentationen zum Erstellen von Datenbanken dienen. Da in Nachrichtensendungen sehr oft Einblendungen von Orten, Namen, Uhrzeiten oder sonstigen Informationen vorhanden sind, können diese Grundlage für Datenbanken werden, durch die sehr schnell auf einzelne Beiträge zugegriffen werden kann. Auch dienen diese Datenbanken der Verknüpfung unterschiedlicher Inhalte von Beiträgen miteinander. Für Firmen die im Fernsehen Werbung schalten ist es von Interesse zu überprüfen, ob und gegebenenfalls wann der eigene Werbespot gesendet wurde. Auch hier wäre eine automatische Erkennung von Schriftzügen wie beispielsweise des Produktnamens und die gleichzeitige Aufzeichnung der Uhrzeit und des Sendekanals von Interesse. Eine weitere Anwendung ist die Erkennung von Inhalten in Webseiten welche nicht textbasiert sind, also zum Beispiel in Flash oder ähnlichen Formaten vorliegen. Auf die in diesen Seiten hinterlegten Informationen können Standard-Suchmaschinen nicht zugreifen, weshalb die Informationen bei einer Suchanfrage nicht berücksichtigt werden. An diese Problem und die Anwendungsmöglichkeiten anknüpfend, ist es das Ziel die ser Arbeit Möglichkeiten zur Erkennung von in Fernsehbildern eingebetteten Schriften, wie beispielsweise ”www.schrift-im-videobild.de” aufzuzeigen und als reinen ASCII-Text zu extrahieren. Dazu wurde eine Sammlung von verschiedenen Testbildern erstellt, die unterschiedliche von den Fernsehanstalten eingeblendete Texte enthalten. Darüber hinaus soll ein Programm mit Hilfe der Programmiersprache C++ erstellt werden, das die Testvorlagen für eine Texterkennung durch kommerzielle Optical Character Recognition (OCR) Software, wie sie für die Erkennung von reinen Binärbildern (zum Beispiel eingescannte Schreibmaschinentexte) genutzt wird, vorverarbeitet. Um dieses zu erreichen wurden Möglichkeiten untersucht, die im Bild enthaltenen Schriften zu detektieren, zu segmentieren und in einem weiteren Verarbeitungsschritt in ein neues Bild zu extrahieren, wobei das schlussendliche Bildresultat nach Möglichkeit nur noch schwarze Schrift vor weißem Hintergrund enthalten soll.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Entwicklung eines Videoanalysesystems auf Basis von Java Mobile Edition für Symbian SmartPhones
(2009)
Der Markt für mobile Telefone wächst schon seit mehreren Jahren rasant. Das "Handy" wird schon lange nicht mehr nur zum Telefonieren benutzt. Es ist zu einem nicht mehr wegzudenkenden Assistenten geworden, der immer einsatzbereit und in Reichweite ist. Das Gerät kann außer den Grundfunktionen wie Telefonieren und SMS-Verschicken als persönlicher Terminplaner, Notizbuch oder auch als Foto- oder sogar Videokamera genutzt werden. In den letzten Jahren sind Mobiltelefone auch in der Internet- und Multimediawelt vertreten. Sie besitzen mittlerweile genug Leistung, Speicher und Bildschirmfläche, um Webseiten darzustellen oder komplette Spielfilme wiederzugeben. Die sinkenden Preise für mobile Breitband-Internetzugänge (Flatrate mit 7,2 Mbit/s schon ab 35 Euro), die wachsende Anzahl der mobilen Internet-Zugänge, die sinkenden Nutzungspreise der so genannten „HotSpots“ (in Hotels, Restaurants, etc. oft kostenfrei) und die Leistungsfähigkeit der aktuellen mobilen Endgeräte, ermöglichen die Nutzung der Videostreaming-Dienste. Diese Dienste können zum Beispiel IPTV, Video on Demand oder Videotelefonie sein. Um die Qualität des über ein IP-Netzwerk gelieferten Videodatenstrom zu gewährleisten, ist es notwendig die Qualität dieses Datenstroms im realen Umfeld und unter realen Bedingungen messen zu können. Das erfordert die Entwicklung eines Messsystems, welches direkt auf einem Endgerät installierbar und vom Gerätetyp möglichst unabhängig ist. Das zu entwickelnde Programm soll den Videodatenstrom mitschneiden und auswerten können ohne die Übertragung zum Wiedergabeprogramm zu stören. Es soll der Paketverlust, der Wert des Interarrival Jitters sowie die für das jeweilige Videoformat spezifischen Informationen erfasst werden. Die Auswertung soll in vom Benutzer bestimmbaren Intervallen durchgeführt werden können. Um diese Anforderungen zu erfüllen, wird eine Anwendung in der Programmiersprache Java Mobile Edition implementiert, die wie eine Netzwerkbrücke funktionieren wird. Sie wird Java-Threads für das parallele Empfangen und Weiterleiten der Datenpakete zwischen dem Server und dem Wiedergabeprogramm sowie für das Extrahieren und Auswerten der Daten verwenden. In Kapitel 2 werden die meisten Begriffe, die in der Diplomarbeit vorkommen erläutert. Einen wichtigen Punkt stellen in diesem Kapitel die Protokolle für den Transport der multimedialen Daten. Für die Darstellung von Videodaten auf mobilen Endgeräten hat sich der MPEG-4-Standard durchgesetzt. Dessen Entwicklung hat als Ziel, Systeme mit geringen Ressourcen oder schmalen Bandbreiten bei relativ geringen Qualitätseinbußen zu unterstützen. Auch dieser Standard wird hier dargestellt. Die Wahl der Programmiersprache, deren Hauptaspekte und die zur Fertigstellung des Messsystems nötigen Komponenten werden zum Schluss dieses vorgestellt. In Kapitel 3 wird die Umsetzung des Systems beschrieben: Zuerst die Darstellung des Entwicklungssystems und der Entwicklungsumgebung (3.1), danach werden zwei Alternativen genannt, nach denen die Entwicklung des Grundgerüsts der Software möglich ist (3.2). In Abschnitt 3.3 werden die Methoden präsentiert, die den Kern des Messsystems bilden und die so genannte „Deep Inspection“ des Videodatenstroms durchführen.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
In dieser Bachelorarbeit werden der automatische Weißabgleich dreier Digitalkameras mit einem neuen Weißabgleich-Verfahren, dass derzeit von der Fachhochschule Köln entwickelt wird, verglichen. Eine Anzahl von Fotos in verschiedenen Situationen werden dafür erstellt, die zum Vergleich anhand verschiedener Parameter ausgewertet werden. Die Ergebnisse zeigen die Unterschiede zwischen den Verfahren der drei Kameras und dem neuen Verfahren auf, das die Lichtfarbe einer Beleuchtungsquelle durch Messung polarisierter Reflexe ermittelt, statt, wie bei anderen Weißabgleich-Verfahren üblich, anhand von Schätzungen. Die Verfahren werden so auf ihre Tauglichkeit im alltäglichen Einsatz und im Hinblick auf die Optimierung des neuen Verfahrens getestet.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.