Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Language
- German (255) (remove)
Has Fulltext
- yes (255)
Keywords
- Deutschland (14)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- E-Learning (5)
- Electronic Commerce (5)
Faculty
- Fakultät 10 / Institut für Informatik (93)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 07 / Institut für Medien- und Phototechnik (37)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (3)
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Das steigende Angebot an Datenbanken im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBV-Suchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
An der Schwelle in ein überwiegend digitales Informationszeitalter stößt das in der „Printwelt“ fest etablierte Publikationsmodell des wissenschaftlichen Zeitschriftenverlages immer mehr an seine Grenzen. Dies ist nicht nur auf das enorme Potenzial der modernen Informations- und Kommunikationstechnologien des 21. Jahrhunderts zurückzuführen, sondern auch auf die zunehmende Konzentration im wissenschaftlichen Verlagswesen, die eine „Krise der wissenschaftlichen Informationsversorgung“ ausgelöst hat. Vor diesem Hintergrund haben sich in den letzten Jahren verschiedene Formen des elektronischen Publizierens herausgebildet, welche die Akteure des wissenschaftlichen Publikationswesens zwingen, sich neu zu positionieren. Dies gilt insbesondere für die wissenschaftlichen Bibliotheken, die ihr klassisches Konzept von Bestandsaufbau, -erschließung und -vermittlung dringend modifizieren müssen. Gleichzeitig bietet die derzeitige Umbruchsituation den Bibliotheken aber auch die Chance, künftig eine aktivere Rolle zu spielen. Das Ziel der vorliegenden Arbeit ist es, die neuen Möglichkeiten, die sich durch die modernen Informations- und Kommunikationstechnologien ergeben, vor allem im Hinblick auf eine Neupositionierung der Bibliotheken im Bereich des wissenschaftlichen Publizierens, auszuloten. Im Mittelpunkt der Analyse stehen dabei die STM-Disziplinen und der wissenschaftliche Zeitschriftenmarkt, weil in diesem Bereich angesichts der zunehmend ausufernden „Zeitschriftenkrise“ der größte Handlungsbedarf besteht.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
Einleitung Ein zentraler Bereich (sozial-) pädagogischer Arbeit umfasst die soziale Förderung von Kindern. In der derzeitigen Fachdiskussion wird verstärkt auf eine Abnahme der infantilen Sozialkompetenzen hingewiesen (vgl. u.a. Hurrelmann 1995, Rogge 2000). Die Schule, als eine der zentralen Sozialisationsinstanzen unserer Gesellschaft, hat die Aufgabe und Chance dieser Entwicklung entgegen zu wirken. Es besteht eine sozialpädagogische Verantwortung, die Grundschule bei dieser Aufgabe gezielt zu unterstützen. Dieser Grundgedanke führte zum Themenschwerpunkt der hier vorliegenden Diplomarbeit. Daher wird in ihrem Verlauf eine Schulung entwickelt, die das Ziel verfolgt Schülerinnen und Schüler der ersten Grundschulklasse sozial zu fördern und ihnen eine gewaltfreie Konfliktlösungsstrategie an die Hand zu geben. Somit gliedert sich diese Arbeit grob in die Bedarfsanalyse, Darstellung der ausgewählten Konfliktlösungsstrategie, sowie Entwicklung und praktischen Durchführung der Schulung.
Die Studie untersucht die Usability der Homepage des Landtags Nordrhein-Westfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung.
Web 2.0 als markantes Marketingschlagwort und ein Begriff, der viele Assoziationen und Interpretationsmöglichkeiten zulässt, beschreibt die Entwicklungsphase, die das Internet momentan durchläuft. Verbunden mit zahlreichen Anwendungen und Konzepten wie Wikis, Podcasts, Blogs, Social Tagging, Webplattformen, Social Networks und weiteren wesentlichen Elementen vollzieht sich im Internet eine immer stärkere Demokratisierung, die sich in ihren dezentralen Strukturen und zunehmend partizipierten Nutzern zeigt. Die Nutzer selbst verfügen über immer größer werdende Freiräume sowie Möglichkeiten eigene Inhalte zu publizieren, selbstständig zu kommunizieren, zu diskutieren und Inhalte gemeinsam durch die kollektive Zusammenarbeit zu verändern sowie deren Qualität und Vielfältigkeit zu verstärken. Dies hat maßgeblich die Kommunikation und den Austausch von Informationen im Internet verändert und weiterentwickelt. Auch Weblogs1 positionieren sich zunehmend als Bestandteil dieser sich verändernden Medien- und Informationslandschaft als neu entstandenes Instrument zur Kommunikation, Information und Vernetzung. Dabei stellen die zunächst als verlinkende und navigierende Instrumente entstandenen Weblogs innerhalb des Internets heute eine wichtige Form der Auseinandersetzung mit sowohl privaten als auch öffentlichen Themen dar. Entscheidend ist dabei vor allem die sehr subjektive und authentische Darstellung von persönlichen Erlebnissen, jedoch auch die Reflexion politischer und gesellschaftlicher Neuigkeiten sowie die kritische Auseinandersetzung mit der Medienlandschaft. Besonders die Diskussion über verschiedene sehr breit gefächerte Themenkomplexe sowie der Austausch und die Vernetzung in der so genannten Blogosphäre nehmen dabei einen hohen Stellenwert ein. Wenngleich die Auseinandersetzung mit der eigenen Person vor allem im privaten Bereich auftritt, stellen sich Weblogs im unternehmerischen Bereich zunehmend als wertvolle Instrumente des Marketings und der internen wie externen Kommunikation heraus. Als einfach einzurichtende und leicht handhabende Instrumente werden Weblogs immer stärker in die Ziele und Strategien von Unternehmen mit eingebunden. Aber auch Bibliotheken sind zunehmend auf diesen neuen Bereich des Internets aufmerksam geworden. Anhand eines zunächst einleitenden Kapitels über den Begriff des Web 2.0 im Allgemeinen sowie speziellen Formen und der Darstellung von Weblogs als separat betrachtete Form der Web 2.0-Anwendungen, stellt diese Arbeit die Verwendung von Weblogs in öffentlichen Bibliotheken ins Zentrum der Betrachtung. Neben einer Übersicht über den momentanen Stand von konkreten Anwendungen und der vorliegenden Quellenlage soll eine vergleichende Betrachtung von Beispielen aus Deutschland und den USA anhand einer Analyse konkrete Erkenntnisse verdeutlichen und zeigen, inwieweit Chancen bereits genutzt werden und noch Potenziale bestehen. Abschließend werden diese Ergebnisse in einem eigenständigen Konzept zur Umsetzung einer Bloggingstrategie für öffentliche Bibliotheken dargestellt und in einem Fazit in Zusammenhang mit einem Ausblick auf mögliche, zukünftige Entwicklungen gesetzt.
Diese Arbeit befasst sich mit der Thematik des Live-Streamings und webbasierter Medien-übertragung. Im Fokus steht in diesem Zusammenhang der Adobe Flash Media Server 3.0 als Streaming-Plattform sowie Adobe Flash CS3 als Entwicklungsumgebung. Neben den theoretischen Grundlagen wird die praktischen Umsetzung in Form einer iTVG-Applikation für einen exemplarischen Anwendungszweck eingehend erläutert. Dabei werden sowohl der technische Hintergrund der Programmierung wie auch die Methoden und Prinzipien des interakti-ven Designs, der Usability, diskutiert und in den Entwicklungsprozess integriert. Die Flash-Media Applikation wird abschließend einer kritischen Betrachtung unterzogen, um mögliche Fehlerquellen sowie weitere Entwicklungspotentiale aufzuzeigen.
Mit dem Internet hat sich eine Technologie etabliert, die Veränderungen in den unterschiedlichsten Bereichen nach sich gezogen hat. Sie ist im Rahmen der Globalisierung zu sehen und ist einer der Hauptakteure bei der Entstehung der Informationsgesellschaft. International und national agierende Unternehmen besitzen einen entscheiden Marktnachteil, wenn diese Technologie nicht gewinnbringend zur Unterstützung ihrer Geschäftsprozesse und deren globaler Vernetzung eingesetzt wird. Einhergehend mit der Entwicklung des Internets sind zahllose Technologien entstanden. Wo es anfänglich nur möglich war, Informationen als feststehende Inhalte zu präsentieren, können und müssen heutige Internetpräsenzen Informationen anbieten, die Zugriff auf verteilt liegende Informationsquellen besitzen, die sich täglich ändern. So sind Web-Applikationen entstanden, die die modernsten Technologien einsetzen, um Anwendern eine Zugangsmöglichkeit auf Informationsquellen über das Internet zu bieten. In Kapitel 2 werden die Anforderungen an Web-Applikationen und deren zugrunde liegende Architektur beleuchtet. Da zahllose Programmiersprachen für die Entwicklung von Web-Applikationen verfügbar sind, wird in Kapitel 3 eine Auswahl an verfügbaren Technologien vorgestellt. Um die Programmierung von Web-Applikationen zu vereinfachen sind im Laufe der letzten Jahre Web-Frameworks entstanden, die den Entwicklungsprozess stark beschleunigen und eine Art Bausatz anbieten, um die Programmierung zu vereinfachen. Der Schwerpunkt der vorliegenden Arbeit richtet sein Augenmerk auf 2 aktuelle Web-Frameworks, die jeweils theoretisch und praxisbezogen anhand einer Beispielapplikation beleuchtet werden. In Kapitel 4 wird JavaServer Faces als erstes Web-Framework vorgestellt. Ausgehend von einer theoretischen Betrachtung wird ein Web-Shop als Beispielapplikation entwickelt und die damit in Zusammenhang stehenden Entwicklungswerkzeuge betrachtet. Auf Struts, als zweites Web-Framework, wird in Kapitel 5 eingegangen und ähnlich wie in Kapitel 4 zu JavaServer Faces wird nach theoretischer Betrachtung des Web-9 Frameworks eine Benutzerverwaltung als Beispielapplikation entwickelt, die die wesentlichsten Aspekte des Web-Frameworks zeigt. Auch hier werden Entwicklungswerkzeuge vorgestellt, die den Umgang mit Struts unterstützen. Schließlich findet in Kapitel 6 ein Vergleich zwischen JavaServer Faces und Struts statt, der mögliche Vor- und Nachteile des jeweiligen Web-Frameworks aufzeigt.
Abseits von spektakulären Vergewaltigungsfällen, welche nach wie vor auf ein hohes Maß
an medialem Interesse stoßen, prägt sexualisierte Gewalt den Alltag von Frauen und Mädchen.
Trotz dessen Häufigkeit und Schwere sowie der Folgen für die Betroffenen ist nicht
nur ein Mangel an gesellschaftlicher Unterstützung zu verzeichnen, vielmehr ist ein durch
bestimmte Einstellungen und Überzeugungen verstellter Blick weit verbreitet. Diese als
„Vergewaltigungsmythen“ bezeichneten Einstellungen haben gemein, dass sie täterentlastend
und opferfeindlich wirken. Was für eine Rolle spielen Vergewaltigungsmythen in unserer
Gesellschaft, wie wirken sie sich auf die justizielle Strafverfolgung aus, und welche
Bedeutung haben sie für Betroffene?
Die vorliegende Arbeit beleuchtet die unabdingbare Notwendigkeit, mit diesen Schuldzuweisungen
zusammenhängende Reaktionen von Staat und Gesellschaft zu Vergewaltigungen
kritisch zu hinterfragen. Nahezu zwingend ergibt sich daraus die Frage nach Veränderungsmöglichkeiten.
Anhand eines Sensibilisierungstrainings, welches für Auszubildende
der Polizei entwickelt, durchgeführt und ausgewertet wird, werden diese Möglichkeiten
und Erkenntnisse diskutiert. Untersucht wird so eine mögliche Reduzierung in der
Akzeptanz von Vergewaltigungsmythen, welche Ausblick auf einen notwendigen, gesellschaftlichen
Wandel bietet.
Die zweischichtige Organisationsform mit einer zentralen Hochschulbibliothek und vielen finanziell und personell unabhängigen Institutsbibliotheken war die vorherrschende Struktur an traditionsreichen deutschen Universitäten bis in die 1960er Jahre. Heutzutage müssen Bibliotheken aufgrund der aktuellen Finanzkrise im öffentlichen Sektor jedoch mit immer knapperen Ressourcen und weniger Personal ein immer umfangreicheres Dienstleistungsspektrum für eine ständig wachsende Benutzerzahl bewältigen. Vor dieser Entwicklung zeichnet sich nun deutlich das Strukturdefizit zweischichtiger Bibliothekssysteme ab: statt auf nutzerorientierte Informations- und Kompetenzzentren stößt man auf ineffektiven Ressourceneinsatz, ein beziehungsloses Nebeneinander der Geschäftsprozesse von Zentrale und dezentralen Einheiten und eine ungenügende Literatur- und Informationsversorgung. Da die geforderten Dienstleistungen angesichts der finanziellen Restriktion nur noch eingeschränkt erbracht werden können, wird die Wettbewerbsfähigkeit zweischichtiger Bibliothekssysteme blockiert. Zweischichtige Bibliothekssysteme können durchaus modern und leistungsfähig sein, wenn sie im Sinne einer funktionalen Einschichtigkeit die Literaturversorgung kooperativ betreiben. Die Hauptkriterien für funktional einschichtige Systeme sind die organisatorische und räumliche Fusion von kleineren Institutsbibliotheken zu größeren Einheiten, die Kooperation und Koordination bei der Literaturerwebung sowie die Dokumentation des Bestands in einem universitären Gesamtkatalog. Die Strategien für eine Umsetzung der Strukturreform sind dabei jedoch polymorph. Divergierende Interessen in der Hochschullandschaft, bibliothekspolitische Gesichtspunkte sowie hochschulrechtliche Rahmenbedingungen erschweren und individualisieren den Entwicklungsprozess jeweils. Im Vergleich zu den Erfahrungen aus den zweischichtigen Hochschulbibliothekssystemen in Marburg und Freiburg mit der Strukturreform wird in dieser Master´s Thesis eine Bestandsaufnahmen der aktuellen Gegebenheiten und Entwicklungen an der Universitäts- und Stadtbibliothek Köln (USB Köln) auf dem Weg zur funktionalen Einschichtigkeit skizziert.
Die Idee, Präsentationsstrategien des Einzelhandels bezüglich ihrer Übertragbarkeit auf die Öffentliche Bibliothek zu untersuchen, stammt aus Vergleichen der verschiedenen Darbietungstechniken der Verfasserin. Zudem zeigen Beobachtungen und Gespräche während der Praktika in Bibliotheken, daß sich Benutzer häufig von der Präsentation im Buch- und Fachhandel anregen lassen und die Bibliothek daraufhin mit gezielten Medienwünschen besuchen. Diese Tatsache läßt -neben anderen Faktoren- vermuten, daß die Präsentation im Einzelhandel den Kunden stärker anspricht als die Bestandsdarbietung in der Öffentlichen Bibliothek. Die Gliederung dieser Arbeit orientiert sich an den Kriterien und Begriffen der Präsentationstechniken im Einzelhandel. Dabei wird der Bibliotheksbenutzer oftmals als Kunde bezeichnet, was sich einerseits aus dem thematischen Zusammenhang und andererseits aus dem zunehmenden Dienstleistungsgedanken der Öffentlichen Bibliothek ergibt. Die Verfasserin beabsichtigt mit dieser Formulierung jedoch nicht, den Bibliotheksbenutzer und den Konsumenten im Einzelhandel auf die gleiche Ebene zu stellen. Die bisherigen bibliothekarischen Präsentationskonzepte, insbesondere die Dreigeteilte Bibliothek und die Kabinettstruktur können im folgenden nur bezüglich ihrer Schnittstellen mit den Strategien des Visual Merchandising untersucht werden. Eine ausführliche Darstellung der verschiedenen Konzeptionen würde den Rahmen dieser Arbeit sprengen. Ähnliches gilt für die besonderen Präsentationsanforderungen in der Kinder- und Jugendbibliothek. Deren Bedürfnisse können aufgrund ihres Umfangs im folgenden nur bei einzelnen Aspekten berücksichtigt werden.
Semesterapparate gehören in Hochschulbibliotheken seit langer Zeit zur Standardausstattung, die im Semesterapparat aufgestellte Literatur wird gewöhnlich für das Semester von der Ausleihe ausgenommen. Der klassische Semesterapparat enthält dabei neben Literatur zu den Lehrveranstaltungen meist auch einen oder mehrere Ordner mit Kopiervorlagen, etwa Skripten und Übungsaufgaben oder –klausuren. Doch immer wieder fehlen aus den Ordnern die Unterlagen, überstehen das häufige Kopieren nicht oder werden so stark in Anspruch genommen, dass die Studierenden lange auf die Gelegenheit zum Kopieren warten müssen. Durch die umfangreiche Novellierung des Urheberrechtsgesetzes im Jahr 2003 und die mittlerweile selbstverständliche Benutzung von Computertechnologie und Internet haben die Hochschulbibliotheken die Möglichkeit bekommen, den klassischen Semesterapparat um eine virtuelle Variante zu erweitern. Auf diesen Plattformen können Dozenten die für ihre Lehrveranstaltungen benötigten Materialien in elektronischer Form ablegen und so bequem für viele gleichzeitige Zugriffe zur Verfügung stellen. Auch die an vielen Hochschulen bereits im Einsatz befindlichen Lernplattformen und Lernmanagementsysteme eignen sich als Grundlage für virtuelle Semesterapparate.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
In der Arbeit wird das Thema Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef, in den Studiengängen von Hospitality Management und Tourism Management, betrachtet. In dem theoretischen Teil werden allgemeine Definitionen, Modelle und Standards von Informationskompetenz vorgestellt, und die allgemeine Bedeutung von Informationskompetenz in der Informationsgesellschaft erläutert. Es werden auch die Geschichte, Methoden und Didaktik der Vermittlung von Informationskompetenz besprochen. In dem empirischen Teil wird einerseits durch eine Umfrage an die Studenten der Fachhochschule und andererseits durch eine Analyse der Abschlussarbeiten der Stand der Vermittlung von Informationskompetenz erforscht. Durch einen Vergleich mit anderen Hochschulen mit vergleichbaren Studiengängen wird weitere Einsicht in das Thema gewonnen. Auf der Basis der Umfrage und Analyse der Abschlussarbeiten ist der Stand der Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef relativ gut, aber er könnte auch noch mit kleinen Veränderungen verbessert werden. Einige konkrete Empfehlungen zur Verbesserung werden gemacht.
Domänenspezifische Sprachen gewinnen seit einigen Jahren zunehmend an Bedeutung. Xtext ist eine sogenannte \textit{Language Workbench}, mit der solche Sprachen schnell entwickelt werden können. Neben der Sprachinfrastruktur wird eine inzwischen weit fortgeschrittene Integration in die IDE Eclipse erzeugt und es können optional ein Plug-in für IntelliJ und ein Webeditor erstellt werden. Der Ansatz ist dabei, dass der oder die Codegeneratoren direkt mit dem Abstract Syntax Tree arbeiten. In dieser Arbeit wird gezeigt, wie ein Domänenmodell in eine Xtext-Sprache integriert werden kann und wie Test- und Wartbarkeit davon profitieren. Besondere Beachtung finden, gegeben durch das Projektumfeld, die Anforderungen durch Funktionale Sicherheit.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Software muss viele Qualitätsmerkmale erfüllen, z. B. Funktionalität, Zuverlässigkeit, Anpassbarkeit und Wartbarkeit. Wenn Menschen mit der Software arbeiten sollen, so sollte die Software zusätzlich auch „benutzerfreundlich“ sein. In der Fachsprache wird diese Eigenschaft mit Gebrauchstauglichkeit bezeichnet, die auf englisch Usability heißt. Das Charakteristische am Qualitätsmerkmal Usability ist, dass die Anforderungen für dieses Qualitätsmerkmal nicht ohne den Benutzer ermittelt und kontrolliert werden kann, weil Programmierer, Usability-Spezialisten oder der Leiter der Beschaffungsabteilung anderen Zielgruppen angehören als die betroffenen Benutzer. Für die notwendige Benutzerbeteiligung in der Softwareentwicklung gibt es Möglichkeiten wie zum Beispiel Workshops, Befragungen und Beobachtungen. Ein Usability-Laboratorium wird eingesetzt für die Benutzerbeteiligung mittels Beobachtung. Allgemein werden Beobachtungen geschätzt, weil die Benutzer im Regelfall außerstande sind, Ihre Anforderungen an ein System oder die erlebten Probleme mit einem System korrekt und präzise zu beschreiben. Die Beobachtung hilft dieses Kommunikationsproblem in der Softwareentwicklung teilweise zu umgehen. Das Usability-Laboratorium hilft mit seiner technischen Ausstattung die flüchtige Beobachtung mit größerer Präzision festzuhalten und zu analysieren. Durch den technischen Fortschritt sind inzwischen Geräte und Hilfsmittel der Labortechnik auch vor Ort beim Kunden einsetzbar, als ein so genanntes „Mobiles Usability-Laboratorium“. Usability-Laboratorien werden seit über 20 Jahren in der Wirtschaft eingesetzt. Trotz dieser langen Erfahrungszeit wird unter Praktikern wie auch unter Wissenschaftlern oft kontrovers diskutiert, wo die Stärken und Schwächen eines Usability-Laboratoriums liegen, d. h. in welche Richtung sich ein Usability-Laboratorium für die Wirtschaft weiterentwickeln kann und sollte. Die bisherige Diskussion war wenig fruchtbar, weil sie immer nur einzelne Aspekte behandelte, die in der Summe ein widersprüchliches Bild ergibt. Genau dieses Problem löst diese Ausarbeitung. Diese Ausarbeitung untersuchte inwieweit ein Usability-Laboratorium als eine wirtschaftliche und erfolgreiche Dienstleistung für Unternehmen angeboten werden kann. Die Arbeit gibt hierauf konkrete Antworten in Form von Bewertungen und Gestaltungsempfehlungen. Im Interesse einer hohen Generalisierbarkeit der Ergebnisse wurde kein spezielles Usability-Laboratorium als Ausgangspunkt verwendet. Um hier einen ganzheitlichen Beitrag zu liefern, wurde dazu ein neuartiges Untersuchungsschema entwickelt. Dieses besteht aus zwei Phasen mit unterschiedlicher Untersuchungsstruktur. In der ersten Phase wird der Gegenstand aus der Perspektive des Anbieters von Usability-Dienstleistungen untersucht. Seine Sicht ist geprägt aus den drei aufeinander aufbauenden Teilkontexte: Dienstleistung, Usability und Laboratorium. In jeder dieser drei Teilkontexte ist u. a. ein anderes Qualitätsverständnis anzutreffen, welche dann in der zweiten Phase auf ihre Vereinbarkeit untersucht wird. In der zweiten Phase wurde die für den Informatikbereich weitgehend unbekannte, aber im Bereich Dienstleistungsmarketing und Qualitätsmanagement bewährte Dienstleistungsdefinition von Hilke verwendet und diese mit zwei Themenkomplexen kombiniert, in welcher sich ein Usability-Laboratorium primär bewähren muss: Einmal in der Durchführungstauglichkeit und zum Anderem in der Kommunikationstauglichkeit. Zur Kommunikationstauglichkeit gehört besonders die Vermarktung von Usability-Dienstleistungen über ein Usability-Laboratorium. In beiden Phasen wurden viele neuartige Begriffsabgrenzungen und Überblicksdarstellungen erarbeitet, die keine akademische Übung waren, sondern zu einem wesendlichen Teil die Erkenntnisse ausmachten, weil sie bisher unbetrachtete Widersprüche offen legte. Zudem sichert dies eine verständliche Darstellung. Die umfangreiche Untersuchung kam zu teilweise überraschenden Ergebnissen. Auf Basis dieser Ergebnisse wurde ein zukunftsfähiger Laborbegriff entwickelt und ihm den Namen UOA-System gegeben für „Usability Observing and Analyzing System“. Abschließend wurden die Konsequenzen des neuen Paradigma UOA-System erläutert für die Anbieter von Usability-Dienstleistungen und für die Hersteller von Labortechnik in Form von Gestaltungsempfehlungen und Entwicklungsperspektiven.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
In dieser Diplomarbeit wird ein neues Verfahren für den automatischen Weißabgleich einer digitalen Kamera beschrieben. Das Verfahren bestimmt die beleuchtende Lichtfarbe durch Messung von polarisierten Reflexen. Die Arbeit untersucht mit diesem Verfahren Reflexe an verschiedenen Oberflächen. Herausgearbeitet werden die kritischen Situationen der Anwendung. Dies geschieht im Hinblick auf die spätere Optimierung des Verfahrens.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Untersuchung des Verhaltens von Coriolis Massemessern in einer modulierten Zweiphasenströmung
(1999)
Im Rahmen dieser Diplomarbeit wurde, in Zusammenarbeit mit der Fa. Endress & Hauser, ein neuer Versuchsstand zur Durchflussmessung mittels Coriolismassemessgeräten aufgebaut und in Betrieb genommen. Des Weiteren wurde das Verhalten der Messgeräte in einer Zwei-Phasen-Strömung ( Wasser/Luft ) hinsichtlich ihrer Genauigkeit, bei kontrollierter Eindüsung verschiedener Luftvolumina und Massenströmen untersucht.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
Die Begriffe iPhone und Blackberry stehen schon seit einiger Zeit für hochentwickelte Mobiltelefone mit einem großen Repertoire an Fähigkeiten. Neben diesen Geräten entwickelten diverse Hersteller weitere Smartphones und all diese finden eine immer größer werdende Zielgruppe. Mitverantwortlich für diesen Trend ist die Entstehung der verschiedenen Plattformen für „Apps“ oder Applikationen, die eine große Vielfalt an Erweiterungsmöglichkeiten für diese Geräte bieten. Diese Entwicklung sorgte für erste Entstehungen im Bibliotheksbereich. Beginnend mit einer Analyse der Möglichkeiten zur technischen Realisierung im ersten Teil, werden im zweiten Abschnitt bestehende Angebote vorgestellt und hinsichtlich ihres Nutzens analysiert. Weitere bearbeitete Aspekte stellen zukünftig denkbare Entwicklungen, den personellen und finanziellen Aufwand sowie Erkenntnisse aus einer E-Mail-Befragung dar.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Datenbanken kommen beim Einstieg von Unternehmen in das Inter- oder Intranet eine besondere Bedeutung zu, denn dort sind für den Mitarbeiter bzw. für den Kunden wichtige Informationen vorhanden: Kundenverzeichnisse, Warenwirtschafts- systeme, Rohdaten für Marketinganalysen, Produktkataloge etc. Die einheitliche Einbettung, d.h. Veröffentlichung, dieser Daten war bislang aufgrund der Heterogenität der Betriebssysteme, Datenbanksysteme und der Anwendungen, die mit ihnen arbeiten, oftmals zu aufwendig. Ziel zur Effizienzsteigerung und Wirtschaftlichkeit sollte es jedoch sein, daß alle Mitarbeiter jederzeit Zugriff auf alle Informationen haben, die sie für ihre Aufgaben benötigen, ohne ihren Arbeitsplatz verlassen zu müssen. Dank des World Wide Webs (WWW) und Java ist eine einheitliche Wahl des Betriebssystems heute nicht mehr zwingend, da WWW und Java Anwendungen ermöglichen, die auf beliebigen Rechnern lauffähig sind. Somit lassen sich Informationen im Inter- oder Intranet überall darstellen. Auf der anderen Seite des Informationskanals stehen verschiedenste Arten von Datenbankmanagementsystemen (DBMS), die die benötigten Informationen bereithalten. Dies sind vor allem Adabas, DB2, Informix, MS SQL-Server, Oracle, Sybase, sowie einige kleinere Systeme. Um die Lücke von der Informationsbereithaltung bis hin zur Informations- darstellung zu schließen, hat Sun Microsystems einen Standard definiert, der es Java-Programmen ermöglicht, über das Inter- bzw. Intranet auf relationale DBMS zugreifen zu können. Dieser Standard wird als JDBC (Java Database Connectivity) bezeichet. Hierdurch werden dem Programmierer Klassen, Interfaces und Methoden zur Verfügung gestellt, die ihm den Informationszugriff über das Netz hinweg ermöglichen sollen.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Sponsoring in Bibliotheken
(1998)
Durch die schlechte finanzielle Situation der öffentlichen Haushalte gewinnt in Deutschland die aktive Beschaffung von zusätzlichen Mittel für kulturelle Einrichtungen zunehmend an Bedeutung. Auch für Bibliotheken wird das Thema Sponsoring immer aktueller. Die Erfolge, die im Sportsponsoring erzielt werden und die zunehmende Bedeutung von Sponsoring in Museen, Theatern oder bei der Organisation von Musikfestivals wirft immer wieder die Frage auf, ob bestimmte Aktivitäten in Bibliotheken nicht über private Akteure finanziert werden können. Sponsoring in Bibliotheken ist mit vielen Schwierigkeiten verbunden. In kontroversen Diskussionen werden oft moralische Bedenken geäußert, die sich vor allem in der Sorge um die wirtschaftliche, politische und kulturelle Unabhängigkeit der Einrichtungen begründen. Die Befürchtung, daß sich die Träger der Einrichtungen ihrer finanziellen Verantwortung entziehen könnten, wenn sich Bibliotheken erfolgreich mit der Beschaffung zusätzlicher Mittel beschäftigen, spielt ebenfalls eine große Rolle. Neben diesen Aspekten stellt sich die Frage, ob Bibliotheken überhaupt die notwendigen fachlichen und personellen Voraussetzungen mitbringen, um Sponsoring professionell und damit erfolgreich in die Bibliotheksarbeit integrieren zu können. Inwieweit sich überhaupt Sponsoren für dieses Aufgabenfeld gewinnen lassen können, wird ebenfalls heftig diskutiert. Trotz dieser Bedenken zwingt die derzeitige Lage Bibliotheken, sich aktiv mit zusätzlichen Finanzierungsquellen auseinanderzusetzen. Diese Arbeit möchte zeigen, unter welchen Voraussetzungen und durch welche konkreten Maßnahmen Sponsoring sowohl für die Bibliothek als auch für Sponsoren erfolgreich sein kann.
Das Ziel dieser Arbeit ist die Definition einer allgemeinen Aufgaben-beschreibungssprache, die nicht an einen einzelnen Roboter gebunden ist, sondern für alle möglichen Arten von Robotern einsetzbar ist. Dieses Ziel soll mit Hilfe der Robotic Task Definition Language erreicht werden. Die Robotic Task Definition Language (RTDL) ist eine Sprache, die an der Fachhochschule Köln im Rahmen des Instituts-übergreifenden Projektes Verteilte Mobile Applikationen (VMA)" entwickelt wird. Die Aufgabe der RTDL besteht darin, eine allgemein gültige Aufgabenbeschreibungssprache für unterschiedlichste Roboter zu definieren. Mit einer solchen Aufgabenbeschreibungssprache ist es möglich, die Steuerungssoftware verschiedener Roboter in einer einheitlichen Sprache zu beschreiben und in einem weiteren Schritt auch umzusetzen.
Soziale Arbeit mit Straßenkindern in Deutschland und in Kenya : ein internationaler Vergleich
(1998)
Mit dieser Arbeit möchte ich den derzeitigen Diskussionsstrang zum Straßenkinderproblem in den Entwicklungs- und in den Industrieländern zusammenfassen und aufeinander beziehen, wohlwissend, dass zwangsläufig nur ein kleiner Teil der Problematik hier beleuchtet werden kann, zumal ich ja vor allem internationale Dimensionen beschreibe. Das Thema meiner Diplomarbeit entspringt meinem persönlichem Interesse, welches sich vor allem während meines Projektstudiums im Arbeitsfeld „Multikulturelle Sozialarbeit“ zu diesem Thema entwickelt hat. Nach einer theoretischen länderkundlichen, sprachlichen und thematischen Vorbereitung zu dem Thema der Straßenkinder und der Sozialarbeit in Kenya leistete ich den praktischen Teil in einem dreimonatigen Blockpraktikum in Kenya ab, welches nach meiner Rückkehr im Rahmen des Theorie-Praxis Seminares noch einmal reflektiert wurde.
Untersucht werden soll das Spannungsfeld zwischen Menschenwürde und Kollektivinteressen, zwischen Schutzrechten des Individuums und Normierung menschlichen Lebens anhand des Komplexes „Bioethik“. Neben der Bioethik selber soll die Bioethik-Konvention des Europarats, das „Übereinkommen über Menschenrechte und Biomedizin“, ebenso in die Untersuchung einbezogen werden wie Anwendungen der Biowissenschaften auf den Menschen. Von letzteren soll näher auf „fremdnützige Forschung an nicht-zustimmungsfähigen Menschen“, auf „Sterbehilfe“ und auf „ human-genetische Anwendungen“ eingegangen werden.
In der Diplomarbeit wird dargestellt, wie von der rechtsextremen Szene die ersten Kontakte zu Jugendlichen hergestellt werden. Sie gliedert sich in zwei Teile: im theoretsichen Teil wird auf Grundlage wissenschaftlicher Erkenntnisse und Statistiken die Begrifflichkeit, die Gesetzesgrundlage, der historische Rückblick sowie die Rechtsextremismusdiskussion im Erftkreis dargestellt. Im nachfolgenden praktischen Teil wird am Beispiel von Interviews mit einigen Jugendlichen und Experten des Erftkreises dokumentiert, wie die Berührungen mit der rechtsextremen Szene entstehen und welche Auswirkungen diese für die Jugendlichen haben können.
Zentraler Punkt der Verkehrsproblematik ist die hohe Staubelastung, vor allem im Berufsverkehr. Diese Situation ließe sich durch eine Erhöhung des Besetzungsgrades pro PKW verbessern. Eine Vielzahl der Pendler fährt alleine, obwohl besonders in diesem Kontext viele Personen regelmäßig denselben oder einen ähnlichen Weg fahren und dadurch Fahrgemeinschaften möglich wären. Zur Lösung dieser Problematik wird ein persuasive System namens Route Match zur Unterstützung der Bildung von Fahrgemeinschaften geplant. Im Laufe des Dokumentes werden eine Literaturrecherche, eine Kontextanalyse, zwei empirische Erhebungen und eine Anforderungsspezifizierung für Route Match durchgeführt. Darauf aufbauend wird ein sutainability analysis Framework angewendet und erste Prototypen erstellt. Das Ergebnis sind 138 Requirements, Qualitätsanforderungen und einige Protoypen. Route Match ist eine einfache und kostengünstige Möglichkeit den Autoverkehr zu reduzieren und dadurch die Umwelt positiv zu beeinflussen. Die meisten anderen Ansätze beruhen auf der Entwicklung von neuen Transportmitteln oder dem Ausbau der öffentlichen Verkehrsnetze und des Straßennetzes.
Soft Skills, zu deutsch "weiche Fähigkeiten", sind die Kompetenzen, die über fachliche Qualifikationen hinausgehen, wie beispielsweise Teamfähigkeit, Kommunikationstalent und Durchsetzungsvermögen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Soft Skills in der Praxis bibliothekarischer Arbeit Beachtung finden. Über welche Persönlichkeitsmerkmale sollten Bibliothekare verfügen? Wie sieht der Berufsalltag in Bibliotheken heute aus? Welche Tätigkeiten werden vorwiegend ausgeübt? Wie ist Stand der technischen Ausstattung? Finden auch Maßnahmen der Personalentwicklung und Mitarbeitermotivation statt? Ergänzend dazu soll festgestellt werden, ob es Unterschiede in der Bewertung je nach Bibliotheksgröße und -typ gibt. Dieser Band behandelt die verschiedenen Formen von Kompetenzen, Fähigkeiten und Kenntnissen sowie ihre Bedeutung für den Alltag bibliothekarischer Arbeit und beschäftigt sich mit den Themen Personalentwicklung und Mitarbeitermotivation, die zunehmend an Bedeutung gewinnen. Die theoretische Darstellung beruht auf Vorarbeiten aus Bibliothekswesen, Betriebswirtschaftslehre und Organisationspsychologie. Um den derzeitigen Stellenwert der Soft Skills im bibliothekarischen Alltag bewerten zu können, beinhaltet die Studie die Ergebnisse einer Umfrage, die unter rund 100 Bibliotheken durchgeführt wurde (Rücklaufquote der Fragebogen: 82%). Das Gesamtergebnis befindet sich in Form von Diagrammen und Tabellen im Anhang. Überdies wird eine Verbindung zwischen Theorie und Praxis hergestellt.
In den letzten Jahren haben sich die öffentlichen Verwaltungen in Deutschland im Zuge von „Open Government” immer weiter gegenüber den Bürgern geöffnet. Durch die Digitalisierung bieten sich vielfältige Möglichkeiten, wie Kommunen ihr Handeln transparent gestalten und gleichzeitig Bürger dazu ermächtigen, sich an politischen Problemlösungsprozessen zu beteiligen. Die fortschreitende Vernetzung der Menschen und das größer werdende Angebot an Daten, mit denen die Verwaltung arbeitet, führt zu großen Herausforderungen und Fragen, zur zukünftigen Politik auf kommunaler Ebene. Aus diesem Grund untersucht diese Thesis die aktuellen Internetkonzepte ausgewählter Kommunen hinsichtlich der Frage, wie die Prinzipien von Open Government bisher umgesetzt wurden. Durch die allgemeine Forschung auf dem Gebiet des Crowdsourcings, der Analyse von Studien und der Durchführung von Interviews mit Experten werden zusätzliche Erkenntnisse gewonnen. Das Ergebnis zeigt, dass die Kommunen sich noch am Anfang der Nutzung digitaler Bürgerbeteiligung stehen. Sowohl die Initiierung von Kollaborationsmodellen findet bislang nur in geringem Maße statt, als auch der Umgang mit offenen Daten, die von der Verwaltung erhoben werden ist wenig erfolgsversprechend: Der eingeschränkte Zugang für eine breite Zielgruppe sowie die fehlende Nutzung der Daten zu Auswertungszwecken sind Beispiele dafür. Zur Adressierung dieser Herausforderungen wurde ein Framework entwickelt, das seinen Schwerpunkt auf die Interaktion zwischen Bürger und Kommune bei der Entwicklung von Lösungen zu öffentlichen Problemen legt. Dadurch soll einerseits alle möglichen Formen der Interaktion zwischen den beiden Akteuren gefördert und andererseits der Wert von offenen Daten als Kommunikationsgrundlage hervorgehoben werden.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.
Shared Service Center (SSC) bieten innerhalb einer Organisation Hilfsdienstleistungen an. Das interne Outsourcing bietet Bibliotheken Möglichkeiten über die originären Aufgaben hinaus weitere Produkte innerhalb des Trägers oder interkommunal anzubieten und diese auch kostendeckend vergütet zu bekommen. Werden SSC in der Regel von zentraler Stelle entwickelt und installiert, müssen und können Bibliotheken hier noch selbst gestalten. Insbesondere freiwillige Einrichtungen eines Trägers können sich profilieren und eine höhere Quote im Kostendeckungsgrad erreichen. Die Aufgaben des Wissensmanagements oder die Implementierung eigener vorhandener Produkte in fachfremde Bereiche werden in Beispielen auf kommunaler Ebene vorgestellt.
In der Masterthesis „Sentiment Analyse von informellen Kurztexten im Unternehmenskontext“ werden Ansätze und Methoden aufgezeigt hat mit denen Unternehmen in der Lage sind die Daten aus sozialen Netzwerken zu speichern, zu verarbeiten und schließlich zu analysieren. Praktisch wurde dies anhand des Beispiels mit Amazons Kundendienst auf Twitter mit Hilfe einer Sentiment Analyse aufgezeigt. Die aus der Theorie und den praktischen Ergebnissen gewonnenen Erkenntnisse über Herausforderungen, Nutzen, sowie Methoden zur Umsetzung sind universell in vielen Unternehmen einsetzbar und können wie aufgezeigt unter anderem zu einer Verbesserung der Kundenzufriedenheit führen. Dabei wurde ein lexikonbasietre Ansatz zur Sentimentanalyse benutzt.
Die vorliegende Diplomarbeit beschäftigt sich mit Senioren in Öffentlichen Bibliotheken und liefert Konzepte für eine zielgruppenspezifische Bibliotheksarbeit. Dabei werden zunächst Begrifflichkeiten geklärt und die physischen und gesellschaftlichen Besonderheiten der Zielgruppe sowie die daraus resultierenden Voraussetzungen für Bibliotheken untersucht. Anschließend werden Empfehlungen für den Bestandsaufbau gegeben und verschiedene Veranstaltungsformen und Aktionen speziell für Senioren vorgestellt. Außerdem wird sowohl auf die aktive Medienvermittlung an heim- oder hausgebundene ältere Menschen eingegangen als auch auf effektive Möglichkeiten der Öffentlichkeitsarbeit und Werbung. Ferner werden Senioren als freiwillige Mitarbeiter in Bibliotheken berücksichtigt. Am Beispiel der Stadtbibliothek Eisenach wird dann die Umsetzung unterschiedlicher Angebote für die besagte Zielgruppe und die Resonanz der Benutzer darauf dargestellt. Abschließend wird ein Ausblick auf die Entwicklung der Zielgruppenorientierung auf Senioren gegeben.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hypertext mit dem etablierte Point- und Klickverfahren an. Eine Visualisierung zur Unterstützung kognitiver Fähigkeiten kann durch eine Darstellung der Informationen mit Hilfe von Punkten und Linien erfolgen. Vorgestellt werden die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswissenschaft der Firma AGI – Information Management Consultants.
Kinder, die mit Variationen der Geschlechtsmerkmale zur Welt kommen, werden in den ersten Lebensjahren häufig geschlechtsverändernden medizinischen Eingriffen unterzogen. Dabei wird die stellvertretende Einwilligung der Eltern als zulässig erachtet, um den medizinischen
Eingriff zu legitimieren. Diese Maßnahmen stehen jedoch zunehmend in der Kritik und werden als Verstoß gegen die Selbstbestimmung von Kindern und Jugendlichen sowie als Verletzung wesentlicher Grund- und Menschenrechte gewertet. Obwohl sich aktuelle Empfehlungen und
Leitlinien zunehmend an den Rechten und dem Wohl von intergeschlechtlichen Minderjährigen orientieren, ist die Anzahl der geschlechtsverändernden Eingriffe in den letzten Jahren dennoch relativ konstant geblieben. Hieraus ergibt sich ein aktueller Handlungsbedarf. In der vorliegenden Arbeit wird an den Rechten von intergeschlechtlichen Minderjährigen angeknüpft. Dabei liegt der Fokus auf den Selbstbestimmungsrechten von intergeschlechtlichen Kindern und Jugendlichen. In der Literatur ist umstritten, inwiefern Minderjährigen eigene Selbstbestimmungsrechte zustehen und sie diese selbst ausüben können. Im Rahmen der Masterarbeit wird daher zunächst erarbeitet, in welchem Verhältnis Elternrechte und Selbstbestimmungsrechte von intergeschlechtlichen Minderjährigen im aktuellen Familienrecht stehen. Daraus wird abgeleitet, welche Möglichkeiten und Grenzen der Selbstbestimmung und Stellvertretung bei geschlechtsverändernden medizinischen Eingriffen bestehen. Hierbei zeigt sich, dass gerade nicht medizinisch indizierte Eingriffe, die auf eine „Angleichung“ des Geschlechts an bestehende Geschlechternormen ausgerichtet sind, gegen das Kindeswohl sowie Grundrechte verstoßen und Minderjährigen wesentliche Möglichkeiten für eine selbstbestimmte Lebensführung nehmen. Wirksame familienrechtliche Schutzmöglichkeiten bestehen
jedoch nicht. Als Perspektive wird daher ein Gesetzesentwurf des Deutschen Instituts für Menschenrechte auf seinen Schutzgehalt für intergeschlechtliche Minderjährige untersucht. Neben wenigen Kritikpunkten zeigt sich, dass das „Geschlechtervielfaltsgesetz“ zum Schutz und zur Selbstbestimmung intergeschlechtlicher Minderjähriger beitragen könnte. Ergänzend zu einer gesetzlichen
Klarstellung, ist jedoch auch Beratung und Unterstützung für intergeschlechtliche Kinder, Jugendliche und ihre Eltern erforderlich. Aus diesem Grund werden Möglichkeiten der Sozialen Arbeit zur Förderung geschlechtlicher Vielfalt entwickelt und Beratungs- und Unterstützungsansätze dargestellt. Insgesamt zeigt sich jedoch, dass auch ein gesellschaftliches Umdenken
notwendig ist, um intergeschlechtlichen Menschen Selbstbestimmung über ihren Körper und die eigene geschlechtliche Identität zu ermöglichen.
Die Arbeit thematisiert schwedische Schulbibliotheken, ihre Strukturen, Aufgaben und an sie gestellte pädagogische Anforderungen auch im Zusammenhang mit der Vermittlung von Informationskompetenz, als eine der Kernkompetenzen von Schulbibliotheken. Die Rolle von Schulbibliotheken auf internationaler Ebene wird behandelt. Hierbei wird auf einen möglichen Zusammenhang mit den Ergebnissen der PISA-Studie eingegangen. Mit dem Schulbibliotheksmanifest der UNESCO wird ein international gültiges Grundlagenpapier vorgestellt. Zum besseren Verständnis des Kontextes, in dem schwedische Schulbibliotheken agieren, werden das schwedische Schulwesen, sowie die Entwicklung und Strukturen des schwedischen Bibliothekswesens eingehender behandelt. Im Anschluss daran erfolgt eine ausführliche Beschreibung des schwedischen Schulbibliothekswesens hinsichtlich historischer Entwicklung, Aufgaben, Funktionen und Ausstattung. Es wird betrachtet, welchen Stellenwert die Vermittlung von Informationskompetenz in der schwedischen Schulbibliotheksarbeit hat. Begleitend dazu werden zwei Konzepte zur Vermittlung von Informationskompetenz aus schwedischen Schulbibliotheken näher betrachtet. Zur plastischen Darstellung der gegenwärtigen Situation der schwedischen Schulbibliotheken, werden drei Beispiele für schulbibliothekarische Arbeit aus der Kommune Jönköping genauer vorgestellt, die im Rahmen einer privaten Studienreise besichtigt wurden. Im Anschluss daran wird die Frage erörtert, ob die schwedische Situation modellhaft für Deutschland ist. Zum Schluss werden die Ergebnisse einer im Jahr 2002 veröffentlichten repräsentativen Statistik zur Situation der Schulbibliotheken in Schweden auszugsweise wiedergegeben.
Fernseh- und Videobilder in Fernsehsendungen oder in digitalen Videoarchiven, aber beispielsweise auch auf Grafiken basierende Inhalte von Internetseiten enthalten eine große Anzahl von in sie eingebetteten Texten. Die Lokalisierung und Erkennung dieser Texte eröffnet eine Vielzahl von Anwendungsmöglichkeiten. So können Texte beispielsweise als Ergebnis der Suche und Verarbeitung von großen digitalen Videoarchiven mit Inhalten von Nachrichtensendungen oder Dokumentationen zum Erstellen von Datenbanken dienen. Da in Nachrichtensendungen sehr oft Einblendungen von Orten, Namen, Uhrzeiten oder sonstigen Informationen vorhanden sind, können diese Grundlage für Datenbanken werden, durch die sehr schnell auf einzelne Beiträge zugegriffen werden kann. Auch dienen diese Datenbanken der Verknüpfung unterschiedlicher Inhalte von Beiträgen miteinander. Für Firmen die im Fernsehen Werbung schalten ist es von Interesse zu überprüfen, ob und gegebenenfalls wann der eigene Werbespot gesendet wurde. Auch hier wäre eine automatische Erkennung von Schriftzügen wie beispielsweise des Produktnamens und die gleichzeitige Aufzeichnung der Uhrzeit und des Sendekanals von Interesse. Eine weitere Anwendung ist die Erkennung von Inhalten in Webseiten welche nicht textbasiert sind, also zum Beispiel in Flash oder ähnlichen Formaten vorliegen. Auf die in diesen Seiten hinterlegten Informationen können Standard-Suchmaschinen nicht zugreifen, weshalb die Informationen bei einer Suchanfrage nicht berücksichtigt werden. An diese Problem und die Anwendungsmöglichkeiten anknüpfend, ist es das Ziel die ser Arbeit Möglichkeiten zur Erkennung von in Fernsehbildern eingebetteten Schriften, wie beispielsweise ”www.schrift-im-videobild.de” aufzuzeigen und als reinen ASCII-Text zu extrahieren. Dazu wurde eine Sammlung von verschiedenen Testbildern erstellt, die unterschiedliche von den Fernsehanstalten eingeblendete Texte enthalten. Darüber hinaus soll ein Programm mit Hilfe der Programmiersprache C++ erstellt werden, das die Testvorlagen für eine Texterkennung durch kommerzielle Optical Character Recognition (OCR) Software, wie sie für die Erkennung von reinen Binärbildern (zum Beispiel eingescannte Schreibmaschinentexte) genutzt wird, vorverarbeitet. Um dieses zu erreichen wurden Möglichkeiten untersucht, die im Bild enthaltenen Schriften zu detektieren, zu segmentieren und in einem weiteren Verarbeitungsschritt in ein neues Bild zu extrahieren, wobei das schlussendliche Bildresultat nach Möglichkeit nur noch schwarze Schrift vor weißem Hintergrund enthalten soll.
Durch die zunehmende Globalisierung der Märkte und dem damit immer härter werdenden Konkurrenzkampf ist es für ein Unternehmen absolut notwendig, die im Unternehmen vorhandenen Datenmengen optimal zu nutzen. Diese Daten ermöglichen es dem Unternehmen das laufende Geschäft besser zu durchleuchten und zu analysieren, um so die Wettbewerbsfähigkeit zu sichern.
Durch das permanente Wachstum der Weltbevölkerung wird der Bedarf von Textilien stetig steigen. Die Produktvielfalt sowie der Konsum der Textilien werden immer größer. Die aktuellen Recyclingtechniken ermöglichen es nicht, den Rohstoffkreislauf für Textilien zu schließen. Dies liegt auch darin begründet, dass derzeit große Mengen der Textilien aus Mischgeweben zwischen Baumwolle und PET bestehen. Die Trennung dieser Komponenten ist jedoch eine Grundvoraussetzung für die Entwicklung eines geschlossenen Rohstoffkreislaufs und stellt gleichzeitig eine große Herausforderung für das Recycling dar. Durch chemische Recyclingverfahren können die Rohstoffe getrennt, aufbereitet und in die Textilproduktion zurückgeführt werden. In dieser Arbeit wird aufgezeigt, wie ein chemischer Recyclingprozess, der einen geschlossenen Rohstoffkreislauf erlaubt, technisch realisiert werden kann. Der Prozess erzeugt eine PET-Fraktion und eine Celluloselösung, die in weiteren Verarbeitungsschritten zu einer Regeneratfaser versponnen wird. In dieser frühen Projektphase werden in dieser Arbeit ebenfalls die Investitionsausgaben und die Herstellungskosten für das Verfahren abgeschätzt.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
Wie in anderen Marktbranchen sind auch die Bibliotheken als Dienstleistungsanbieter im Informationsmarkt mit Fragen des Qualitätsmanagement konfrontiert. Seit Mitte der neunziger Jahre ist ein Zuwachs der themenbezogenen Fachliteratur zu beobachten. Die Gründe für ein solches Interesse kann man in der Entwicklung des Umfeldes der Bibliotheken finden: 1. Im Kampf um Finanzmittel. 2. In der Entwicklung der speziellen Informationsbedarfe ihrer Kunden. 3. Im Wachstum des Wettbewerbs innerhalb der privaten Wirtschaft so wie auch innerhalb der öffentlichen Bereiche, das die Ermittlung von qualitativen Erfolgsfaktoren erfordert. 4. In der Entwicklung der Technik und der infolgedessen benötigten Anpassung der Abläufe der bibliothekarischen Arbeit, 5. In der Verantwortung bei der Informationsvermittlung in der Gesellschaft. In einem solchen Umfeld sind die Bibliotheken bezüglich der Schaffung von Argumenten zur Rechtfertigung ihrer Wettbewerbsfähigkeit und ihrer Bedeutung (aus gesellschaftlicher, wissenschaftlicher, wirtschaftlicher und politischer Perspektive) vor ihren Trägern; bezüglich der öffentlichen Anerkennung und schließlich auch bezüglich der tatsächlichen Erreichung einer exzellenten Leistung (bei der Kundenorientierung, der Optimierung der Geschäftsgänge, der Kooperationsarbeit und der Berücksichtigung der internationalen Standards) weltweit mit der Qualitätsmanagement- und Excellenz-Einführung konfrontiert. In der vorliegenden Arbeit sollen Überlegungen rund um die Einführung eines optimalen Qualitätsmanagements zur Erreichung der Excellenz am Beispiel der Bibliothek des CNIC Carlos III, der Stiftung Nationales Zentrums für die Kardiovaskuläre Forschung, in Madrid (Spanien) dargestellt werden. Diese junge Bibliothek hat sich der Herausforderung gestellt, Excellenz einzuführen. Dafür will sie ein exzellentes Qualitätsmanagement aufbauen. Diese Arbeit versucht die zwei aktuellen Qualitätsmanagementstrategien hinsichtlich ihrer Eignung für ihre Einführung in der Bibliothek des CNIC Carlos III zu untersuchen und sie der Bibliotheksleitung darzustellen. Man könnte sie dann als Beitrag für den ersten Schritt zur Umsetzung einer Philosophie bzw. Strategie eines Qualitätsmanagements in der Bibliothek des CNIC Carlos III verstehen. Diese Arbeit hat eine Praxis-Orientierung; deswegen wurde das Thema hauptsächlich anhand aktueller praxisnaher Literatur, Erfahrungsberichte und Personalgespräche erarbeitet. Darüber hinaus wurden im Hintergrund Grundmerkmale der Bibliothek, des CNIC Carlos III, immer berücksichtigt: Ihre Trägerschaft, ihre Größe, ihr Forschungsfeld und ihr Konzept als digitale Bibliothek.
Seit fast 20 Jahren beschäftigt man sich im Bibliothekswesen zunehmend mit dem Thema Qualitätsmanagement. Besonders im Bereich der öffentlichen Bibliotheken hat es dahin gehend viele Entwicklungen und Projekte gegeben. Im ersten Teil der vorliegenden Arbeit wird zunächst die vorangegangene bibliothekshistorische Entwicklung und der Einfluss der Verwaltungsmodernisierung dargestellt. Es folgt die Definition für Qualität von bibliothekarischen Dienstleistungen und ein kurzer Abriss über die Entstehung von Qualitätsmanagement. Um die Funktionsweisen und Instrumente des Qualitätsmanagements zu verdeutlichen, schließt dieser Teil mit einer Vorstellung der wichtigsten und relevanten Qualitätsmanagement-Systeme ab. Im zweiten Teil widmet sich die Arbeit der Beschreibung von bundesweiten Qualitätsmanagement-Aktivitäten in öffentlichen Bibliotheken. Aus diesem Kontext heraus folgt eine Darstellung nennenswerter Qualitätsmanagement-Projekte in einer Übersicht. Aus den aufgeführten Projekten lassen sich drei groß angelegte, aktuelle Projekte in den Ländern Niedersachsen, Nordrhein-Westfalen und Sachsen-Anhalt herausstellen. Diese Projekte werden einzeln vorgestellt und mit den Ergebnissen aus Befragungen ergänzt. Eine Vergleichstabelle stellt abschließend die Eigenschaften der angewandten Modelle gegenüber und soll ihre Vor- und Nachteile abbilden.
In dieser Arbeit wird die Frage nach der Zusammensetzung einer aus konservatorischer Sicht unbedenklichen Stempelfarbe untersucht. Es konnten vier Kategorien von Stempelfarben ermittelt werden: die leinölhaltigen, die mineralölhaltigen, die glykol-/glycerolhaltigen und die harzhaltigen. Neun Stempelfarben aus diesen vier Kategorien wurden in einer umfangreichen Testreihe auf ihre Licht- und Klimabeständigkeit, ihre Löse- und Bleichmittelfestigkeit, ihre Wischfestigkeit und ihr Durchschlagvermögen überprüft. Drei rein pigmenthaltige Stempelfarben haben diese Tests bestanden. Von diesen hatte nur die leinölhaltige Stempelfarbe eine gute Dokumentenechtheit. Zudem werden im letzten Kapitel Möglichkeiten zur Entfernung von Stempelfarben auf Papier vorgestellt.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.
Die vorliegende Arbeit behandelt eine Marktuntersuchung der Portraitfotografie in Deutschland und in China. Dazu ist eine Umfrage erforderlich. Da eine repräsentative Befragung Grundgesamtheit „Bevölkerung Deutschlands“ im Rahmen einer Diplomarbeit nicht möglich ist, soll eine Internetumfrage durchführt werden. Hierbei liegt der Schwerpunkt auf der Marktentwicklung und Zukunftchancen der Portraitfotoindustrie in Deutschland.
Diese Arbeit gibt einer postfundamentalistischen Perspektive auf politisches Handeln in der Sozialen Arbeit in einer qualitativen Erforschung der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ Raum. Zur theoretischen Rahmung werden in einem ersten Schritt zentrale Diskussionslinien um politisches Handeln in der Sozialen Arbeit dargelegt. Daraufhin eröffnen Theorien politischer Differenz eine kontingenzsensible und hegemoniekritische Perspektive auf Soziale Arbeit, ihr Verhältnis zu Politik und ihr politisches Handeln. Der Forschungsstand errichtet ein Mosaik aus internationalen Forschungserträgen, die das Thema dieser Arbeit tangieren. Es folgen eine inhaltsanalytische Untersuchung von Veröffentlichungen der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ und Leitfadeninterviews mit Kampagnenaktiven im Hinblick auf Momente politischer Differenz. Es zeichnen sich differenztheoretische Simultaneitäten und Bewegungen in den Kampagnenaktivitäten ab. Die Ergebnisse zeigen politische Differenz als einen Spielraum politischer Handlungen Sozialer Arbeit auf und offerieren diesen so eine postfundamentalistische Analyse- und Diskussionsfolie.
Der Auskunftsdienst gehört zu den Kerndienstleistungen einer Bibliothek. Obwohl ihm in anderen Ländern große Bedeutung beigemessen wird, ist Deutschland in dieser Hinsicht noch mehr von Bestandsdenken geprägt. Bibliothekskunden sind sich größtenteils nicht im Klaren darüber, dass es solch ein Angebot der Bibliothek überhaupt gibt, das über die reine Beantwortung von Bestandsfragen hinausgeht. Deswegen sollte den Kunden kommuniziert werden, worum es sich bei Auskunfts- bzw. Informationsdienst handelt. Des Weiteren sollten Umfang und Grenzen festgelegt und veröffentlicht werden. In den USA geschieht dies durch sogenannte „Reference Service Policy Statements“. Policies für den Auskunftsdienst werten diesen auf, erhöhen die Sichtbarkeit solcher Angebote und beeinflussen die Erwartungen der Kunden im besten Falle so, dass Kundenzufriedenheit entsteht. Die Verbreitung von solchen Dokumenten in Deutschland ist erwartungsgemäß eher gering. Es lässt sich allerdings feststellen, dass digitale Auskunftsangebote eher Angaben zu den Rahmenbedingungen ihrer Dienstleistung machen als konventionelle, also persönliche, Vor-Ort-Auskunftsangebote. Innerhalb der digitalen Angebote sind Policies bei Auskunftsverbünden weiter verbreitet.
In dieser Arbeit wird der Frage nachgegangen, inwieweit eine systematische Personalentwicklung auch im Management Öffentlicher Bibliotheken Beachtung findet. Bestehen im deutschen Bibliothekswesen überhaupt ausreichende Kenntnisse über Personalentwicklung? Stehen die Strukturen des öffentlichen Dienstes einer Personalentwicklung, wie sie in der freien Wirtschaft betrieben wird, nicht im Wege? Gerade im Dienstleistungssektor - zu dem Öffentliche Bibliotheken auch zu zählen sind - sind Qualifikation, Motivation und Leistungsbereitschaft des Personals von großer Bedeutung. Wird im Rahmen von Verwaltungsreformen die Chance ergriffen, im Bereich der Personalführung auch Maßnahmen der Personalentwicklung anzuwenden? Und welche Maßnahmen werden in den Bibliotheken tatsächlich umgesetzt?
The objective of this study was to evaluate at the local level in two municipalities of the Northwest Region of Rio de Janeiro State, the perception of smallholder farmers to climate change. Also, part of the study was to identify their measures to adapt, that include the preservation and mitigation of impacts on the regulating and provisioning soil ecosystem services, and their coping capacities to extended drought periods.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Diese Thesis befasst sich mit der Frage, in welcher Art und Weise sich das deutsche Feuerwehrwesen verändern und anpassen muss, um den abwehrenden Brandschutz nachhaltig sicherzustellen.
Ausgangspunkt ist die Problemstellung, dass einige Freiwillige Feuerwehren besonders tagsüber und vornehmlich im ländlichen Räumen nicht mehr den gesetzlichen Schutzzielen und Anforderungen entsprechen können. Um dieser Frage nachgehen zu können, ist die Methode des Benchmarkings auf Gefahrenabwehrsysteme adaptiert worden. Da die Forschungen innerhalb des deutschen Feuerwehrwesens nicht zielführend waren, ist das Benchmarking international und organisationsvergleichend ausgerichtet worden. Die Niederlande konnte als Vergleichspartner konstatiert werden, weil diese eine große kulturelle Ähnlichkeit zum deutschen Feuerwehrwesen aufweist und regionalisiert agiert. Das Merkmal der Regionalisierung stellte sich im europäischen Raum als eine vielversprechende Variante der Organisationsgestaltung heraus.
Der Benchmarkingprozess ist morphologisch beibehalten worden. Die Analysen, Vergleiche und Bewertung erfolgten nach Vorbild der Organisationsanalyse nach den Ausführungen von Wenger, Thom und Ritz, welche in das Benchmarking implementiert wurden. Diese Vorgehensweise stellte sich als erfolgreich heraus.
Die Verbesserungs- und Handlungsoptionen für das deutsche Feuerwehrwesen aus dem Benchmarking mit den Niederlanden sind folgende:
• Bündelung und Verknüpfung von Gefahrenabwehraufgaben in
regionalen Strukturen sowie die Regionalisierung der
Feuerwehren
• Anpassung der Schutzziele und Hilfsfristen an
Effizienzkriterien und Risiko unter der Bedingung weiterer
einhergehender Maßnahmen (Wandel von einer
strukturqualitätsorientierten hinzu einer
prozessqualitätsorientierten Philosophie)
o Standardisierung der Ausbildung aller
Feuerwehrdienstleistenden (in Modulen) und I
Intensivierung der ehrenamtlichen Ausbildung
o Festlegen der Staffel als Standardeinheit
o Einführung von Zwischenebenen zwischen
freiwilliger/zufälliger und beruflicher/sicherer
Verfügbarkeit
o Vergütung von arbeitsverhältnisähnlichen Dienstzeiten
o Reduzierung der Fahrzeugvielfalt
o Risikoorientierente und regionalstrukturierte
Fahrzeugvorhaltung
o Objektbezogene Risikoanalyse
o Einführung eines Qualitätsmanagementsystems und eines
standardisierten Controllings
o Transparenz- und Einbindungsstrategie mit der
Öffentlichkeit verfolgen
Weitere Maßnahmen, die sich zwar im heutigen Feuerwehrsystem umsetzen ließen und die Effektivität und Effizienz steigern würden, aber nicht das Problem der nicht erreichbaren Schutzziele beheben könnten, sind Maßnahmen wie die Etablierung des Krisenmanagements, die wissenschaftliche Erschließung des Feuerwehrwesens, die Bündelung rückwärtiger Tätigkeiten oder die Weiterentwicklung des Führungssystems hinsichtlich mehrstufiger Skalierbarkeit sowie wirkungsvoller und interdisziplinärer Zusammenarbeit.
Der Einsatz von Ontologien wird bereits in vielen Anwendungsbereichen als Werkzeug für die Strukturierung und die Verbesserung der Zugänglichkeit von Informationen unterschiedlichster Art genutzt. Sie ermöglichen die explizite Formulierung der Bedeutung von Konzepten und Strukturen beliebiger Domänen. Auch im Rahmen der Zusammenarbeit in und zwischen Gruppen ist der Austausch und die Verarbeitung von Informationen für den Verlauf und den Erfolg der Kooperation von erheblicher Bedeutung. Daher liegt es nahe, auch kollaborative Aktivitäten durch den Einsatz von Ontologien zu unterstützen. Aktuelle Arbeiten in diesem Themenbereich fokussieren jedoch meist auf ausgewählte Aspekte der Zusammenarbeit wie etwa der Kommunikation zwischen den Gruppenmitgliedern oder die Unterstützung durch eine konkrete Softwarekomponente. In dieser Arbeit wird dagegen von einer ganzheitlichen Betrachtung von Kooperationssituationen ausgegangen. Dabei werden die an einer Kooperation beteiligten Personen und die eingesetzten technischen Komponenten als ein gesamtes soziotechnisches System betrachtet, dessen Elemente nicht losgelöst voneinander betrachtet werden können. Das Ziel dieser Arbeit besteht einerseits darin, zu untersuchen, wie sich der Einsatz von Ontologien auf die Unterstützung der Zusammenarbeit auswirkt und andererseits, welche Möglichkeiten sich hieraus für die Gestaltung von Kooperationssystemen ableiten lassen. Einige dieser Möglichkeiten werden im praktischen Teil prototypisch implementiert, um die technische und wirtschaftliche Umsetzbarkeit zu evaluieren.
Informationsversorgung ist zu einem zentralen Thema geworden. Das gilt längst nicht mehr nur für die Wirtschaft. Auch für Privatpersonen wird die Beschaffung von umfassenden und aktuellen Informationen zu alltagspraktischen Fragestellungen immer wichtiger, um am gesellschaftlichen Leben teilzunehmen. Informationen dienen als Basis für richtige Entscheidungen, so daß die Nachfrage nach Informationen stetig ansteigt. Den Öffentlichen Bibliotheken bietet sich in dieser veränderten Gesellschaft die Chance, ihren Standpunkt neu zu definieren, denn sowohl der Informationsbedarf als auch das Informationsangebot steigen weiterhin zunehmend an. Mit konventionellen Mitteln alleine läßt sich diese Aufgabe für die Bibliothek aber nicht mehr länger bewältigen. Zu viele Informationen sind auf herkömmlichem Wege kaum noch erreichbar. Viele sonst schwer zugängliche Informationen bietet mit Sicherheit das Internet, welches von vielen Bibliotheken auch schon genutzt wird. Doch aufgrund der Strukturlosigkeit des Internets ist es oft schon ein Zufall, das zu finden, was man sucht. Auch die Korrektheit des Gefundenen ist im Internet nicht gewährleistet (vgl. Lipka, 1998, S. 107). Durch die Nutzung von Online-Datenbanken könnte die Informationsversorgungspflicht durch die Bibliotheken noch besser wahrgenommen werden. Durch Online-Datenbanken sind ständig aktuelle Informationen aus allen Wissensbereichen verfügbar. Hier werden Informationen angeboten, die auf herkömmlichen Wegen sonst oft kaum zu beschaffen sind. Aufgrund der Eignung von Bibliotheken als Standort für Online-Datenbanken war das Ziel dieser Untersuchung herauszufinden, wie verbreitet die Nutzung von Online-Datenbanken in Öffentlichen Bibliotheken in Deutschland tatsächlich ist, ob in Öffentliche Bibliotheken ein Markt für Online-Datenbanken vorhanden ist und ob durch Bibliotheken die potentiellen Kunden der Datenbankanbieter (Hosts) erreicht werden können.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
Die fortschreitende Verbreitung drahtloser Kommunikationsnetze sowie immer leistungsfähigerer mobiler Computer schafft ein großes Potenzial für ein breites Spektrum innovativer Anwendungen. Kontextsensitive Applikationen adaptieren die Gegebenheiten der jeweiligen Situation des Nutzers, wodurch neuartige, intelligente Anwendungen und Benutzungsschnittstellen möglich werden. Die zunehmende Menge verfügbarer Sensortechniken und die daraus resultierende Vielfalt erfassbarer Kontextinformationen erschweren jedoch vermehrt die Verbreitung dieser Applikationen. Ein Rahmenwerk zur Kontextrepräsentation soll die Entwicklung kontextsensitiver Applikationen ohne Berücksichtigung von Details der Kontexterfassung und -verwaltung ermöglichen. Außerdem sollen Austausch und Wiederverwendbarkeit von Kontextinformationen zwischen Applikationen und Nutzern gestattet werden. In dieser Arbeit wird ein solches Rahmenwerk entwickelt. Zu Beginn steht die Untersuchung von Fragen der Kontextmodellierung, auf deren Grundlage anschließend eine Konzeption erarbeitet wird. Der praktische Teil der Arbeit führt eine Referenzimplementation des Systems durch um zu evaluieren, ob die Konzeption auf Basis aktueller Technologien in die Realität umgesetzt, und als Grundlage für weitere Untersuchungen herangezogen werden kann.
Jegliches Leben auf der Erde ist auf das Vorhandensein von Wasser angewiesen. Schon seit Beginn der Menschheit war man in mancherlei Hinsicht vom Wasser abhängig: Trinkwasserbeschaffung für Mensch und Tier, Nahrungsversorgung durch Fischfang und Pflanzen, deren Wachstum erst das Wasser ermöglicht, Fortbewegung von Lasten und Menschen auf dem Wasser. Die heutige fortschreitende kulturelle und zivilisa-torische Entwicklung brachte neue Abhängigkeiten: Gewerbe und Industrie benötigen Wasser für den Produktionsablauf, der Wasserbedarf der Haushalte ist mit der weitge-henden Verdrängung manueller Tätigkeiten durch Maschinen um ein Vielfaches ge-stiegen, Volkswirtschaft und Haushalte verlangen nach elektrischer Energie, die zum Teil der Wasserkraft entstammt; schließlich kann die sprunghaft wachsende Erdbevöl-kerung vor allem in den Entwicklungsländern nur mit Hilfe der künstlichen Bewässerung in ausreichendem Maße mit pflanzlichen Produkten versorgt werden. Bevölkerungsdichte, Siedlungsstruktur und Formen der Wassernutzung beeinflussen die Wassernachfrage und stellen verschiedene Ansprüche hinsichtlich der Menge, der zeit-lichen Verteilung und der Güte des Wassers. Es ist jedoch nicht mehr selbstverständlich, dass das Wasser für die Befriedigung der Bedürfnisse der Menschen auf der Erde in ausreichender Menge und Güte zur Verfügung steht. Der heutige Wassermangel hat seine tiefere Ursache in der dauernden Fehleinschätzung der Natur. Um diese besser zu verstehen und damit dem oben erläuterten Problem entgegenzuwirken, befasst sich die physikalische Hydrologie mit dem globalen und lokalen Wasserkreislauf einschließlich der zugrundeliegenden Naturprozesse. Durch Entwicklung von Modellen wird eine Gewinnung von Detailkenntnissen angestrebt. Der Bereich der angewandten Hydrologie hingegen beschäftigt sich mit der Lösung wasserwirtschaftlicher Probleme - der Nutzung des Wassers durch den Menschen. Der Einsatz eines Geografischen Informationssystems (GIS) kann in der Hydrologie durch Visualisierung gesammelter Erfahrungswerte bereits eine Erleichterung der Ent-scheidungsfindung bei speziellen Problemstellungen bewirken. In einem GIS werden meist Funktionen vereinigt, die Methoden unterschiedlicher Systeme sind, wie z.B. Möglichkeiten statistischer Berechnungen, Bearbeitungen von Geometriedaten, Verwaltung von großen Datenbeständen, Darstellung von Karten. Weitere Aspekte eines GIS sind Geometrische Analysen, Flächenverschneidung, Möglichkeiten der Verknüpfung verschiedener Abfragen, Kombination verschiedener Datentypen und Geometrien etc. Diese Aspekte bilden die Grundlage zum Aufbau eines interaktiven räumlichen Informationssystems. Zur Abrundung eines solchen Systems sind jedoch meist weitere Auswertungen und Analysen des Datenmaterials sowie eine Modellbildung nötig, um konkrete, kompetente Entscheidungen über Eingriffe in die Natur unter Berücksichtigung ihrer Auswirkungen zu treffen.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
"Wie motiviere ich meine Mitarbeiter?" (Hatzius, 1996, S. 45) lautet die häufige Frage von Bibliothekaren in leitenden Positionen. "Gibt es eine spezifische bibliothekarische Personalführung?" (Krompholz, 1987, S.353) ist ein weiterer Aspekt, denn zum einen gelten auch in Bibliotheken die Grundelemente betrieblicher Arbeit, zum anderen gehören Bibliotheken meist dem öffentlichen Dienst an und sind zudem Dienstleistungsbetriebe. Aus dieser etwas schwierig zu definierenden Position ergibt sich unter anderem die Frage, ob das komplexe Thema der Mitarbeitermotivation, wie auch viele andere Elemente der Betriebswirtschaftslehre, derzeit ausreichende Bedeutung in Bibliotheken und in bibliothekarischen Ausbildungsstätten erfährt. Weiterhin soll im Rahmen dieser Arbeit betrachtet werden, ob eine leistungsbezogene Vergütung innerhalb des BAT bzw. des Beamtenrechtes, dem die meisten Bibliotheken angeschlossen sind, als Motivator überhaupt herangezogen werden kann.
Serpil Ertik erkundet am Beispiel geflüchteter Menschen mit Behinderung, inwieweit die sozialen Kategorien „Migration“ und „Behinderung“ wechselseitig Einfluss auf den Zugang zu zentralen Lebensbereichen nehmen und welche Barrieren und Herausforderungen sich daraus ergeben. Nach einer Erläuterung der wesentlichen theoretischen Konzepte werden im Kern der Arbeit qualitative Interview mit Fachkräften aus der Geflüchteten- und der Behindertenarbeit und zwei Asylbewerber*innen mit einer Behinderung zur Beantwortung der Ausgangsfrage ausgewertet und auch intersektional analysiert.
Die Untersuchungsergebnisse zeigen deutlich, dass der rechtliche Status der Geflüchteten die Zugangsmöglichkeiten zu zentralen Lebensbereichen deutlich erschwert. Prekäre Lebenssituationen in den Gemeinschaftsunterkünften, fehlende Gesundheitsversorgung, Ausschluss aus Integrationskursen und in der Folge soziale Ausgrenzungen sind die Konsequenz der asylrechtlichen Regelungen. Durch diese strukturellen Diskriminierungen wird ein Behinderungsprozess reproduziert. Sprache und Zuschreibungen der aus der Mehrheitskultur stammenden Mitarbeiter*innen konstituieren weitere Machtverhältnisse und Ausschlüsse von Geflüchteten mit Behinderung. Als Konsequenz führen diese Bedingungen zu einem von Fremdbestimmung und Abhängigkeit geprägten Leben, das in deutlichem Widerspruch zu den Anforderungen der UN-BRK steht.
In dieser Arbeit werden mehrere Arten von Erschließungsmethoden angesprochen, die in ihrer Gesamtheit eine wohl komplette Idealvorgabe dokumentarischer Methoden der Erschließung von Filmsequenzen darstellen. Es ist in der konkreten Praxis nicht immer erforderlich und auch nicht möglich, alle Methoden anzuwenden. Die Auswahl der zu nutzenden Methoden muß letztendlich jedes Filmarchiv anhand der eigenen Ziele, der adressierten Benutzerschicht und des vorhandenen finanziellen Rahmens treffen. Die Benutzersoftware wird für die künftigen Netze einen entscheidenen Einfluß auf deren Akzeptanz in den privaten Haushalten haben. Erforderlich sind deshalb einfach zu handhabene Benutzeroberflächen, die keinerlei dokumentarisches, bibliothekarisches oder informatisches Vorwissen erfordern. Dazu wird eine "Idealliste" von Methoden des Information Retrieval vorgegeben, konkret bezogen auf das Stöbern und das Suchen nach Filmsequenzen. Anhand der theoretisch aufgezeigten Möglichkeiten der Erfassung und Erschließung sowie des Retrieval von Filmsequenzen sollen nachfolgend konkrete Projekte beschrieben und bewertet werden, die als paradigmatische "Fälle" für unterschiedliche Entwicklungsstände der Sequenzauswertung stehen. Drei Beispiele zeigen wo und wie die Filmsequenzenerschließung bereits realisiert wird oder sich im Aufbau befindet: 1. das Filmarchiv des WDR, 2. die National Stockshot Database von Kanada, 3. sowie das Projekt AMPHORE.
Die Erschließung von Bildern ist eine Aufgabe, die sich aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung deutlich unterscheidet. In Museen, Archiven, Hochschulen und anderen Einrichtungen werden Bildsammlungen schon länger katalogisiert. Viele Sammlungen bleiben jedoch unerschlossen, da es für die Praxis der Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein für die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Sammlungsprofile von Bildsammlungen untersucht, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern, sowie auf deren Retrieval eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt.
Vergangene Ereignisse haben gezeigt, dass es trotz gesetzlicher Vorgaben und technischer Regeln, welche die Notstromversorgung von Krankenhäusern bestimmen, zu Vorfällen mit menschlichen Verlusten als Folge von Stromausfällen kam. Deshalb befasst sich diese Masterthesis mit der Entwicklung einer Bewertungsmethode für die Notfallplanung von deutschen Krankenhäusern im Bereich der Energieversorgung unter Berücksichtigung von technischen und organisatorischen Anforderungen. Sie soll in der Krankenhausalarm- und Einsatzplanung Anwendung finden.
Das Ziel ist es, eine Methode zu entwickeln, welche von Anwender:innen mit unterschiedlicher Ausprägung der Fachexpertise in der Krankenhausalarm- und Einsatzplanung sowie Risikoanalyse genutzt werden kann. Über zwei Scoping Reviews für die Krankenhausalarm- und Einsatzplanung sowie zur Energieversorgung von Krankenhäusern werden bestehende Vorgaben und Konzepte sowie Anforderungen an die Methode ermittelt. Basierend auf diesen Informationen wird ein gestuftes Bewertungsmodell vorgeschlagen. Es setzt sich aus einer Synthese eines Verfahrens des Bundesamts für Bevölkerungsschutz und Katastrophenhilfe zur Vulnerabilitätsanalyse mit Methoden der multikriteriellen Entscheidungsunterstützung (Satisfizierungsverfahren und Analytic Network Process) zusammen. Anhand einer exemplarischen Durchführung erfolgte eine empirische Validierung. Des Weiteren wurden der Praxisbezug und die Anwendbarkeit mit Expert:innen-Gesprächen untersucht.
Als Ergebnis kann festgehalten werden, dass sich das gestufte Bewertungsmodell als Planungsmodell für die Bewertung der Energienotversorgung von Krankenhäusern eignet. Es ist in eine Einsteiger-, Fortgeschrittenen- und Expertenstufe unterteilt, um für alle Anwender:innen unabhängig von ihrer Fachexpertise nutzbar zu sein. Es sind weitere Arbeiten unter enger Einbindung von Krankenhausbetreibenden erforderlich, um anhand des Modells priorisierte Checklisten mit allgemeinen technischen und organisatorischen Anforderungen für die Fortgeschrittenenstufe zu entwickeln. Durch die exemplarische Durchführung hat sich herausgestellt, dass das gestufte Bewertungsmodell zudem zur Identifizierung von Abhängigkeiten und Kritikalität des untersuchten Systems genutzt werden kann.
Als Herausforderung stellte sich die Übertragung des Analytic Network Process zu einem Bewertungs- und Priorisierungssystem der technischen und organisatorischen Anforderungen in Verbindung mit der Vulnerabilität heraus. Die Anwendungsgrenzen werden durch die Stufung des Bewertungsmodells gering gehalten. Es sind jedoch weitere Arbeiten, wie die Erstellung eines Leitfadens, notwendig, um die praktische Umsetzung zu ermöglichen.
Die Entwicklung in Technik und Elektronik ermöglicht es, medizinische Bilder in elektronischer Form zu speichern, zu verarbeiten und darzustellen. Der Austausch von Patientendaten wird vereinfacht und der Informationstransfer beschleunigt. Diagnose und Befundungen über Netzwerke sind möglich und eröffnen neue Möglichkeiten in der medizinischen Kommunikation. Für die Gewährleistung der Wiedergabekonstanz von Bildwiedergabesystemen wie CRT- und LCD-Monitore sind Richtlinien notwendig, die messbare Parameter definieren.
Seit den 90er Jahren des letzten Jahrtausends existieren Virtuelle Fachbibliotheken, die im Rahmen des Programms zur überregionalen Literaturversorgung von der DFG gefördert werden und mit der Verbindung von Nachweis und Zugang zu elektronischen und gedruckten wissenschaftlichen Informationen einen wichtigen Beitrag zur Fachinformationsversorgung für nahezu alle Wissenschaftsbereiche leisten. In dieser Arbeit wird überprüft, in wie fern die Virtuelle Fachbibliothek für die Medizin (Medpilot) die Anforderungen, die in der Literatur an eine Virtuelle Fachbibliothek gestellt werden erfüllt und in welcher Form die einzelnen Module umgesetzt wurden. Nach einer ausführlichen Beschreibung und einer Bewertung der einzelnen enthaltenen Module anhand definierter Kriterien werden Unterschiede zu anderen Angeboten aufgezeigt und Verbesserungsvorschläge unterbreitet.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Durch die rasante technologische Entwicklung der digitalen Cinematographie sind nicht nur neue Daten-Kameras entwickelt worden, sondern es wurden auch neue Objektive, sowohl für die digitale als auch für die analoge Filmwelt entwickelt. Ziel dieser Arbeit ist es, einen weitgehend praxisbezogenen Überblick über das aktuelle Angebot an Objektiven, sowohl für die analoge als auch für die digitale Cinematographie zu erstellen. Weiterhin werden Entscheidungskriterien und Qualitätsparameter dargestellt. Technische und finanzielle Unterschiede werden kurz erläutert. Zum Einstieg hierfür wird eine allgemeine Einführung in die physikalisch-optischen Grundlagen vorangesetzt. Dem folgt ein Abriss über die in der Praxis angewendeten Mess- und Prüfgeräte. Ergänzend befindet sich eine ausführliche Zusammenstellung mit den Detailinformationen zu einzelnen Objektiven im Anhang.
Zusammenfassung
Ansatz der vorliegenden Arbeit ist es, mit Blick auf den in einer großen Variationsbreite existierenden Brauprozess in Brauereien mit unterschiedlichster jährlicher Produktionsmenge und technologischem Stand, die wesentlichen charakteristischen Teilprozessschritte hinsichtlich Ihrer Bedarfe an den thermischen Energieformen Wärme und Kälte, unter Berücksichtigung der jeweils in den Teilprozessen herrschenden Temperaturniveaus, darzustellen. Dies ist in Kapitel 2 sowohl für die in Trocknungsprozessen vorbehandelten feststofflichen Braukomponente Gerstenmalz und Hopfen, sowie für die mit dem Beginn der Erwärmung von frischem Brauwasser startenden Prozesse des Einmaischens, Läuterns, Kochens, Gärens bis hin zur Reifung des Jungbieres, erfolgt. Zunächst wurde das jeweilige Temperaturniveau der einzelnen Phasen des Brauvorgangs, trotz seiner unterschiedlichen verfahrenstechnischen Realisierung, abgesteckt. In Kapitel 5 wird der rein für den Prozess notwendige Wärme- und Kältebedarf, auf der Basis der wesentlichen Zustandsänderungen des entstehenden Produktes, bestimmt. Dabei liegt bei jedem Prozessschritt entweder ein Wärme- oder ein Kältebedarf vor. Die Teilprozesse bilden eine zeitliche Abfolge innerhalb des Brauprozesses, welche die Vorstufen des Bieres nacheinander durchläuft. Die in den Kapiteln 3 zum Thema Kälte und in Kapitel 4 zum Thema Wärme dargestellten Grundlagen, liefern die Grundlagen für das Verständnis, des Verhaltens eines Systems im Umfeld von thermischer Energie und bilden die thermodynamischen Kenntnisse, die für die Beurteilung des Transportes, der Erzeugung und der Speicherung von Wärme und Kälte ergeben. Die Wärme und Kältebedarfe in ihrer zeitlichen Abfolge ermöglichen uns unabhängig von gängigen technischen Realisierungen in der Praxis noch einmal in Kapitel 6 die Frage zu stellen, in wie weit zunächst für jeden einzelnen Teilprozess Energieeffizienzverbesserungen durch Eingriff in den Prozess möglich sind. Die Frage der Heranführung der Wärme bei Wärmebedarf des Produktes an das Produkt hat in der Entwicklung der Brauereitechnologie sehr verschiedenen konstruktiven Ausführungen der Maischgefäße und der Gefäße für die Würzebehandlung geführt. An dieser Stelle ist der Einfluss von Veränderungen, welche den Transport von Wärme verbessern könnten, auch auf das Produkt zu hinterfragen. Die modernen Ausführungen der Maisch- und Würzepfannen sind auf ein produktschonendes Verfahren ausgelegt. Änderungen im Anlagenpark erfordern von jeder Brauerei einen langerprobten Umgang, um trotz der Veränderungen an diesen Prozesshilfsmitteln, dennoch die geschmackliche Qualität des Bieres nicht unerwünscht zu beeinflussen. Die Rückführung der Verdampfungswärme beim Kochen und teilweise Verdampfen der Würze in der Pfanne, in den Prozess, unter Beibehaltung des höchstmöglichen Temperaturniveaus dieser Wärme, ist ein Beispiel aus Kapitel 6 für die Effizienzsteigerung des Teilprozesses. Stärker in den produktbeeinflussenden Teilprozess des Maischens greift die Wahl zwischen den zwei etablierten Wärmezufuhrverfahren, dem traditionellen Dekoktionsverfahren und dem in letzter Zeit deutlich überwiegenden Infusionsverfahren. Hier liegt mit der Wahl des letzteren Verfahrens, innerhalb des Teilprozesses Maischen ein Effizienzsteigerungspotential in der Praxis.
Die teilprozessübergreifende Kopplung der einzelnen Verfahrensschritte erlaubt den Transport von Wärme und Kälte, zwischen diesen Teilprozessen, unter Berücksichtigung der zeitlichen Versetzung der einzelnen Teilprozesse. Damit lassen sich Wärme- und Kältebedarfe untereinander bedienen, wenn eine Speichervorrichtung für Wärme auf den jeweiligen Temperaturniveaus vorhanden ist. Das Temperaturniveau der thermischen Energien ist, wie bereits in der Theorie in den Kapitel 3 und 4 gesehen, wo großer Bedeutung. Denn es geht bei der Steigerung der Energieeffizienz des Gesamtprozesses um die Erhaltung des Potentials der Wärme und Kälte trotz naturbedingter Einbußen, welche die Übertragung der Wärme aufgrund eines notwendigen Temperaturgefälles mit sich bringt. Die Kopplung der Teilprozesse entlang des Brauprozesses führt nach der Analyse in Kapitel 6 dazu, dass Energiezufuhr von außen am heißesten Ort entlang der Prozesskette erforderlich ist, da an dieser Stelle des Würzekochens und Verdampfens innerhalb des Gesamtprozesses keine Wärme auf diesem Temperaturniveau „ausgeliehen“ werden kann. Als Resultat erhält man, das eine Dampferzeugung zur Wärmebereitstellung mit einer Temperatur oberhalb der Siedetemperatur von 100°C erforderlich ist, sowie Kältebereitstellung für die kühlen Prozessschritte Gären und Reifen, bei denen die Aufrechterhaltung einer Temperatur bei knapp 0°C gegenüber der wärmeren Umgebung über eine längere Zeitdauer erforderlich ist.
Hiermit kommt man zu der zweiten Fragestellung aus der Einleitung, welche Szenarien der Bereitstellung der Energie, ggf. in Form einer Selbstversorgung der Brauerei sinnvoll ist.
Energetisch ist die Erzeugung von Wärme auf einem vergleichsweise moderaten Temperaturniveau von benötigten 120 bis 140°C durch die Verbrennung des Primärenergieträgers Erdgas im Dampferzeuger nicht optimal. Es bietet sich an, das Gas bei der Verbrennung einen guten Teil seiner Exergie in Reinform zur Verfügung stellen zu können, in dem es z.B. in einem Gasmotor mechanische Arbeit leisten darf, die über einen Generator zu elektrischem Strom veredelt wird, und die Wärmebedarfe in der Brauerei aus dem Abgas und dem Kühlwasser des Motors gedeckt werden. Diese Form des gasbetriebenen Blockheizkraftwerkes (BHKW) ist in der Industrie seit einiger Zeit weit verbreitet. Der Strom deckt Bedarfe durch Elektromotorenantriebe, Kälteerzeugung mit Kompressions-Kältemaschinen, Lüftungsventilatoren, Pumpen und Beleuchtung. Überschüssiger Strom kann ggf. an den Stromversorger verkauft werden.
Der Wärmebedarf für den Brauprozess, sowie für die Wärme im Flaschen- und Fassreinigungsprozess, sowie zur Pasteurisierung des Bier (bei Rückgewinnung eines Teils der Wärme auf leicht niedrigerem Temperaturniveau) wird durch eine Wärmebedarfsauslegung des BHKW weitestgehend gedeckt. In der Ausführung des BHKW sollte berücksichtigt sein, dass die Wärme in ausreichender Menge bei höherer Temperatur durch optimale Nutzung des heißen Abgases entnommen wird, um auf jeden Fall den Dampfbedarf in der Würzepfanne zu decken.
Es lässt sich kaum bezweifeln, dass das Handy im jugendlichen Alltag einen festen Platz gewonnen hat und von den Jugendlichen selbst als extrem wichtiges Kommunikationsmedium wahrgenommen wird. Generation "@" bezeichnete der Freizeitforscher Horts Opaschoswki (1999) die Jugendliche von heute, die in einem Informationszeitalter und zudem, dank der mobilen Technologien, in einer mobilen Gesellschaft aufwachsen. Der Gebrauch von mobilen Kommunikationstechnologien verändert den Alltag von Jugendlichen und führt zur Praktizierung von neuen mobilen Lebensstilen. Das mobile Telefon gehört zum Alltag der Jugendlichen und übernimmt ganz verschiedene Funktionen: Organisation von Alltagsaktivitäten, Aufbau und Aufrechthalten von sozialen Beziehungen, Einbettung in die sozialen Netzwerke, Sicherheitsfunktion, darüber hinaus wird das Handy gerade von den Jugendlichen crossmedial benutzt. Dank der integrierten Medien, etwa MP3-Player oder Fotokamera gewinnt das Handy unter den Jugendlichen noch mehr Popularität. Neben seiner Kommunikationsfunktion wird das Handy im Jugendalter als Medium für Artikulieren der eigenen Persönlichkeit verwendet. Durch bewusste Auswahl von Klingeltönen, Handylogos, Modell und Farbe präsentieren Jugendliche bestimmte Informationen über sich selbst und eigene Stil- und Moderichtungen. Das Handy ist ein wichtiger Teil der Teenageridentität und unterstützt auf eine gewisse Art die jugendtypischen Entwicklungsaufgaben, etwa Ablösungsprozesse von Eltern und Sich-Verorten in jugendlichen Peergroups. Von Land zu Land weisen die Handynutzungsmotive unter den Jugendlichen kulturspezifische Merkmale auf, die auch dazu führen, dass Handys mit unterschiedlichem Grad in den Alltag seiner Nutzer/innen integriert werden. Unterschiede tauchen nicht nur bei dem eigentlichen Umgang mit dem Handy auf, sondern auch in der Art und Weise, wie kommunikative Lebensstile artikuliert und damit verbundene kommunikative Mobilität erlebt wird. Die vorliegende Arbeit befasst sich mit den kulturspezifischen Aspekten des Handygebrauchs im Jugendalter.
In der vorliegenden Arbeit wird ein softwaregestütztes Verfahren vorgestellt, mit dem untersucht werden kann, wie weit die Dosis in der Mammographie abgesenkt werden kann. Die entwickelte Software analysiert dabei die jeweilige Modalität anhand von Aufnahmen des PAS 1054-Prüfkörpers. Die erfassten Daten werden verwendet, um an vorhandenen Mammogrammen eine Dosisreduktion zu simulieren. Dazu kommen Verfahren der Bildverarbeitung, insbesondere die Wavelet-Transformation zum Einsatz. Durch eine vergleichende Auswertung der simulierten Aufnahmen mit den originalen können Grenzwerte für die diagnostische Tauglichkeit von Aufnahmen mit reduzierter Dosis gewonnen werden.
Welche qualitativen Verbesserungsmöglichkeiten bieten Mailinglisten für den bibliothekarischen Informationsdienst? Nach einem Überblick über Aufgaben und Formen bibliothekarischer Informationsdienstleistungen und einer Einführung in Mailinglisten für den Informationsdienst wird in dieser Arbeit exemplarisch die im Juli 1998 als deutschsprachiges Pendant zu Stumpers-L für Auskunftsbibliothekare gegründete Mailingliste "RABE" (Recherche und Auskunft in bibliothekarischen Einrichtungen) beschrieben und analysiert. Dazu werden die Ergebnisse zweier empirischer Untersuchungen herangezogen: einer im März 1999 durchgeführten Umfrage unter den Listenmitgliedern und einer Auswertung der im WWW-Archiv von RABE bis Fe-bruar 1999 gespeicherten Listenbeiträge. Unter anderem werden dabei die institutionelle und geographische Herkunft der Listenmitglieder, ihr Nutzungsverhalten (Aktivitätsprofile), ihre Erfahrungen mit RABE und die zur Beantwortung von Auskunftsfragen verwendeten Informationsquellen untersucht. Abschließend erfolgt eine Bewertung von RABE als Instrument im bibliothekarischen Informationsdienst.
In dieser Arbeit wurde eine Machbarkeitsstudie zur Speicherung von Wasserstoff in Liquid organic hydrogen carriers (LOHCs) anhand eines gewählten Stoffsystems, Dibenzyltoluen, durchgeführt. Die Arbeit umfasst Bilanzierungen und Auslegungen für eine reversible Hydrierung und Dehydrierung in zwei getrennten Anlagen. Eine class 4-Kostenschätzung bildet die Grundlage für eine Wirtschaftlichkeitsberechnung. So konnten die Technologieziele hinsichtlich der Speicherfähigkeiten nicht realisiert werden. Dennoch zeigen die ermittelten Produktionskosten die Wettbewerbsfähigkeit dieses Ansatzes.
Kontakt: Fabian.Piehl@outlook.com
Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop
(2016)
Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt.
In dieser Arbeit wird die Erstellung eines fachspezifischen Segments des kooperativ erstellten Navigations- und Schulungssystems LOTSE für das Fachgebiet Theologie dokumentiert. In einem ersten Teil, wird das Navigations- und Schulungssystem LOTSE vorgestellt. Im Zusammenhang mit den aktuellen Projektentwicklungen der Projektphase LOTSE II geht die Verfasserin auch auf die entstehende Virtuelle Fachbibliothek Theologie und Religionswissenschaften VirTheo ein. In einem zweiten Teil wird der Diskussionsstand zur fachspezifischen Vermittlung von Informationskompetenz in der Theologie skizziert und LOTSE mit vorhandenen Tutorials zu elektronischen Informationsmitteln der Theologie verglichen. In einem dritten Teil werden konzeptionelle Entscheidungen zur Erstellung des LOTSE-Fachsegments Theologie erläutert und ein Auswahlprofil für fachlich relevante Internetseiten formuliert. Anschließend wird die Erstellung selbst anhand von Beispielen dargestellt. Das Fachsegment ist online frei zugänglich unter http://lotse.uni-muenster.de/theologie.
Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
Das Gespräch als Grundeinheit der zwischenmenschlichen Kommunikation stellt die wichtigste Methode des professionellen Handelns in der Sozialen Arbeit dar. Für den beruflichen Alltag der Soziarbeiter/innen spielt die Gesprächsform „Beratung“ eine zentrale Rolle in allen Phasen des Interventionsprozesses. Seit den 70er Jahren spielt Beratung als Forschungsgegenstand in der Linguistik sowie weiteren wissenschaftlichen Disziplinen eine wichtige Rolle. Eine detaillierte Erforschung von Besonderheiten des Beratungsgesprächs in der Sozialen Arbeit auf der Mikroebene mit Hilfe der linguistischen Forschung fand dagegen bis auf wenige Ausnahmen im englischsprachigen Raum wenig Beachtung.
In der vorliegenden Arbeit werden authentische Beratungsgespräche in der Sozialen Arbeit mit linguistischen Forschungsmethoden analysiert. Besondere Aufmerksamkeit wird dabei auf die Phase der Lösungsentwicklung und Lösungsverarbeitung mit dem Schwerpunkt auf der Erteilung von Ratschlägen gerichtet. Die Datengrundlage bilden fünf Gesprächsaufnahmen, die in unterschiedlichen Einrichtungen der Wohnungslosenhilfe gemacht wurden.
In der Diplomarbeit wurden die lichttechnischen Eigenschaften einer Bildwand für die Rückprojektion untersucht. Die Projektion erfolgte mit einem Beamer. Die Bildwand bestand aus einer Streuscheibe und einer Fresnellinse. Die horizontale und vertikale Abstrahlcharakteristik, der Transmissionsgrad und die maximal mögliche Leuchtdichtemodulation wurden bestimmt. Die Abstrahleigenschaften der Streuscheibe und ihr Reflexionsgrad wurden gemessen. Dies ermöglicht den Einfluss von Streulicht abzuschätzen. Mit Hilfe eines Spaltes und eines selbst erstellten Computerprogramms wurde die Modulationsübertragungsfunktion in horizontaler und vertikaler Ausrichtung berechnet. Abschließend werden die Grundprinzipien für den Aufbau einer Rückprojektionseinrichtung diskutiert.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
Das Ziel der vorliegenden Masterthesis ist es, einen Überblick der verschiedenen Datenbanktypen und Leistungsanalysen zu geben. Die vergleichende Literaturstudie beschäftigt sich mit einem jungen Forschungsfeld und betrachtet insbesondere nichtrelationale NoSQL-Datenbanken, welche in den letzten Jahren immer beliebter geworden sind und einige Vorteile gegenüber relationalen Datenbanken aufweisen. Doch was können die konkreten Datenbankimplementierungen bei unterschiedliche Datenmodellen leisten und welcher Testaufbau bietet sich bei welchen Einsatzanforderungen an? Zu Anfang definiert diese Arbeit Kriterien zur Bewertung von Leistung und untersucht experimentelle Vorgehensweise verschiedener Forscher. Ein wichtiger Fokus liegt darauf, die Vergleichbarkeit der Messmethoden und Ergebnisse einzuschätzen und zu gewährleisten. Neben dem methodischen Vorgehen wird mit dem YCSB-Framework ein wichtiges Werkzeug besprochen, mit dem Leistungsmessungen in NoSQL-Datenbanken implementiert werden können.
Die vorliegende Arbeit beschäftigt sich mit der Jugendbibliothek freestyle der Stadtbüchereien Düsseldorf. Das Konzept zielt auf eine langfristige Kundenbindung jugendlicher Nutzer ab 14 Jahre. Das Projekt und seine Durchführung werden ausführlich vorgestellt. Ferner wird eine Kundenbefragung unter den freestyle-Nutzern durchgeführt. Diese ermittelt die Kundenzufriedenheit und liefert Rückschlüsse auf den Erfolg des Konzepts. Darüber hinaus werden das Freizeit- und Medienverhalten Jugendlicher aufgegriffen und Ursachen für den Wegfall dieser Zielgruppe in Öffentlichen Bibliotheken ermittelt. Zusätzlich verdeutlicht diese Arbeit die zunehmende Bedeutung von Kundenbindung und Marketing für öffentliche Einrichtungen und stellt praktische Kundenbindungsinstrumente aus Wirtschaft und Kultur vor, die als Anregung für ein langfristiges Kundenbindungsprogramm in Öffentlichen Bibliotheken dienen sollen.