Refine
Year of publication
Document Type
- Master's Thesis (296)
- Bachelor Thesis (127)
- Study Thesis (30)
- Article (7)
- Working Paper (6)
- Conference Proceeding (3)
- Part of a Book (2)
- Report (2)
- Book (1)
- Other (1)
Keywords
- Sozialarbeit (18)
- Germany (17)
- Deutschland (15)
- Öffentliche Bibliothek (15)
- USA (14)
- Bibliothek (13)
- Informationskompetenz (12)
- Soziale Arbeit (12)
- Market Research (11)
- XML (11)
Faculty
- Fakultät 10 / Institut für Informatik (141)
- Fakultät 03 / Institut für Informationswissenschaft (70)
- Fakultät 07 / Institut für Medien- und Phototechnik (59)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (44)
- Fakultät 10 / Advanced Media Institute (28)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (19)
- Fakultät 07 / Institut für Nachrichtentechnik (17)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (14)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (10)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (8)
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Electronic Business
(2006)
”Es gibt nur einen Erfolg - nach seinen eigenen Vorstellungen leben zu können.“ (Christopher Morlay) Erfolgreiches Business beruht auf einem sehr einfachen Grundprinzip: Stellen Sie sich dem Konkurrenzkampf und seinen Sie einfach besser. Provokativ heißt das, dass jedes Unternehmen, dass an die Spitze will, mehr Produkte mit höherer Qualität, in größeren Stückzahlen, in kürzerer Zeit und mit besseren Serviceleistungen als die Konkurrenz anbieten muss. Dabei erzwingt der rasche technologische Fortschritt eine vorausschauende Taktik. Hier nimmt das Internet seit einigen Jahren eine Schlüsselposition ein. Durch das Internet ist eine Informationsgesellschaft entstanden, die von allen Unternehmen eine extrem hohe Flexibilität fordert. Diese Flexibilität muss für jeden Kunden nachvollziehbar und somit transparent sein. Es kann keine Frage mehr sein, ob eine Firma ins eBusiness einsteigt, sondern nur noch wann und wie. Wahrscheinlich bedarf es keiner besonderen Hervorhebung mehr, dass das Thema eBusiness keine reine Nebensache für Spezialisten sein darf. Vielmehr ist es so, dass sich die Unternehmen durch das eBusiness auf Ihre Kernkompetenzen konzentrieren können. Bevor man sich aber genauer mit dem Thema auseinandersetzen kann, muss man sich darüber klar sein, was eBusiness eigentlich ist - und was es nicht ist.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
Marketing-Mix
(2006)
Der Marketing-Mix mit seinen 4Ps zur operativen Marketingplanung ist innerhalb des Marketing-Managements die nächste Stufe nach der Marktanalyse in dem die strategische Marketingplanung erarbeitet wurde. Die strategische Marketingplanung befasst sich mit der Analyse des Zielmarktes und der grundsätzlichen Zielrichtung des Unternehmens. Auf Basis der gewonnenen Erkenntnisse wird in der Phase der operativen Marketingplanung versucht, die Unternehmensaktivitäten am Zielmarkt des Unternehmens auszurichten.
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
Reisen - damit verbinden wir fast alle etwas Positives und doch jeder etwas Anderes. Für den Einen bedeutet Reisen Erholung pur, für den Anderen Strand und Party, für manche vor allem Bildung in unterhaltsamer Verpackung und für immer mehr Abenteuer in der „Wildnis“ und das Erleben unbekannter, vermeintlich „ursprünglicher, unzivilisierter“ Kulturen. Die Angebotspalette der Tourismusindustrie ist so vielfältig wie die möglichen Assoziationen zum Thema Reisen und versucht gestressten „Westlern“ zu bieten, wonach sie suchen. Kapitel II.1. dieser Arbeit widmet sich dieser Vielfalt des Tourismus und leitet über zu Fragen, mit denen sich viele Touristen gar nicht oder zu wenig auseinandersetzen: Welche Bilder bringen „wir“, die Vertreter westlicher Industriegesellschaften, von der Gastgeberkultur bereits mit, bevor wir sie überhaupt erlebt haben? Wie beeinflusst das unsere Begegnung? Welche Konsequenzen hat Tourismus für die Kultur der Besuchten? Die Tourismusforschung hat dazu Überlegungen angestellt und Studien veröffentlicht, von denen einige ausgewählte in Kapitel II.2. kurz vorgestellt werden. Ich selbst habe während meines viermonatigen Auslandspraktikums im Amazonasgebiet Ecuadors begonnen, mich für diese Frage zu interessieren. Das Praktikum absolvierte ich im Rahmen meines Studiums der Mehrsprachigen Kommunikation an der FH Köln. Als Tourdolmetscherin in einer Dschungel-Lodge war eine meiner Aufgaben, zwischen Besuchern aus Nordamerika oder Europa und den besuchten Quichua vom oberen Napo sprachlich zu vermitteln. Die Kultur dieser indigenen Gemeinschaft hat mich sehr fasziniert und mich zu der Frage geführt, ob der Tourismus zu einer Wiederbelebung ihrer Kultur beitragen kann. Diese Frage soll im Mittelpunkt meiner Arbeit stehen. Im Zusammenhang dazu wird in Kapitel III. der Ökotourismus oder nachhaltige Tourismus vorgestellt, der neue Anforderungen an die Tourismusentwicklung stellt und im Amazonasgebiet Ecuadors - mehr oder weniger konsequent umgesetzt - bereits weit verbreitet ist. In diesem Kapitel soll verdeutlicht werden, welche Faktoren mit dem Erhalt einer indigenen Kultur wie der der Quichua verknüpft sind. Kapitel IV. soll dem Leser einen Einblick in ausgewählte Aspekte der Kultur und Geschichte der Quichua des oberen Napo gewähren, die im lokalen Ökotourismus von Bedeutung sind. Das letzte Kapitel, Kapitel V. stellt das Projekt RICANCIE vor, in dem Quichua-Gemeinden selbst Ökotourismus anbieten. Mit diesem Beispiel soll gezeigt werden, dass Tourismus tatsächlich dazu beitragen kann, die Wertschätzung der Quichua-Kultur bei Gästen und Gastgebern zu steigern, sofern alle für das Gelingen eines solchen Projekts notwendigen Faktoren beachtet werden.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Um Strahlenschäden zu vermeiden und die Aufnahmequalität der Röntgenbilder in der Veterinärmedizin zu verbessern, wurde im Rahmen dieser Arbeit ein Konzept für einen „Digitaler Aufnahmehelfer für die Kleintierradiologie“ entwickelt. Bei der Produktion dieser flashbasierten Software wurden beispielhaft computergenerierte Grafiken (CGI) und 3D-Animationen erstellt. Ebenso wurden Belichtungstabellen eingebunden. Diese wurden in Zusammenarbeit mit der Tierhochschule Hannover und der Firma Gierth X-Ray international erarbeitet. Es ergaben sich Belichtungswerte, die auf physikalischen Grundlagen beruhen.
Studien belegen, dass das Internet bei der Informationsversorgung der Menschen immer mehr an Bedeutung gewinnt. Stimmen aus der Forschung fordern eine Präsenz der Bibliotheken am Point-of-Need ihrer Nutzer, also auch im Internet. Während im angloamerikanischen und skandinavischen Raum relativ frühzeitig auf diese Entwicklung reagiert und ein digitaler Auskunftsdienst additiv zur traditionellen Walk-in Auskunft angeboten wurde, ging man in Deutschland lange Zeit recht zögerlich mit diesen neuen Kommunikationswegen um. Mittlerweile lässt sich aber auch hier ein gesteigertes Interesse an der Digitalen Auskunft erkennen. Projekte wurden initiiert und befinden sich zum Teil bereits im Regelbetrieb. In dieser Arbeit soll der Entwicklungsstand der Digitalen Auskunft in Deutschland nachgezeichnet und anhand einer vergleichenden Evaluation in einem internationalen Kontext positioniert werden. Dazu werden die folgenden Verbünde in die Evaluation einbezogen: Die Deutsche Internetbibliothek (D), InfoPoint (D), Virtuelle Auskunft im SWB (D), Biblioteksvagten (DK), Enquire (GB), IPL (USA) und Ask a Librarian/ Florida (USA). Aus der Fachliteratur abgeleitete Standards dienen dabei als Grundlage für einen Kriterienkatalog, der Stärken und Schwächen der Auskunftsverbünde identifizieren soll.
Die vorliegende Arbeit vermittelt eine umfassende Darstellung der wesentlichen Unterschiede von deutschem und spanischem Zivilrecht im Hinblick auf die Rechts- und Geschäftsfähigkeit natürlicher Personen. Neben einer kurzen Zusammenfassung zur Entstehungsgeschichte des BGB werden Fragen zum Beginn und Ende der Rechtsfähigkeit, die Stufen der Geschäftsfähigkeit und Auswirkungen auf Rechtsgeschäfte bei Abgabe fehlerhafter Willenserklärungen behandelt.
Bibliothek 2.0 : Neue Perspektiven und Einsatzmöglichkeiten für wissenschaftliche Bibliotheken
(2007)
Zunächst als Marketingbegriff geschaffen, ist der Neologismus „Web 2.0“ mittlerweile zum buzzword geworden, dem bis dato jedoch eine konkrete und eindeutige Definition fehlt. Zunehmend erlangt die Thematik des Web 2.0 große Aufmerksamkeit und beinahe täglich entstehen neue Applikationen, Anwendungen und Informationsdienstleistungen, die sich besonders durch eine kollaborative Entstehung und Nutzung von Informationen kennzeichnen – Schlagwörter wären hier u.a. Wikis, Weblogs oder RSS-Feeds. Wissenschaftliche Bibliotheken, die als Zentren von Informationsdienstleistungen dienen, dürfen sich vor dem externen wie internen Gebrauch und der Einbindung der Web 2.0-Techniken in ihre Institutionen nicht verschließen, sondern sollten gerade hier eine Vorreiterrolle einnehmen, um so das Geschehen auf diesem für sie potenziell immer wichtiger werdenden Sektor beeinflussen und mitgestalten zu können. In dieser Arbeit sollen solche wissenschaftlichen Bibliotheken vorgestellt werden, die in Bezug auf Web 2.0-Anwendungen bereits erste Erfahrungen gesammelt haben und nunmehr für weitere wissenschaftliche Bibliotheken eine Vorbildfunktion einnehmen können. Die dargestellten bibliothekarischen Beispiele zeigen, dass eine Wandlung und Anpassung an die neuen Anforderungen – seitens der Bibliotheksnutzer, aber auch und vor allem seitens der Bibliothekare – bereits begonnen hat. Im Einzelnen liegt hierbei das Hauptaugenmerk auf dem Kölner UniversitätsGesamtkatalog (KUG), dem Recommender-System BibTip in Karlsruhe, dem Weblog der UB Mannheim, der LMU München mit ihrer Schnittstelle zu Connotea und der internen Informationsplattform ISIS aus der SULB Saarbrücken. Ausgehend von diesen Beispielen aus der Praxis wird ferner ein genereller Blick gewagt, welche Fakten als Ursache für eine entstehende Bibliothek 2.0 gesehen werden können. Hierbei werden insbesondere die Auskunft, der Schulungskomplex und die Erschließung betrachtet, die von einem Umdenken und einer Umstrukturierung betroffen sein müssen, wobei für diese Einzelbereiche neue Optionen herausgearbeitet werden, durch die sie in besonderem Maß vom Web 2.0 profitieren können.
In dieser Diplomarbeit wird ein neues Verfahren für den automatischen Weißabgleich einer digitalen Kamera beschrieben. Das Verfahren bestimmt die beleuchtende Lichtfarbe durch Messung von polarisierten Reflexen. Die Arbeit untersucht mit diesem Verfahren Reflexe an verschiedenen Oberflächen. Herausgearbeitet werden die kritischen Situationen der Anwendung. Dies geschieht im Hinblick auf die spätere Optimierung des Verfahrens.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
In dieser Bachelorarbeit wird ein Verfahren zur HDR-Bilderstellung vorgestellt und mit anderen Verfahren verglichen, das eine beliebige Belichtungsreihe verarbeitet und auf der Erstellung von Histogrammen der Helligkeitsverhältnisse zwischen den Aufnahmen basiert. Der Algorithmus wurde in Java als Plugin für die Bildverarbeitungssoftware ImageJ implementiert.
Durch technische und politische Veränderungen wird die Vernetzung verschiedenster gesellschaftlicher Gebiete immer leichter – so auch im Bibliotheksbereich. Vor diesem Hintergrund stellt sich die Frage, was dies für die „Bibliothekslandschaft“ Europas bedeutet: Befinden die europäischen Bibliotheken sich in einer Phase intensiver Zusammenarbeit durch Vernetzung – oder ist bereits ein arbeitsteiliges System auf europäischer Ebene im Entstehen begriffen? Nach Beschreibung der verschiedenen Infrastrukturebenen wird das Zustandekommen zweier unterschiedlicher, EU-geförderter Projekte erläutert (IMPACT und EDLnet). Zum einen, um die Bedeutung von Vernetzung für typische Projektabläufe darzustellen, zum anderen, um zu zeigen, dass Projekte als „temporäre Systeme“ funktionieren. Auf Basis der Analyse werden „Desiderate“ für die Zusammenarbeit formuliert und abschließend die Frage nach „Systembildung“ oder „Vernetzung“ beantwortet.
Web 2.0 als markantes Marketingschlagwort und ein Begriff, der viele Assoziationen und Interpretationsmöglichkeiten zulässt, beschreibt die Entwicklungsphase, die das Internet momentan durchläuft. Verbunden mit zahlreichen Anwendungen und Konzepten wie Wikis, Podcasts, Blogs, Social Tagging, Webplattformen, Social Networks und weiteren wesentlichen Elementen vollzieht sich im Internet eine immer stärkere Demokratisierung, die sich in ihren dezentralen Strukturen und zunehmend partizipierten Nutzern zeigt. Die Nutzer selbst verfügen über immer größer werdende Freiräume sowie Möglichkeiten eigene Inhalte zu publizieren, selbstständig zu kommunizieren, zu diskutieren und Inhalte gemeinsam durch die kollektive Zusammenarbeit zu verändern sowie deren Qualität und Vielfältigkeit zu verstärken. Dies hat maßgeblich die Kommunikation und den Austausch von Informationen im Internet verändert und weiterentwickelt. Auch Weblogs1 positionieren sich zunehmend als Bestandteil dieser sich verändernden Medien- und Informationslandschaft als neu entstandenes Instrument zur Kommunikation, Information und Vernetzung. Dabei stellen die zunächst als verlinkende und navigierende Instrumente entstandenen Weblogs innerhalb des Internets heute eine wichtige Form der Auseinandersetzung mit sowohl privaten als auch öffentlichen Themen dar. Entscheidend ist dabei vor allem die sehr subjektive und authentische Darstellung von persönlichen Erlebnissen, jedoch auch die Reflexion politischer und gesellschaftlicher Neuigkeiten sowie die kritische Auseinandersetzung mit der Medienlandschaft. Besonders die Diskussion über verschiedene sehr breit gefächerte Themenkomplexe sowie der Austausch und die Vernetzung in der so genannten Blogosphäre nehmen dabei einen hohen Stellenwert ein. Wenngleich die Auseinandersetzung mit der eigenen Person vor allem im privaten Bereich auftritt, stellen sich Weblogs im unternehmerischen Bereich zunehmend als wertvolle Instrumente des Marketings und der internen wie externen Kommunikation heraus. Als einfach einzurichtende und leicht handhabende Instrumente werden Weblogs immer stärker in die Ziele und Strategien von Unternehmen mit eingebunden. Aber auch Bibliotheken sind zunehmend auf diesen neuen Bereich des Internets aufmerksam geworden. Anhand eines zunächst einleitenden Kapitels über den Begriff des Web 2.0 im Allgemeinen sowie speziellen Formen und der Darstellung von Weblogs als separat betrachtete Form der Web 2.0-Anwendungen, stellt diese Arbeit die Verwendung von Weblogs in öffentlichen Bibliotheken ins Zentrum der Betrachtung. Neben einer Übersicht über den momentanen Stand von konkreten Anwendungen und der vorliegenden Quellenlage soll eine vergleichende Betrachtung von Beispielen aus Deutschland und den USA anhand einer Analyse konkrete Erkenntnisse verdeutlichen und zeigen, inwieweit Chancen bereits genutzt werden und noch Potenziale bestehen. Abschließend werden diese Ergebnisse in einem eigenständigen Konzept zur Umsetzung einer Bloggingstrategie für öffentliche Bibliotheken dargestellt und in einem Fazit in Zusammenhang mit einem Ausblick auf mögliche, zukünftige Entwicklungen gesetzt.
In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.
Semesterapparate gehören in Hochschulbibliotheken seit langer Zeit zur Standardausstattung, die im Semesterapparat aufgestellte Literatur wird gewöhnlich für das Semester von der Ausleihe ausgenommen. Der klassische Semesterapparat enthält dabei neben Literatur zu den Lehrveranstaltungen meist auch einen oder mehrere Ordner mit Kopiervorlagen, etwa Skripten und Übungsaufgaben oder –klausuren. Doch immer wieder fehlen aus den Ordnern die Unterlagen, überstehen das häufige Kopieren nicht oder werden so stark in Anspruch genommen, dass die Studierenden lange auf die Gelegenheit zum Kopieren warten müssen. Durch die umfangreiche Novellierung des Urheberrechtsgesetzes im Jahr 2003 und die mittlerweile selbstverständliche Benutzung von Computertechnologie und Internet haben die Hochschulbibliotheken die Möglichkeit bekommen, den klassischen Semesterapparat um eine virtuelle Variante zu erweitern. Auf diesen Plattformen können Dozenten die für ihre Lehrveranstaltungen benötigten Materialien in elektronischer Form ablegen und so bequem für viele gleichzeitige Zugriffe zur Verfügung stellen. Auch die an vielen Hochschulen bereits im Einsatz befindlichen Lernplattformen und Lernmanagementsysteme eignen sich als Grundlage für virtuelle Semesterapparate.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.
E-Learning wird in der universitären Lehre eine zunehmend bedeutendere Rolle spielen. Im Rahmen von Bemühungen um generelle Umstrukturierungen des IKM- Bereichs, wie sie mit Blick auf angloamerikanische Vorbilder auch in Deutschland aufgegriffen worden sind, nehmen auch Bibliotheken im E-Learning-Bereich Aufgaben wahr. Knapp die Hälfte der deutschen Universitätsbibliotheken ist in irgendeiner Form in die universitäre E-Learning-Struktur eingebunden. Die verschiedenen Modelle dafür reichen von der Übernahme des vollen Services über eine strategische Partnerschaft bis hin zu lockeren Kooperationsformen. Insgesamt kann die Bibliothek ihr breites Dienstleistungsportfolio nutzen, um ihre Services in eine E- Learning-Umgebung einzubringen. Diese umfassen die Bereitstellung digitaler Dokumente in elektronischen Semesterapparaten oder Lernmanagementsystemen, die Etablierung der Bibliothek als reellem und virtuellem Lernort, Hilfestellung bei Fragen des Urheberrechts, die Erschließung multimedialer Lernobjekte mit Metadaten und ihre längerfristige Zugänglichmachung sowie die Vermittlung von Informationskompetenz mittels E-Learning-Szenarien wie Blended Learning oder Online-Tutorials. E-Learning bietet der Bibliothek die Möglichkeit, sich als moderner Dienstleister in einer veränderten Hochschul- sowie Medienlandschaft zu positionieren.
Ziel dieser Arbeit ist es, herauszufinden, ob der Parameter der fraktalen Dimension in Zukunft nützlich sein könnte für die computergestützte Auswertung von Mammographien. Dies gilt insbesondere für die Detektion architektonischer Störungen im Brustparenchym, die zuweilen durch den Radiologen schwer ausfindig zu machen sind. Die fraktale Dimension ist deshalb als Parameter so interessant, weil sie auf der Eigenschaft der Selbstähnlichkeit beruht. Eine Selbstähnlichkeit in der Struktur könnte auch das Brustgewebe haben, da Gewebewachstum ein fortlaufender Prozess ist, bei dem sich wiederholend die gleichen Formen herausbilden. Kommt es hier zu pathologischen Veränderungen, so ist dieser Ablauf unterbrochen und die Strukturen verändern sich.
Die Arbeit thematisiert schwedische Schulbibliotheken, ihre Strukturen, Aufgaben und an sie gestellte pädagogische Anforderungen auch im Zusammenhang mit der Vermittlung von Informationskompetenz, als eine der Kernkompetenzen von Schulbibliotheken. Die Rolle von Schulbibliotheken auf internationaler Ebene wird behandelt. Hierbei wird auf einen möglichen Zusammenhang mit den Ergebnissen der PISA-Studie eingegangen. Mit dem Schulbibliotheksmanifest der UNESCO wird ein international gültiges Grundlagenpapier vorgestellt. Zum besseren Verständnis des Kontextes, in dem schwedische Schulbibliotheken agieren, werden das schwedische Schulwesen, sowie die Entwicklung und Strukturen des schwedischen Bibliothekswesens eingehender behandelt. Im Anschluss daran erfolgt eine ausführliche Beschreibung des schwedischen Schulbibliothekswesens hinsichtlich historischer Entwicklung, Aufgaben, Funktionen und Ausstattung. Es wird betrachtet, welchen Stellenwert die Vermittlung von Informationskompetenz in der schwedischen Schulbibliotheksarbeit hat. Begleitend dazu werden zwei Konzepte zur Vermittlung von Informationskompetenz aus schwedischen Schulbibliotheken näher betrachtet. Zur plastischen Darstellung der gegenwärtigen Situation der schwedischen Schulbibliotheken, werden drei Beispiele für schulbibliothekarische Arbeit aus der Kommune Jönköping genauer vorgestellt, die im Rahmen einer privaten Studienreise besichtigt wurden. Im Anschluss daran wird die Frage erörtert, ob die schwedische Situation modellhaft für Deutschland ist. Zum Schluss werden die Ergebnisse einer im Jahr 2002 veröffentlichten repräsentativen Statistik zur Situation der Schulbibliotheken in Schweden auszugsweise wiedergegeben.
Die vorliegende Diplomarbeit vergleicht drei didaktisch-methodische Modelle von Präsenzveranstaltungen zur Vermittlung von Informationskompetenz an Hochschulbibliotheken. Neben den etablierten Konzepten Benutzerschulung und Teaching Library analysiert sie das von der Universitätsbibliothek Kassel entwickelte innovative Modell Learning Library. Die Arbeit untersucht jeweils die lerntheoretischen Grundlagen, das Verständnis von Informationskompetenz, Ziele und Inhalte, didaktische Prinzipien und Methoden. Abschließend bewertet sie, welches Modell hinsichtlich der Förderung des Lebenslangen Lernens zukunftsträchtig ist.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
Es lässt sich kaum bezweifeln, dass das Handy im jugendlichen Alltag einen festen Platz gewonnen hat und von den Jugendlichen selbst als extrem wichtiges Kommunikationsmedium wahrgenommen wird. Generation "@" bezeichnete der Freizeitforscher Horts Opaschoswki (1999) die Jugendliche von heute, die in einem Informationszeitalter und zudem, dank der mobilen Technologien, in einer mobilen Gesellschaft aufwachsen. Der Gebrauch von mobilen Kommunikationstechnologien verändert den Alltag von Jugendlichen und führt zur Praktizierung von neuen mobilen Lebensstilen. Das mobile Telefon gehört zum Alltag der Jugendlichen und übernimmt ganz verschiedene Funktionen: Organisation von Alltagsaktivitäten, Aufbau und Aufrechthalten von sozialen Beziehungen, Einbettung in die sozialen Netzwerke, Sicherheitsfunktion, darüber hinaus wird das Handy gerade von den Jugendlichen crossmedial benutzt. Dank der integrierten Medien, etwa MP3-Player oder Fotokamera gewinnt das Handy unter den Jugendlichen noch mehr Popularität. Neben seiner Kommunikationsfunktion wird das Handy im Jugendalter als Medium für Artikulieren der eigenen Persönlichkeit verwendet. Durch bewusste Auswahl von Klingeltönen, Handylogos, Modell und Farbe präsentieren Jugendliche bestimmte Informationen über sich selbst und eigene Stil- und Moderichtungen. Das Handy ist ein wichtiger Teil der Teenageridentität und unterstützt auf eine gewisse Art die jugendtypischen Entwicklungsaufgaben, etwa Ablösungsprozesse von Eltern und Sich-Verorten in jugendlichen Peergroups. Von Land zu Land weisen die Handynutzungsmotive unter den Jugendlichen kulturspezifische Merkmale auf, die auch dazu führen, dass Handys mit unterschiedlichem Grad in den Alltag seiner Nutzer/innen integriert werden. Unterschiede tauchen nicht nur bei dem eigentlichen Umgang mit dem Handy auf, sondern auch in der Art und Weise, wie kommunikative Lebensstile artikuliert und damit verbundene kommunikative Mobilität erlebt wird. Die vorliegende Arbeit befasst sich mit den kulturspezifischen Aspekten des Handygebrauchs im Jugendalter.
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.
In der Arbeit wird das Thema Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef, in den Studiengängen von Hospitality Management und Tourism Management, betrachtet. In dem theoretischen Teil werden allgemeine Definitionen, Modelle und Standards von Informationskompetenz vorgestellt, und die allgemeine Bedeutung von Informationskompetenz in der Informationsgesellschaft erläutert. Es werden auch die Geschichte, Methoden und Didaktik der Vermittlung von Informationskompetenz besprochen. In dem empirischen Teil wird einerseits durch eine Umfrage an die Studenten der Fachhochschule und andererseits durch eine Analyse der Abschlussarbeiten der Stand der Vermittlung von Informationskompetenz erforscht. Durch einen Vergleich mit anderen Hochschulen mit vergleichbaren Studiengängen wird weitere Einsicht in das Thema gewonnen. Auf der Basis der Umfrage und Analyse der Abschlussarbeiten ist der Stand der Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef relativ gut, aber er könnte auch noch mit kleinen Veränderungen verbessert werden. Einige konkrete Empfehlungen zur Verbesserung werden gemacht.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.
Ein Online-Tutorial für vascoda. Theoretische Grundlegung - Konzeption - Praktische Umsetzung
(2009)
Inhalt der vorliegenden Masterarbeit ist die Konzeption und praktische Umsetzung eines Online-Tutorials (Lernprogramms) für die Benutzer des wissenschaftlichen Internetportals vascoda. In einem umfangreichen Theorieteil werden zunächst der sachliche Hintergrund (Fachportale und Funktionen des Dachportals vascoda), der didaktisch-methodische Hintergrund (Mediendidaktik, Lerntheorien, Instruktionsdesign mit besonderer Berücksichtigung von E-Learning, Begriffsgeschichte und Definitionen des Begriffs Tutorial, Informationskompetenz) sowie der technische Hintergrund (Autorenwerkzeuge) dargestellt. Auf dieser Grundlage wird eine ausführliche Planung für das vascoda-Tutorial in verschiedenen Kategorien erarbeitet (Begründung der Medienwahl, Zielgruppenanalyse, inhaltliche und didaktisch-methodische Konzeption, technische Umsetzung), an deren Ende eine detaillierte Aufstellung der Lehrinhalte und Lehrziele steht. Das Ergebnis der praktischen Umsetzung ist auf einem beiliegenden Datenträger verfügbar (ein aus vier Untermodulen bestehendes Hauptmodul des vascoda-Tutorials als exemplarischer Prototyp). Das Schlusskapitel der Arbeit enthält eine abschließende Kritik dieses produzierten Moduls und zeigt Möglichkeiten einer Weiterentwicklung auf.
Seit Ende des 20. Jahrhunderts sind Kooperationen in Bibliotheken zum alltäglichen Mittel der komplexen Arbeitsbewältigung geworden. Durch die Veränderung der bibliothekarischen Umwelt, beispielsweise die Digitalisierung der Medien und das sich daraus wandelnde Nutzerverhalten, werden die Bibliotheken neuen Herausforderungen unterworfen. Diesen muss sich aufgrund der Fülle und Masse an zu bewältigenden Aufgaben kooperativ gestellt werden. Die Veränderungen veranlassen gleichzeitig neue Perspektiven der Konzeption von Kooperationen einzubeziehen. Hier bieten sich die Kooperationsforschung der Betriebswirtschaftslehre sowie die Systemtheorie Luhmannscher Prägung an. Ebenfalls sollten Kooperationsmodelle aus dem Ausland beobachtet werden, um neue Impulse für die Bildung von Kooperationen zu erlangen. Das Zusammenfassen dieser drei Ansätze führt zur Erlangung neuer Erkenntnisse im Bereich der sich verändernde Umwelt der Bibliotheken und die daraus zu schließende Reaktion in Form der Bildung geeigneter Kooperationen.
In dieser Arbeit wird die Erstellung eines fachspezifischen Segments des kooperativ erstellten Navigations- und Schulungssystems LOTSE für das Fachgebiet Theologie dokumentiert. In einem ersten Teil, wird das Navigations- und Schulungssystem LOTSE vorgestellt. Im Zusammenhang mit den aktuellen Projektentwicklungen der Projektphase LOTSE II geht die Verfasserin auch auf die entstehende Virtuelle Fachbibliothek Theologie und Religionswissenschaften VirTheo ein. In einem zweiten Teil wird der Diskussionsstand zur fachspezifischen Vermittlung von Informationskompetenz in der Theologie skizziert und LOTSE mit vorhandenen Tutorials zu elektronischen Informationsmitteln der Theologie verglichen. In einem dritten Teil werden konzeptionelle Entscheidungen zur Erstellung des LOTSE-Fachsegments Theologie erläutert und ein Auswahlprofil für fachlich relevante Internetseiten formuliert. Anschließend wird die Erstellung selbst anhand von Beispielen dargestellt. Das Fachsegment ist online frei zugänglich unter http://lotse.uni-muenster.de/theologie.
Die vorliegende Diplomarbeit beschäftigt sich mit Senioren in Öffentlichen Bibliotheken und liefert Konzepte für eine zielgruppenspezifische Bibliotheksarbeit. Dabei werden zunächst Begrifflichkeiten geklärt und die physischen und gesellschaftlichen Besonderheiten der Zielgruppe sowie die daraus resultierenden Voraussetzungen für Bibliotheken untersucht. Anschließend werden Empfehlungen für den Bestandsaufbau gegeben und verschiedene Veranstaltungsformen und Aktionen speziell für Senioren vorgestellt. Außerdem wird sowohl auf die aktive Medienvermittlung an heim- oder hausgebundene ältere Menschen eingegangen als auch auf effektive Möglichkeiten der Öffentlichkeitsarbeit und Werbung. Ferner werden Senioren als freiwillige Mitarbeiter in Bibliotheken berücksichtigt. Am Beispiel der Stadtbibliothek Eisenach wird dann die Umsetzung unterschiedlicher Angebote für die besagte Zielgruppe und die Resonanz der Benutzer darauf dargestellt. Abschließend wird ein Ausblick auf die Entwicklung der Zielgruppenorientierung auf Senioren gegeben.
Für Bibliothekare als Informationsspezialisten ist es essentiell, auf dem neuesten Stand der Entwicklungen zu bleiben und sich aus aktuellsten Quellen zu informieren und weiterzubilden. Aber auch die Vernetzung und der Austausch mit anderen fachkundigen Personen sind von Bedeutung. Ein Medium, das beide Aspekte vereint – eine aktuelle Informations- und Weiterbildungsquelle sowie die Möglichkeit der Vernetzung und des Austauschs – stellt das Weblog von und für Bibliothekare dar. In Deutschland besteht ein ausdifferenziertes Angebot bibliothekarischer Weblogs. Zentrale Fragestellung dieser Arbeit ist, ob und in welchem Maße dieses Angebot von deutschen Bibliothekaren angenommen und genutzt, das heißt rezipiert, wird. Dazu wird eine Online-Umfrage durchgeführt, welche über Mailinglisten und einige deutsche bibliothekarische Weblogs verbreitet wird. Zunächst wird das Weblog näher vorgestellt, danach folgt eine Darstellung des Hauptgegenstands dieser Arbeit – dem Fachblog und dessen aktueller Situation im bibliothekarischen Bereich in Deutschland. Nach der Vorstellung der deutschen Bibliobloglandschaft folgt eine Beschreibung des US-amerikanischen Stands von bibliothekarischen Fachblogs um im nächsten Schritt die deutsche mit der US-amerikanischen Situation zu vergleichen. Im weiteren Verlauf werden die Vorgehensweise der Online-Befragung sowie deren Auswertung und die Analyse der Auswertungsergebnisse behandelt. Eine Zusammenfassung der Ergebnisse mit Empfehlungen führt zum Abschluss der Arbeit.
Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
Der Begriff Web2.0 ist ein Internetschlagwort unserer Zeit und wird in der Gesellschaft mittlerweile beinahe inflationär gebraucht. Welche Möglichkeiten sich hinter diesem Begriff verbergen kann kaum in einem Satz zusammengefasst werden. Sicher ist jedoch, dass gerade dieses Onlineinstrument für Bibliotheken eine enorme Chance bietet, sich in einem neuen Kontext seinen gegenwärtigen und zukünftigen Benutzern darzustellen. In dieser Arbeit, die in Kooperation mit der Kölner Musemsbibliothek (KMB) entstand, werden Konzepte von Web2.0 - Anwendungen für den Typus der Museumsbibliothek mit Hauptaugenmerk auf die Spezifika der KMB entwickelt. Nach Untersuchung der Voraussetzungen, wie einer Mitarbeiterbefragung der Kölner Museumsbibliothek, wird zunächst auf das Internet, seine Funktionsweise und die sich daraus entwickelten Web2.0 - Anwendungen eingegangen. Darauf folgen Beispiele aus Museen in den USA und Großbritannien, die schon eine große Bandbreite von Möglichkeiten aufzeigen. Im Anschluss wird diskutiert, welche Anwendungen für die KMB zu empfehlen sind und unter Berücksichtigung ihrer Ressourcen umgesetzt werden können. Ob und welche Anwendungen realisiert werden können liegt in der Verantwortung der Leitung der Kölner Musemsbibliothek. Diese Arbeit kann lediglich als Hilfestellung bei der Findung eines neuen und modernen Ansatzes im Dienstleistungsangebot der Bibliothek und ihrer Mitarbeiter verstanden werden.
Seit den 90er Jahren des letzten Jahrtausends existieren Virtuelle Fachbibliotheken, die im Rahmen des Programms zur überregionalen Literaturversorgung von der DFG gefördert werden und mit der Verbindung von Nachweis und Zugang zu elektronischen und gedruckten wissenschaftlichen Informationen einen wichtigen Beitrag zur Fachinformationsversorgung für nahezu alle Wissenschaftsbereiche leisten. In dieser Arbeit wird überprüft, in wie fern die Virtuelle Fachbibliothek für die Medizin (Medpilot) die Anforderungen, die in der Literatur an eine Virtuelle Fachbibliothek gestellt werden erfüllt und in welcher Form die einzelnen Module umgesetzt wurden. Nach einer ausführlichen Beschreibung und einer Bewertung der einzelnen enthaltenen Module anhand definierter Kriterien werden Unterschiede zu anderen Angeboten aufgezeigt und Verbesserungsvorschläge unterbreitet.
Im Zeitalter der Globalisierung und der die Menschen so vieler verschiedener Nationalitäten weltweit vernetzenden Kommunikationstechnik stellt sich eine Frage immer wieder: In welcher Sprache soll die mittlerweile alltägliche internationale Kommunikation stattfinden? Bedingt durch die Zahl der Sprecher fällt die Entscheidung im globalen Rahmen meist auf eine der drei führenden Weltsprachen Englisch, Spanisch oder Chinesisch. Einem Großteil der Menschen kaum bewusst ist hingegen die Tatsache, dass die „Sprachenfrage“ oft schon auf einer viel niedrigeren Ebene als der globalen gestellt werden muss. Ein eindrucksvolles Beispiel hierfür ist das Königreich Spanien, auf dessen Territorium neben seiner offiziellen Amtssprache Kastilisch sechs weitere eigenständige Sprachen existieren, von denen drei in ihrer jeweiligen Autonomen Gemeinschaft ebenfalls offiziellen Status haben. Der komplexe und zuweilen überaus konfliktreiche sprachpolitische Regelungsbedarf, der mit dem Nebeneinander von Staats- und Regionalsprache in Katalonien und dem Baskenland einhergeht, ist Thema der vorliegenden Arbeit. Nachdem zunächst ein kurzer Blick auf die Sprachpolitik im spanischen Staat in der Vergangenheit und auf Ebene der Zentralmacht geworfen wird, zeigt die vorliegende Arbeit im Anschluss auf, in welchen Bereichen Katalonien und das Baskenland die Stärkung bzw. Wiedereinführung ihrer Regionalsprachen jeweils am intensivsten gefördert und welche konkreten Maßnahmen sie zu diesem Zweck seit der Demokratisierung Spaniens ergriffen haben. Zudem werden die wichtigsten Kritikpunkte an der katalanischen Sprachpolitik dargelegt, um anhand deren extremer Züge beispielhaft auf die Probleme einer zuweilen zu entschlossenen regionalen sprachpolitischen Linie hinzudeuten.
Einzelne Lebensereignisse und geschaffene Werke beinhalten häufig Bezüge zu anderen Geschehnissen oder sie werden beeinflusst durch die Beziehungen zu Mitmenschen, Herkunft, bestimmte Charaktereigenschaften, zeitgeschichtliche Ereignisse o.ä. Dem Schreibprozess einer Biographie muss ein umfassendes Verständnis dieses komplexen Systems vorausgehen, um zu verhindern, dass sich deren Inhalt auf eine chronologische Darstellung beschränkt. Am Ludwig Boltzmann Institut für Geschichte und Theorie der Biographie in Wien ist zu diesem Zweck ein biographisches Research-Wiki konzipiert worden. Dieses dient als Ablagesystem und Arbeitsinstrument für die am Institut entstehenden wissenschaftlichen Biographien. Besonders die Materialfülle des räumlich verteilten Hugo-von-Hofmannsthal-Nachlasses soll auf diese Weise besser zugänglich gemacht werden. Es ist geplant das Hofmannsthal-Wiki eventuell auch als Netzbiographie zu veröffentlichen. Zu den entscheidenden Funktionalitäten des Wikis gehören die hypertextuellen Verweise zwischen Ereignis- und Briefchronik, Themenkomplexe sowie die Gewährleistung der wissenschaftlichen Methode mittels ebenfalls hypertextuellen Referenzierungen aller Informationen. In dieser Arbeit wird untersucht, inwiefern sich Wikis und Hypertexte im Allgemeinen für einen Einsatz in der Biographieforschung eignen. Dabei werden zunächst die Eigenschaften einer Biographie und die Methoden der Biographieforschung dargestellt. Im Anschluss daran werden die Begriffe Hypertext und Wiki in den Kontext der Biographieforschung eingeordnet. Das Hugo-von-Hofmannsthal-Research-Wiki und teilweise auch das Jandl-Research-Wiki nehmen in dieser Arbeit die Funktion des Modellprojektes ein. Daher enthält die gesamte Arbeit Beispiele aus diesen beiden Datenbanken. Zusätzlich werden die Stärken und Schwächen des Hofmannsthal-Wikis in einem gesonderten Kapitel analysiert. Schließlich findet ein Vergleich mit dem Heine-Wiki, dem Heinrich-Heine-Portal und der Klagenfurter Ausgabe des Robert-Musil-Nachlasses statt. Abschließend wird ein Ausblick sowie Empfehlungen speziell in Bezug auf das Hofmannsthal-Research-Wiki, aber auch hinsichtlich des Nutzens von Wikis für die gesamte Biographieforschung, geboten.
Aufgrund des Mangels an Softwareprodukten, die Projektmitarbeiter beim örtlich und zeitlich verteilten Arbeiten in Projekten effizient und zufriedenstellend unterstützen, soll ein ToDo-Manager entwickelt werden, der den Bedürfnissen der Benutzer gerecht wird und deren Anforderungen erfüllt. Valide Prototypen basieren auf Anforderungen der Benutzer und spiegeln deren Interaktion mit dem System wider. Die konstruierten Interaktionsentwürfe sollen in Prototypen abgebildet, evaluiert und überarbeitet werden, bis die Aufgaben der Benutzer durch die Dialogschritte abgebildet werden, sodass eine effiziente und zufriedenstellende Bearbeitung ermöglicht wird. Auf der Basis von ermittelten Nutzungsobjekten und Werkzeugen wird die Navigationsstruktur ermittelt sowie der Funktionsumfang des Systems definiert. Das User-Interface Design beschreibt die Entwicklung von Prototypen, die durch Benutzer evaluiert werden. Berücksichtigt werden neben der Interaktion auch gestalterische Aspekte. Die evaluierten Prototypen werden iterativ überarbeitet, damit ein gebrauchstaugliches Modell des ToDo-Managers entsteht. Ziel der Bachelorarbeit ist das Durchführen einer konzeptionellen und konkreten User Interface Design Phase, in denen die Entwicklung eines auf den Anforderungen der Benutzer basierenden demonstrierbaren und interagierbaren Prototypen für einen ToDo-Manager angestrebt wird.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Diese Arbeit beschäftigt sich mit der Realisierung eines Parsers, der mathematische Beweise aus „TeXmacs“ in eine zu erstellende XML-Struktur umwandelt. Die Struktur der XML-Datei wird durch eine ebenfalls zu entwickelnde DTD-Datei vorgegeben. TeXmacs ist ein WYSIWYG-Editor zum Beschreiben von mathematischen Texten. Die Arbeit findet im Rahmen der Forschungsgruppe Naproche statt. Langfristig soll das Ergebnis der Arbeit in Naproche eingesetzt werden, um mathematische Beweise besser auf ihre logischen Aussagen zu überprüfen. Zu klären ist also, ob die logische Abfolge des erfassten TeXmacs-Beweises richtig in eine XMLStruktur umgesetzt wurde und alle dokumentierten Voraussetzungen und Beweisschritte im XML-Dokument syntaktisch richtig sind. Die Anwender, die direkt in TeXmacs mit Beweisen arbeiten, sollen eine Rückmeldung erhalten. Bei einer fehlerhaften Rückmeldung soll auch die Stelle im Beweis gekennzeichnet werden, an der der Fehler aufgetreten ist. Dieser kann so schnellstmöglich korrigiert werden. Tritt keine Fehlermeldung auf, wird auch das als Information ausgegeben. Diese Bachelorarbeit befasst sich mit der Realisierung des ersten Teils: Aus einer von TeXmacs erzeugten SCM-Datei soll mit einem Java-Programm die Struktur des mathematischen Textes ermittelt werden; es soll also eine Trennung von mathematischen Formelanteilen (Formeln, Gleichungen/Ungleichungen, mathematische Symbole, usw.) und beschreibenden Texten durchgeführt werden. Diese Struktur wird mit den Regeln einer DTD in ein XML-Format so umgewandelt, dass das resultierende XML-Dokument von den nachfolgenden Modulen des Naproche-Projekts bearbeitet werden kann.
The objective of this paper is to implement a baseband OFDM transceiver on FPGA hardware. The design uses 8-point SLT/ISLT (Slantlet/Inverse Slantlet) for the processing module with processing block of 8 inputs data wide. All modules are designed and implemented using VHDL programming language. Software tools used in this work includes Altera Quartus II 7.2 and ModelSim Altera 6.1g, to assist the design process and downloading process into FPGA board while Cyclone III board EP3C120F780C7 is used to realize the designed module.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
In dieser Bachelorarbeit werden der automatische Weißabgleich dreier Digitalkameras mit einem neuen Weißabgleich-Verfahren, dass derzeit von der Fachhochschule Köln entwickelt wird, verglichen. Eine Anzahl von Fotos in verschiedenen Situationen werden dafür erstellt, die zum Vergleich anhand verschiedener Parameter ausgewertet werden. Die Ergebnisse zeigen die Unterschiede zwischen den Verfahren der drei Kameras und dem neuen Verfahren auf, das die Lichtfarbe einer Beleuchtungsquelle durch Messung polarisierter Reflexe ermittelt, statt, wie bei anderen Weißabgleich-Verfahren üblich, anhand von Schätzungen. Die Verfahren werden so auf ihre Tauglichkeit im alltäglichen Einsatz und im Hinblick auf die Optimierung des neuen Verfahrens getestet.
Die Grundlage für diese Arbeit ist das opensource Roboterkettenfahrzeug SRV1 der Firma Surveyor [www-surveyor]. Im Auslieferungszustand ist es möglich, das Fahrzeug über ein Steuerungsprogramm fernzusteuern. Dies entspricht dem Funktionsumfang eines normalen ferngesteuerten Fahrzeugs, erweitert um eine Kamera, jedoch ohne jegliche Autonomie oder Intelligenz. Da das Fahrzeug auf einem embedded Board aufgebaut ist, welches über eine WLAN Verbindung verfügt, bietet es einen guten Ausgangspunkt für Erweiterungen. Ziel dieser Arbeit ist es eine Grundlage für autonome Fahrten zu schaffen. Als Betriebssystem wird uClinux, ein Linux für embedded Plattformen genutzt. Das Fahrzeug soll um einen zur Orientierung dienenden Kompass erweitert werden. Außerdem kommt ein RFID-Reader zum Einsatz, mit dessen Hilfe werden RFID-Transponder auf einer Teststrecke als künstliche Landmarken zur Positionsbestimmung genutzt. Es wird eine Software für autonome Fahrten entwickelt, die es ermöglicht, durch Verwendung der erweiterten Hardware, den Roboter eigenständig Punkte der Teststrecke anfahren zu lassen. Hierzu ist es erst notwendig alle Hardware im Betriebssystem, beispielsweise durch Treiber verfügbar zu machen.
Entwicklung eines Videoanalysesystems auf Basis von Java Mobile Edition für Symbian SmartPhones
(2009)
Der Markt für mobile Telefone wächst schon seit mehreren Jahren rasant. Das "Handy" wird schon lange nicht mehr nur zum Telefonieren benutzt. Es ist zu einem nicht mehr wegzudenkenden Assistenten geworden, der immer einsatzbereit und in Reichweite ist. Das Gerät kann außer den Grundfunktionen wie Telefonieren und SMS-Verschicken als persönlicher Terminplaner, Notizbuch oder auch als Foto- oder sogar Videokamera genutzt werden. In den letzten Jahren sind Mobiltelefone auch in der Internet- und Multimediawelt vertreten. Sie besitzen mittlerweile genug Leistung, Speicher und Bildschirmfläche, um Webseiten darzustellen oder komplette Spielfilme wiederzugeben. Die sinkenden Preise für mobile Breitband-Internetzugänge (Flatrate mit 7,2 Mbit/s schon ab 35 Euro), die wachsende Anzahl der mobilen Internet-Zugänge, die sinkenden Nutzungspreise der so genannten „HotSpots“ (in Hotels, Restaurants, etc. oft kostenfrei) und die Leistungsfähigkeit der aktuellen mobilen Endgeräte, ermöglichen die Nutzung der Videostreaming-Dienste. Diese Dienste können zum Beispiel IPTV, Video on Demand oder Videotelefonie sein. Um die Qualität des über ein IP-Netzwerk gelieferten Videodatenstrom zu gewährleisten, ist es notwendig die Qualität dieses Datenstroms im realen Umfeld und unter realen Bedingungen messen zu können. Das erfordert die Entwicklung eines Messsystems, welches direkt auf einem Endgerät installierbar und vom Gerätetyp möglichst unabhängig ist. Das zu entwickelnde Programm soll den Videodatenstrom mitschneiden und auswerten können ohne die Übertragung zum Wiedergabeprogramm zu stören. Es soll der Paketverlust, der Wert des Interarrival Jitters sowie die für das jeweilige Videoformat spezifischen Informationen erfasst werden. Die Auswertung soll in vom Benutzer bestimmbaren Intervallen durchgeführt werden können. Um diese Anforderungen zu erfüllen, wird eine Anwendung in der Programmiersprache Java Mobile Edition implementiert, die wie eine Netzwerkbrücke funktionieren wird. Sie wird Java-Threads für das parallele Empfangen und Weiterleiten der Datenpakete zwischen dem Server und dem Wiedergabeprogramm sowie für das Extrahieren und Auswerten der Daten verwenden. In Kapitel 2 werden die meisten Begriffe, die in der Diplomarbeit vorkommen erläutert. Einen wichtigen Punkt stellen in diesem Kapitel die Protokolle für den Transport der multimedialen Daten. Für die Darstellung von Videodaten auf mobilen Endgeräten hat sich der MPEG-4-Standard durchgesetzt. Dessen Entwicklung hat als Ziel, Systeme mit geringen Ressourcen oder schmalen Bandbreiten bei relativ geringen Qualitätseinbußen zu unterstützen. Auch dieser Standard wird hier dargestellt. Die Wahl der Programmiersprache, deren Hauptaspekte und die zur Fertigstellung des Messsystems nötigen Komponenten werden zum Schluss dieses vorgestellt. In Kapitel 3 wird die Umsetzung des Systems beschrieben: Zuerst die Darstellung des Entwicklungssystems und der Entwicklungsumgebung (3.1), danach werden zwei Alternativen genannt, nach denen die Entwicklung des Grundgerüsts der Software möglich ist (3.2). In Abschnitt 3.3 werden die Methoden präsentiert, die den Kern des Messsystems bilden und die so genannte „Deep Inspection“ des Videodatenstroms durchführen.
Durch den hohen Bedienkomfort und die übersichtliche Darstellungsweise sind berührungsempfindliche Bildschirme eines der wichtigsten Eingabegeräte geworden. Neben den technischen Aspekten wie der Bildwiedergabetechnik, der Touchscreen-Technologie und der Mediensteuerung, wird in dieser Arbeit die Mensch-Computer-Interaktion beschrieben. Ziel der vorliegenden Diplomarbeit ist die Gestaltung einer intuitiven ouchpaneloberfläche zur Steuerung medientechnischer Anlagen, welches am Beispiel eines Videokonferenzraumes beschrieben wird.
Moderne Mobiltelefone bieten heutzutage eine Vielzahl von Funktionen, die weit über die grundlegenden Sprachdienste hinausgehen. Sie können als Terminplaner oder auch als Foto- und Videokamera genutzt werden. Die Nutzung dieser Funktionen wurde durch die steigende Leistungsfähigkeit der Geräte möglich. Mit der Entwicklung von UMTS und insbesondere den Übertragungstechniken HSDPA und HSUPA erhält das „mobile Internet" mehr und mehr Einzug auf mobilen Endgeräten. Aufgrund der hohen Leistungsfähigkeit und des Vorhandenseins der nötigen Infrastruktur können auch Videostreaming-Dienste genutzt werden. Um die Qualität einer Videoübertragung sicherzustellen, ist es notwendig, eine Software zu haben, die die Rahmenbedingung der Übertragung bestimmt und so Rückschlüsse auf die entscheidenden Parameter ermöglicht. In dieser Arbeit soll eine Software entwickelt werden, mit der es möglich ist, die Qualität einer Videoübertragung zu bewerten. Um eine möglichst hohe Qualität der Videos zu ermöglichen, müssen sie zur Übertragung effizient komprimiert werden. Einer der neuesten Standards zur Komprimierung ist H.264. Dieser Standard bietet eine durchschnittlich dreimal höhere Kompressionsrate als MPEG-2, welches beispielsweise bei der Übertragung von digitalem Fernsehen (DVB) und der Speicherung von Videodaten auf einer DVD zum Einsatz kommt. H.264 ist Teil des MPEG-4 Standards, der sich im Bereich der mobilen Endgeräte schon jetzt durchgesetzt hat. Die Struktur von H.264 wird im zweiten Kapitel dargestellt, der Transport von H.264 über verschiedene Streaming-Protokolle im dritten Kapitel dieser Arbeit. Die zur Bewertung der Qualität verwendeten Parameter werden im vierten Kapitel zusammengefasst. Die zu erstellende Software soll primär für die Android Plattform entwickelt werden. Jedoch soll bei der Entwicklung auch darauf geachtet werden, dass die Software leicht in eine andere Umgebung portierbar ist. Die Android Plattform ist ein komplettes Softwarepaket für mobile Endgeräte wie Smartphones und Netbooks. Neben einem auf Linux basierenden Betriebssystem liefert Android eine Middleware für die Entwicklung und den Betrieb der Anwendungen. Im fünften Kapitel wird der grundlegende Aufbau und die Entwicklung einer Android Anwendung beschrieben. Nach der Betrachtung der Grundlagen zur H.264-Videokompression, der verwendeten Streaming-Protokolle und der Entwicklung einer Android Anwendung folgt das sechste Kapitel, welches sich mit dem Softwareentwurf und der Implementierung beschäftigt. Der plattformunabhängige Teil der Software steht hier im Fokus, während dem plattformabhängigen Teil lediglich ein kleiner Teil des Kapitels gewidmet ist. Die Qualitätssicherung der Software wird im siebten Kapitel beschrieben. Hier erfolgt eine Betrachtung des Einflusses der Software auf die Übertragung. Ebenso werden Methoden zur Überprüfung der Korrektheit erläutert. Das achte Kapitel zeigt die Auswertung der Messerergebnisse. Im neunten Kapitel wird die entworfene Software dargestellt. Es wird die Bedienung der Software erläutert, sowie die Darstellung der Messergebnisse präsentiert.
Diese Arbeit befasst sich mit der Thematik des Live-Streamings und webbasierter Medien-übertragung. Im Fokus steht in diesem Zusammenhang der Adobe Flash Media Server 3.0 als Streaming-Plattform sowie Adobe Flash CS3 als Entwicklungsumgebung. Neben den theoretischen Grundlagen wird die praktischen Umsetzung in Form einer iTVG-Applikation für einen exemplarischen Anwendungszweck eingehend erläutert. Dabei werden sowohl der technische Hintergrund der Programmierung wie auch die Methoden und Prinzipien des interakti-ven Designs, der Usability, diskutiert und in den Entwicklungsprozess integriert. Die Flash-Media Applikation wird abschließend einer kritischen Betrachtung unterzogen, um mögliche Fehlerquellen sowie weitere Entwicklungspotentiale aufzuzeigen.
Mit wachsender Globalisierung und Immigration steigt auch in Deutschland – einem sprachlich vergleichsweise homogenen Land – die Anzahl der Kinder, die von Geburt an mit zwei oder mehr Sprachen aufwachsen. In anderen europäischen Ländern wie Spanien, Belgien oder der Schweiz gehört die historisch geprägte Mehrsprachigkeit hingegen längst zum Alltag, wie auch in weiten Teilen Afrikas und Amerikas. Auch in vielen anderen Ländern der Welt stellt der Monolingualismus eher einen Ausnahmefall dar, während die Zwei- oder Mehrsprachigkeit vorherrscht. Trotz der weiten Verbreitung des Bilingualismus scheint dieser gerade in Deutschland noch stets mit negativen Vorurteilen behaftet zu sein. Die neuere Literatur des letzten Jahrzehnts hat allerdings gezeigt, dass Bilinguale im Vergleich zu Monolingualen nicht benachteiligt sind. Die Erforschung der psycholinguistischen Spracherwerbsprozesse hat bei dieser Erkenntnis eine wichtige Rolle gespielt, da Missverständnisse, aufgrund derer z. B. Sprachmischungen als mangelhafte Sprachkompetenz angesehen wurden, reanalysiert und neu interpretiert werden konnten). Ziel dieser Arbeit ist es, einen Überblick über den Stand der Mehrsprachigkeitsforschung zu geben und zu verdeutlichen, wie sich der Erwerbsprozess bilingualer Kinder in Hinblick auf die Sprachkompetenz und -performanz vollzieht. Der Fokus liegt dabei auf der separaten Entwicklung beider Sprachen und möglicher Kontaktphänomene.
Die World Health Organisation (WHO) beobachtet weltweit die Entwicklung der Influenzaerreger. Ein Ausbruch einer Pandemie soll dadurch schnell erkannt werden. Prinzipiell könnte jedes Influenzavirus eine Influenzapandemie auslösen. Voraussetzungen für ein pandemisches Virus wäre die Anpassung des Virus an den Menschen, eine Mensch zu Mensch-Übertragbarkeit sowie eine fehlende Immunität der Bevölkerung gegen dieses Virus. Die bedeutendste Bedrohung jedoch geht vom aviären H5N1-Virus aus. Vermutlich benötigt es nur wenige Mutationsschritte, sich zu einem pandemischen Virus zu entwickeln. Mit jedem an H5N1 verendeten Vogel und mit jeder Vogel zu Mensch-Übertragung steigt die Wahrscheinlichkeit einer Influenzapandemie durch H5N1. Ein pandemisches Influenzavirus unterscheidet sich von saisonalen Influenzaviren wahrscheinlich in vielen Eigenschaften. Die unterschiedlichen Eigenschaften der Viren und die Situation der Pandemie erfordern andere Schutzmaßnahmen als bei einer saisonalen Grippeepidemie. Ein Impfstoff für eine geeignete Schutzimpfung wird zu Beginn einer Pandemie noch nicht entwickelt und produziert sein. Der Einsatz von erfolgreichen antiviralen Medikamenten ist durch die verfügbare Menge und eine mögliche Resistenzbildung des Virus gefährdet. Der Expositionsschutz gehört daher zu den wichtigsten Schutzmaßnahmen und sollte bei Ausbruch einer Pandemie sofort verfügbar sein. Besondere Bedeutung hat der Schutz der Atemwege, da die aerogene Übertragung die wesentliche bei einer Influenzapandemie ist. Zum Schutz der Atemwege bieten sich Schutzmasken an. Empfohlen werden im nationalen Pandemieplan partikelfiltrierende Halbmasken und Mund-Nase-Schutzmasken. Welche die geeignete Maske für den Pandemiefall zum Schutz der Bevölkerung ist, kann nicht abschließend geklärt werden. Zu viele Faktoren des Erregers, die Einfluss auf die Wahl der Schutzmaske haben, sind unbekannt. Die Entwicklung von Anforderungen an eine geeignete Pandemieschutzmaske ist erforderlich. Anhand dieser Anforderungen könnten unter vergleichbaren Bedingungen vorhandene Masken auf ihre Tauglichkeit geprüft werden. Die Prüfungen der Masken müssen in einem geeigneten Labor stattfinden. Die Vorschriften, die für dieses Testlabor gelten, sind abhängig von den Prüfungen. Anhand einer Analyse und Beurteilung von Gefährdungen, die aufgrund der Durchführung der Prüfungen entstehen, sind die Vorschriften für das Labor zu ermitteln. Daraus folgende Maßnahmen u.a. zum Schutze der Beschäftigten müssen eingehalten und auf ihre Wirksamkeit überprüft werden. Die Dokumentation der Analyse und der Maßnahmen schließen die Gefährdungsbeurteilung ab.
This paper presents the design procedure and implementation results of a proposed software defined radio (SDR) using Altera Cyclone II family board. The implementation uses Matlab/SimulinkTM, Embedded MatlabTM blocks, and Cyclone II development and educational board. The design has first implemented in Matlab/SimulinkTM environment. It is then converted to VHDL level using Simulink HDL coder. The design is synthesized and fitted with Quartus II 9.0 Web Edition® software, and downloaded to Altera Cyclone II board. The results show that it is easy to develop and understand the implementation of SDR using programmable logic tools. The paper also presents an efficient design flow of the procedure followed to obtain VHDL netlists that can be downloaded to FPGA boards.
In dieser Arbeit wurde die Slow Feature Analysis (SFA) auf ihre Einsatzmöglichkeiten zur Gestenerkennung zu untersuchen. SFA ist ein Lernalgorithmus, der aus den Neurowissenschaften stammt und aus sich schnell verändernden Signalen, die langsamsten Merkmale herausfiltert. Als Gesten werden in diesem Fall beschleunigungsbasierte dreidimensionale Signale des Wii-Controllers von Nintendo betrachtet. Für die Untersuchungen wurden fünf unterschiedliche Gesten von zehn Probanden verwendet. Diese Gesten liegen in Form von mehrdimensionalen Zeitreihen vor, die die Messwerte der Beschleunigungssensoren des Wii-Controllers enthalten. Die Gestendaten wurden mit einer Java-Anwendung aufgezeichnet, mit der die Wiimote über Bluetooth verbunden ist. Für die Untersuchungen wurde eine Implementierung des SFA-Toolkits (MATLAB, SFA-TK) verwendet und die Ergebnisse mit denen anderer gängiger Verfahren verglichen. Untersucht wurde hierzu sowohl die Klassifizierung von Gesten, als auch Ansätze zur Segmentierung, dem Erkennen von Anfang und Ende einer Geste.
Die fortschreitende Verbreitung drahtloser Kommunikationsnetze sowie immer leistungsfähigerer mobiler Computer schafft ein großes Potenzial für ein breites Spektrum innovativer Anwendungen. Kontextsensitive Applikationen adaptieren die Gegebenheiten der jeweiligen Situation des Nutzers, wodurch neuartige, intelligente Anwendungen und Benutzungsschnittstellen möglich werden. Die zunehmende Menge verfügbarer Sensortechniken und die daraus resultierende Vielfalt erfassbarer Kontextinformationen erschweren jedoch vermehrt die Verbreitung dieser Applikationen. Ein Rahmenwerk zur Kontextrepräsentation soll die Entwicklung kontextsensitiver Applikationen ohne Berücksichtigung von Details der Kontexterfassung und -verwaltung ermöglichen. Außerdem sollen Austausch und Wiederverwendbarkeit von Kontextinformationen zwischen Applikationen und Nutzern gestattet werden. In dieser Arbeit wird ein solches Rahmenwerk entwickelt. Zu Beginn steht die Untersuchung von Fragen der Kontextmodellierung, auf deren Grundlage anschließend eine Konzeption erarbeitet wird. Der praktische Teil der Arbeit führt eine Referenzimplementation des Systems durch um zu evaluieren, ob die Konzeption auf Basis aktueller Technologien in die Realität umgesetzt, und als Grundlage für weitere Untersuchungen herangezogen werden kann.
Die Begriffe iPhone und Blackberry stehen schon seit einiger Zeit für hochentwickelte Mobiltelefone mit einem großen Repertoire an Fähigkeiten. Neben diesen Geräten entwickelten diverse Hersteller weitere Smartphones und all diese finden eine immer größer werdende Zielgruppe. Mitverantwortlich für diesen Trend ist die Entstehung der verschiedenen Plattformen für „Apps“ oder Applikationen, die eine große Vielfalt an Erweiterungsmöglichkeiten für diese Geräte bieten. Diese Entwicklung sorgte für erste Entstehungen im Bibliotheksbereich. Beginnend mit einer Analyse der Möglichkeiten zur technischen Realisierung im ersten Teil, werden im zweiten Abschnitt bestehende Angebote vorgestellt und hinsichtlich ihres Nutzens analysiert. Weitere bearbeitete Aspekte stellen zukünftig denkbare Entwicklungen, den personellen und finanziellen Aufwand sowie Erkenntnisse aus einer E-Mail-Befragung dar.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Diese Arbeit befasst sich mit der Problematik der Zugriffe auf nachrichtenorientierte Kommunikationsdienste von mobilen Geräten. Da diese Kommunikationsdienste nicht dafür ausgelegt sind via Netzwerk zugänglich zu sein, sondern nur lokal in der gleichen virtuellen Maschine ausgeführt werden können, wird ein zusätzlicher Dienst entwickelt der diesen Zugriff möglich macht. Zusätzlich beinhaltet er die verarbeitende Komponente und fungiert somit als Schnittstelle. Es wird detailliert darauf eingegan- gen wie genau ein Lösungsansatz aussehen könnte, in Rücksichtnahme auf gewählte Softwarekomponenten. Eine Abwägung der jeweiligen Komponenten und Darstellung der Alternativen, sowie eine Diskussion des Problem- sowie Lösungsraums, gehen dem Ganzen voraus. Im Mittelpunkt der Arbeit steht die Verarbeitung der Anfragen und Weiterleitung an bestehende nachrichtenorientierte Systeme mittels Web Services, sowie ihre Darstellung. Somit wird die Funktionalität eines solchen Systems, in diesem Fall Java Message Service, genutzt um eine Kommunikation zwischen diversen Nutzern zu etablieren. Der Gedanke dabei ist, einen Nachrichtenaustausch zwischen diesen, mittels wohl definierter Schnittstellen, zu ermöglichen. Weiterhin wird die Funktion anhand einer prototypischen Implementation demonstriert und ein Ausblick gegeben in wie weit sich dieser Prototyp erweitern lässt um dem Gesamtkonzept zu genügen.
In dieser Arbeit werden Klebstoffe für die Rissverklebung an Leinenfäden getestet. Als Grundlage werden die Eigenschaften von ausgewählten Klebstoffen und von Leinenfäden vorgestellt. Es wurden Zugversuche mit 25 Klebstoffen an insgesamt über 6.000 Fäden durchgeführt. Mit den Klebstoffen Störleim-Weizenstärkekleister, Mowilith D50, Polyamid 5065 und einem Epoxidharz erfolgten weitergehende Versuche. Dabei wurde zusätzlich die Abhängigkeit der Zugbeständigkeit von der verklebenden Person getestet. Außerdem wurden aufgespannte verklebte Leinenfäden wechselnden klimatischen Bedingungen ausgesetzt und deren Zugbeständigkeit in „normalem“, extrem trockenem und extrem feuchtem Klima geprüft. Die Arbeit schließt mit einer Diskussion anhand einer Versuchsreihe zur Übertragbarkeit der Ergebnisse auf Klebungen in Gewebestrukturen. Die Ergebnisse werden durch Diagramme veranschaulicht und geben Hinweise für die Umsetzung bei der Einzelfadenverklebung am textilen Bildträger.
Die Gebrauchstauglichkeit eines Produktes hat sich zu einem entscheidenden Qualitätskriterium in der Softwareentwicklung entwickelt. Neben den Nutzern erkennen auch immer mehr Organisationen den Mehrwert von gebrauchstauglichen Produkten, insbesondere die steigende Produktivität, die verbesserte Qualität und den damit verbunden Profit. In Praxis und Wissenschaft wird daher derzeit dem Wunsch nachgegangen, Usability Engineering und Software Engineering zu integrieren. In dieser Arbeit werden Standards der beiden Disziplinen in Bezug auf Aktivitäten und Artefakte analysiert, welche in einem ganzheitlichen Modell zur Integration von Usability Engineering und Software Engineering abgebildet werden sollen. So sollen mögliche Anknüpfungspunkte zwischen Aktivitäten und Artefakten aufgezeigt werden. Ziel ist die Evaluation dieses Modells anhand von Konformitäts- und Rahmenanforderungen, sowie durch eine Expertenbefragung.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Die vorliegende Arbeit beschäftigt sich mit dem elektronischen Management von Bewerbungen und Bewerberinformationen im Kontext mittelständischer Unternehmen in Deutschland. Nach einer kurzen Einführung wird der Begriff Web 2.0 sowie die mit diesem einhergehenden Trends und Entwicklungen genauer beschrieben. Nachfolgend werden bestehende marktübliche Systeme für das Management von Bewerbungen miteinander verglichen. Nachdem ein Überblick über das Themenfeld gewonnen wurde, wird der Prozess des Bewerbermanagements selbst, sowie die damit verbundenen Aufgaben im Unternehmen erhoben und analysiert. Eine Befragung der involvierten Mitarbeiter, welche Unterstützung sich diese bei der Durchführung ihrer Aufgaben von einem System wünschen, rundet die Analyse ab. Die Frage, welche Kanäle, Informationsdarstellungen und Controllingmechanismen ein System bieten muss, um maximalen Mehrwert bei der Bewerberansprache und -auswahl bieten zu können, wird in Form eines Grobkonzeptes aufgegriffen. Die dort gesammelten Ideen werden dann in einem weiteren Schritt zusammengeführt, gruppiert und konkreten Modulen zugeordnet. Eine Realisierung ausgewählter Systemkomponenten sowie der Dokumentation des Entwicklungsprozesses schließt den Kernteil ab. Abgeschlossen wird die Arbeit mit einem Ausblick, welche weiteren Entwicklungsschritte möglich sind sowie mit einem Fazit, in dem persönliche Eindrücke während der Bearbeitung des Themas kurz skizziert werden.
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch -- technisch betrachtet -- ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
Der Einsatz von Ontologien wird bereits in vielen Anwendungsbereichen als Werkzeug für die Strukturierung und die Verbesserung der Zugänglichkeit von Informationen unterschiedlichster Art genutzt. Sie ermöglichen die explizite Formulierung der Bedeutung von Konzepten und Strukturen beliebiger Domänen. Auch im Rahmen der Zusammenarbeit in und zwischen Gruppen ist der Austausch und die Verarbeitung von Informationen für den Verlauf und den Erfolg der Kooperation von erheblicher Bedeutung. Daher liegt es nahe, auch kollaborative Aktivitäten durch den Einsatz von Ontologien zu unterstützen. Aktuelle Arbeiten in diesem Themenbereich fokussieren jedoch meist auf ausgewählte Aspekte der Zusammenarbeit wie etwa der Kommunikation zwischen den Gruppenmitgliedern oder die Unterstützung durch eine konkrete Softwarekomponente. In dieser Arbeit wird dagegen von einer ganzheitlichen Betrachtung von Kooperationssituationen ausgegangen. Dabei werden die an einer Kooperation beteiligten Personen und die eingesetzten technischen Komponenten als ein gesamtes soziotechnisches System betrachtet, dessen Elemente nicht losgelöst voneinander betrachtet werden können. Das Ziel dieser Arbeit besteht einerseits darin, zu untersuchen, wie sich der Einsatz von Ontologien auf die Unterstützung der Zusammenarbeit auswirkt und andererseits, welche Möglichkeiten sich hieraus für die Gestaltung von Kooperationssystemen ableiten lassen. Einige dieser Möglichkeiten werden im praktischen Teil prototypisch implementiert, um die technische und wirtschaftliche Umsetzbarkeit zu evaluieren.
Motion capturing plays an important role in computer animation and combines many different fields of research in media engineering, such as camera calibration, marker detection via image processing and 3D reconstruction. Most professional motion capture systems are distributed proprietarily by a handful of companies and do not grant much insight into detailed workflows. The motivation for the project this thesis is based on was to autonomously develop a simpler, yet similar system, which would capture static poses of a puppet. This thesis points out the designing steps of this system and illustrates how many of the aforementioned aspects of motion capturing are answered using the example of the stop-motion capture system, thus building a basis for the comprehension of more complex systems.
Diese Arbeit versucht einen umfassenden Überblick über das gesamte luxemburgische Bibliothekswesen zu geben. Bisher kaum erforscht, wurde es meist auf einige spezifische Aspekte hin beleuchtet, jedoch noch nicht auf seine Gesamtentwicklung hin. In Ermangelung einer Universität oder sonstigen wissenschaftlichen Strukturen waren es kirchliche Träger, die die ersten Bibliotheksstrukturen aufbauten, seien es nun wissenschaftliche oder öffentliche. Doch sie wurden wie alle weiteren Bemühungen auch, immer wieder Opfer äußerer Einflüsse, die Luxemburg heimsuchten. Bis in die 1980er Jahre hinein hatten sich keine nennenswerten Systemstrukturen ausgebildet, die von Dauer waren. Heute, im 21. Jahrhundert, deuten sich neue Entwicklungen an, sowohl bei den öffentlichen wie bei wissenschaftlichen Bibliotheken. Die Gründung einer eigenen Universität sowie ein erstes Gesetz für öffentliche Bibliotheken haben vordergründig binnen eines Jahrzehnts enorme Bewegung in das luxemburgische Bibliothekswesen gebracht und Hoffnungen auf eine neue Blütezeit geweckt. Doch intern ist das Bibliothekswesen in Luxemburg so zersplittert wie selten zuvor.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
Die folgende Arbeit hat den Titel "Bibliotheksgebühren: Gebührenmodelle, Rahmen- bedingungen der Erhebung und Auswirkungen auf die Nutzung. Ein Vergleich verschiedener Öffentlicher Bibliotheken in Nordrhein-Westfalen." Ziel der Arbeit ist es herauszufinden, ob es Auswirkungen von Bibliotheksgebühren auf die Nutzung Öffentlicher Bibliotheken gibt, und wenn ja, welcher Art diese Auswirkungen sind. Abschließend sollen Empfehlungen zur Gestaltung eines Gebührenmodells gegeben werden. Es werden vorhandene empirische Erhebungen zu der Thematik ausgewertet, und eine Umfrage unter den Leitungen der Bibliotheken der Städte Dortmund, Düsseldorf, Bonn, Münster, Hamm, Witten und Hürth durchgeführt. Die verschiedenen Bibliotheken und ihre Gebühren-, bzw. Entgeltmodelle werden miteinander verglichen. Um die Ergebnisse der Umfrage bewerten zu können, werden die Städte außerdem anhand verschiedener Indikatoren vorgestellt.
Interaktive Systeme können ihre Nutzer bei der Erledigung alltäglicher Aufgaben, sowie beim Lernen unterstützen oder dienen der Unterhaltung. Sie können den Nutzer jedoch auch bei der Lösung eines bestimmten Problems unterstützen, wobei es sich hierbei häufig um sehr komplexe Probleme handelt. Diese lassen sich oftmals nicht klar definieren oder werden erst im Laufe der Entwicklung eindeutig identifiziert. Bei der Untersuchung der Probleme muss aufgrund ihrer Komplexität häufig multiperspektivisch vorgegangen werden, um möglichst alle Dimensionen potentieller Lösungen zu berücksichtigen. Eine Entwicklung in multidisziplinären Teams unter Einbeziehung der Kunden und zukünftiger Nutzer ist daher ratsam. Durch die multidisziplinäre Zusammensetzung von Entwicklungsteams können Kommunikations- und Verstädigungsschwierigkeiten auftreten, die sich aus der spezifischen Fachsprache der Domäne und individuellen Denkmustern ergeben. In dieser Arbeit wurde unter Berüksichtigung prozeduraler und kognitionspsychologischer Aspekte ein Ansatz entwickelt, um den Prozess der Problemlösung im Entwicklungsprozess zu unterstützen. Es wurde untersucht, inwieweit die Verwendung von Kreativitätstechniken in einem frühen Stadium des Entwicklungsprozesses zur Verbesserung des Verständnisses über die Aufgabe, sowie der Kommunikation zwischen den beteiligten Personen geeignet ist.
Die vorliegende Arbeit beschäftigt sich mit Recherchekompetenzen von Studierenden und der Vermittlung der betreffenden Fertigkeiten in Online-Tutorials als eine innovative Methode der Vermittlung von Informationskompetenz. Studierende stehen im Rahmen des Studiums vor der Herausforderung effiziente, wissenschaftliche Recherchen in verschiedenen Rechercheinstrumenten durchzuführen. In unterschiedlichen Studien wurde bereits herausgefunden, dass Studierende Probleme und Defizite bei der wissenschaftlichen Recherche haben und bei ihnen Bedarf nach Unterstützung besteht. Diese Studienergebnisse bilden die Grundlage für eine Analyse der Online-Tutorials DISCUS, LOTSE, DOT und Bib@InfoLit. Hierbei besteht das Ziel der Arbeit darin, die Berücksichtigung und didaktische Aufbereitung der Inhalte in Bezug auf die Informationsbedürfnisse der Studierenden zu untersuchen. Ein abschließender Vergleich resümiert die Umsetzungen in den Online-Tutorials.
Diese Bachelorarbeit befasst sich mit dem Portal http://www.informationskompetenz.de/, das als Gemeinschaftsprojekt bibliothekarischer Arbeitsgemeinschaften zur Vermittlung von Informationskompetenz der regionalen und überregionalen Kooperation von Bibliotheken in Deutschland dienen soll. Neben einem Glossar, Standards und Erklärungen sowie Präsenzen der beteiligten Bundesländer stellt es insbesondere eine Datenbank zur Sammlung und zum Austausch von Materialien zu diesem Thema bereit. Nach einem Überblick über die Entstehung des Begriffs der Informationskompetenz, seine Entwicklung und aktuelle Tendenzen folgen die Beschreibung des Gesamtportals sowie eine kurze Analyse desselben anhand eines definierten Katalogs inhaltlicher und formaler Kriterien. Daneben ist auch ein kurzer Überblick über die weiteren Komponenten des Portals Bestandteil der Arbeit. Der Schwerpunkt der Arbeit liegt auf der darauffolgenden Analyse und Evaluation der Materialiendatenbank, die ebenfalls unter Anwendung der definierten Kriterien erfolgt. Der Umfang, die Struktur und die Gestaltung der Datenbank stehen bei der Untersuchung im Vordergrund; die Begutachtung erfolgt anhand einer Stichprobe von 20% der zum Zeitpunkt der Bearbeitung in der Datenbank enthaltenen Dokumente. Zudem fließen zur Evaluation der Suchfunktionalitäten auch einzelne ausgewertete Suchanfragen in die Bewertung ein. Von den hier präsentierten Ergebnissen der Evaluation des Portals und der Materialiendatenbank ausgehend werden abschließend potenzielle Perspektiven der Plattform aufgezeigt. Es werden konkrete Entwicklungsmöglichkeiten dargestellt, im Anschluss daran wird die Plattform aber zudem in den bibliothekarischen Gesamtkontext eingeordnet und ihre mögliche zukünftige Rolle skizziert.
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2011)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
Diese Arbeit stützt sich auf die These, dass die Vermittlung von Informationskompetenz bereits in der Grundschule notwendig ist, da der Computer und das Internet mittlerweile fester Bestandteil des Alltags von Grundschülern geworden sind. Deshalb sollte man ihnen Wissen, das eine kompetente Nutzung dieser Medien ermöglicht, an die Hand geben. Die Basis der Arbeit bildet eine auf einem Quellenstudium basierende Definition von Informationskompetenz inklusive eines Überblicks über verschiedene Theorien, Modelle und Standards. Zusätzlich werden derzeitige Offerten zur Vermittlung von Informationskompetenz an Kinder im Grundschulalter analysiert. Der Schwerpunkt der Arbeit liegt auf der Entwicklung eines Konzepts zur Integration der Vermittlung von Informationskompetenz in den Deutschunterricht der dritten und vierten Klasse. Ausgerichtet wurde das Konzept an den Belangen der Grundschule Thülen, die als Projektpartner fungierte. Die Dokumentation der Konzeptentwicklung umfasst theoretische Grundlagen, beispielsweise zur Formulierung von Lernzielen, und eine detaillierte Beschreibung der einzelnen Unterrichtsphasen. Ferner wird kurz auf generelle Umsetzungskriterien des Konzepts eingegangen. Als Ergebnis kann festgehalten werden, dass Grundschüler als Zielgruppe für die Vermittlung von Informationskompetenz bisher vernachlässigt wurden.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Die Diplomarbeit „Konzeption und Implementierung eines PL/SQL Trainers auf Basis von JSP und eLML“ beschäftigt sich mit der Erstellung von eLearning Anwendungen, für das Themengebiet PL/SQL, mit speziellem Fokus auf die Programmierung von Datenbanktriggern. Im theoretischen Teil der Arbeit wird das Thema eLML ausführlich behandelt und dabei die Funktionsweise sowie die Hintergrundgeschichte des eLML Frameworks erläutert. Der praktische Teil der Arbeit unterteilt sich in zwei Abschnitte, im Ersten Abschnitt wird beschrieben, wie bestehende Lerneinheiten zum Thema PL/SQL aus dem MS-Power-Point Format in das eLML Format übertragen werden, wobei die praktische Anwendung von eLML dargestellt wird. Im zweiten Abschnitt wird die Konzeption und die Implementierung einer JSP-Webanwendung beschrieben, die eine interaktive Trainingsanwendung für die Programmierung von Triggern mit PL/SQL darstellt.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
Schulleistungsstudien wie PISA und IGLU haben wiederholt belegt, dass Jungen im Bereich der Leseleistungen schlechtere Resultate erzielen als Mädchen. Sowohl die Lesekompetenz als auch die Lesemotivation der Jungen ist deutlich schwächer ausgeprägt. Die Wissenschaft identifiziert als mögliche Ursachen hierfür einerseits die Besonderheiten der männlichen Hirnstruktur und andererseits die Feminisierung der Erziehung. Auch in der intensiven Nutzung von Bildschirmmedien sowie der Gestaltung des schulischen Deutschunterrichtes scheinen Ursachen der geringeren Lesefähigkeit und -motivation der Jungen zu liegen. Die individuellen und auch gesellschaftlichen Konsequenzen sind weitreichend, denn Lesen ist als elementare Schlüsselqualifikation die Basis für Medien- und Informationskompetenz und somit eine wesentliche Voraussetzung für die mündige Teilnahme am gesellschaftlichen Leben. Da Leseförderung eine Kernaufgabe der öffentlichen Bibliotheken ist, sind auch sie mit dieser Problematik konfrontiert. Um mit ihren Angeboten auch Jungen zu erreichen, müssen sie deren geschlechtsspezifische Interessen, Bedürfnisse und Lesehaltungen berücksichtigen. Veranstaltungsarbeit und Medienbestand müssen daran ausgerichtet sein und kontinuierlich fortgeführt bzw. aufgebaut werden. Die Beteiligung männlicher Erwachsener als lesende Vorbilder ist ebenso wichtig wie die Integration anderer Medien, insbesondere Computer und Internet. Es gibt in Deutschland bereits einige gute Ansätze und Konzepte der Jungenleseförderung, jedoch fehlt bei der Veranstaltungsarbeit meist die Kontinuität. Spektakuläre Lese-Events versprechen leider nur einen kurzfristigen Erfolg, wenn sie nur einmal im Jahr stattfinden. Dabei müssen Veranstaltungen nicht unbedingt aufwändig und teuer sein, um nachhaltig zu wirken. Ein Blick ins Ausland zeigt, dass es auch einfache Konzepte gibt, die bei Jungen das Interesse an Büchern wecken. In den USA und in Großbritannien existieren einige vorbildliche Initiativen der Jungenleseförderung, die von deutschen öffentlichen Bibliotheken adaptiert werden könnten.
Das Ziel dieser Arbeit ist die Definition einer allgemeinen Aufgaben-beschreibungssprache, die nicht an einen einzelnen Roboter gebunden ist, sondern für alle möglichen Arten von Robotern einsetzbar ist. Dieses Ziel soll mit Hilfe der Robotic Task Definition Language erreicht werden. Die Robotic Task Definition Language (RTDL) ist eine Sprache, die an der Fachhochschule Köln im Rahmen des Instituts-übergreifenden Projektes Verteilte Mobile Applikationen (VMA)" entwickelt wird. Die Aufgabe der RTDL besteht darin, eine allgemein gültige Aufgabenbeschreibungssprache für unterschiedlichste Roboter zu definieren. Mit einer solchen Aufgabenbeschreibungssprache ist es möglich, die Steuerungssoftware verschiedener Roboter in einer einheitlichen Sprache zu beschreiben und in einem weiteren Schritt auch umzusetzen.
Das Wissen nutzbar zu machen steht an zentraler Stelle. Heute wird der Mensch mit Informationsmengen konfrontiert und steht dadurch vor dem Problem einer enormen Informationsflut. In der schnelllebigen Zeit der IT-Technik (Information und Telekommunikation) soll eine innovative Methode die Informationsrecherche zeitlich verkürzen und eine individuell optimale Lösung für den Benutzer gefunden werden. Die gebrauchstaugliche Unterstützung heißt: Eine semantisch-webbasierte Visualisierung zur Unterstützung des Findens innerhalb des Semantic Web. Der Ansatz der Visualisierung liegt darin begründet, dass Menschen hauptsächlich über die Augen wahrnehmen und schnell Zusammenhänge erkennen können. Sogar blinde Menschen nutzen dazu ein mentales System, das visuell räumliches Skizzenblatt (scratch-pad), um Bilder bzw. die Umwelt zu verarbeiten. Der Vorteil liegt darin begründet, dass es einen schnellen direkten Zugriff auf das Arbeitsgedächtnis ermöglicht. Ein Anwendungsszenario im Bereich des Mobilfunks soll als Praxisbeispiel dienen. Bei der Vielzahl der angebotenen Handys mit den homogenen Leistungen findet kaum ein Kunde die Unterscheidungen und es gibt zurzeit keine Möglichkeit unter den Handys benutzungsfreundlich zu differenzieren noch ein optimales Handy zu finden. Am Beispiel von selbst dargestellten Szenarien und einer Evaluation wird erörtert, wie anhand von angenommenen Stakeholder, ein Zusammenspiel der Semantic Web Technologien eine jeweilige Lösung von verfügbaren Informationen aufgefunden und bearbeitet werden kann. Ziel bei der Anwendung ist es, ein Prototypen zu realisieren, dass gebrauchstauglich bei der Visualisierung von großen Datenmassen, auf Grundlage einer Empfehlung von Mobilgeräten in einem Webinterface, unterstützt. Das bereits geschriebene Praxisprojekt-Referat in Form eines Konzepts mit dem Thema: „Graphische Visualisierung von semantischen Daten in einem Webinterface“ dient dabei als Grundlage für diese Bachelorarbeit (siehe Kap. 8.2). Grundlage, Innovationen und Beispiele aus der Praxis sind ausführlich dort beschrieben worden. Dabei wurden die neusten Technologien unter den Kriterien der Häufigkeit in der Praxis, Plattformunabhängigkeit und der Flexibilität betrachtet. Künstlerisch gestalterische Disziplinen, die Produkte graphisch zum Glänzen bringen möchten oder welche, die sich mit den grundlegenden Technologien für semantische Daten sich beschäftigen, bleiben bei dieser Arbeit unbehandelt. Es geht im Schwerpunkt um eine Beantwortung der folgenden Forschungsfrage: Inwieweit sind graphische Repräsentationen vorteilhafter, um Wissen zu vermitteln, in Verhältnis zu textuellen Repräsentationen?
Im Rahmen dieser Bachelorarbeit wurde erfolgreich erarbeitet, dass mit Hilfe der Hough-Transformation aus Bildern der realen Welt die inneren Kameraparameter optisches Zentrum und Brennweite mit hinreichender Annäherung automatisch bestimmt werden können. Umgesetzt wurde der Algorithmus in Java als Plug-In für das Open Source Bildverarbeitungsprogramm ImageJ. Zur Bestimmung der Fluchtpunkte wird die Hough- Transformation innerhalb des Plug-Ins zweimal durchgeführt. Es eignet sich für Aufnahmen von Gebäuden und ähnlichen rechtwinkligen Strukturen.
Der Auskunftsdienst gehört zu den Kerndienstleistungen einer Bibliothek. Obwohl ihm in anderen Ländern große Bedeutung beigemessen wird, ist Deutschland in dieser Hinsicht noch mehr von Bestandsdenken geprägt. Bibliothekskunden sind sich größtenteils nicht im Klaren darüber, dass es solch ein Angebot der Bibliothek überhaupt gibt, das über die reine Beantwortung von Bestandsfragen hinausgeht. Deswegen sollte den Kunden kommuniziert werden, worum es sich bei Auskunfts- bzw. Informationsdienst handelt. Des Weiteren sollten Umfang und Grenzen festgelegt und veröffentlicht werden. In den USA geschieht dies durch sogenannte „Reference Service Policy Statements“. Policies für den Auskunftsdienst werten diesen auf, erhöhen die Sichtbarkeit solcher Angebote und beeinflussen die Erwartungen der Kunden im besten Falle so, dass Kundenzufriedenheit entsteht. Die Verbreitung von solchen Dokumenten in Deutschland ist erwartungsgemäß eher gering. Es lässt sich allerdings feststellen, dass digitale Auskunftsangebote eher Angaben zu den Rahmenbedingungen ihrer Dienstleistung machen als konventionelle, also persönliche, Vor-Ort-Auskunftsangebote. Innerhalb der digitalen Angebote sind Policies bei Auskunftsverbünden weiter verbreitet.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
In dieser Bachelorarbeit werden die Grenzwerte der stereoskopischen Seheindrücke, in Bezug auf parallaktische Verschiebungen und dem Raumwinkel, empirisch ermittelt und mit bekannten Grenzwerten verglichen. Die Ermittlung der Grenzwerte erfolgte durch einen empirischen Test mit einer repräsentativen Personengruppe. In dem Ergebnis wird u. a. die Raumwinkeldefinition nach Lüscher bekräftigt. Neue Grenzwerte werden im Bereich der Parallaxengröße definiert.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.