Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Information ist in den vergangenen Jahren zu einem immer wichtigeren Element unseres Wirtschaftens geworden. Sei es eher sekundär, als Information über Güter, oder als eigenständig vermarktbares (Primär-)Gut. Trotz seiner steigenden Bedeutung hinkt die wissenschaftliche Auseinandersetzung mit diesem wichtigen Wirtschaftsfaktor deutlich hinterher. Es ist noch lange kein Allgemeinplatz, dass sich Informationsgüter nicht auf die gleiche Art und Weise erstellen und anbieten lassen wie es für die uns schon lange vertrauten physischen Güter der Fall ist. Es ist eben nicht das gleiche, ob man einen Bleistift oder eine Information, z. B. über die Marktstellung eines Unternehmens, kauft. Vier verschiedene Aspekte lassen sich aus einer ökonomischen Perspektive identifizieren, die für diese Unterschiede ursächlich sind und dazu führen, dass Anbieter von Informationsgütern anders am Markt agieren müssen.
Die vorliegende Arbeit vermittelt eine umfassende Darstellung der wesentlichen Unterschiede von deutschem und spanischem Zivilrecht im Hinblick auf die Rechts- und Geschäftsfähigkeit natürlicher Personen. Neben einer kurzen Zusammenfassung zur Entstehungsgeschichte des BGB werden Fragen zum Beginn und Ende der Rechtsfähigkeit, die Stufen der Geschäftsfähigkeit und Auswirkungen auf Rechtsgeschäfte bei Abgabe fehlerhafter Willenserklärungen behandelt.
Bibliothek 2.0 : Neue Perspektiven und Einsatzmöglichkeiten für wissenschaftliche Bibliotheken
(2007)
Zunächst als Marketingbegriff geschaffen, ist der Neologismus „Web 2.0“ mittlerweile zum buzzword geworden, dem bis dato jedoch eine konkrete und eindeutige Definition fehlt. Zunehmend erlangt die Thematik des Web 2.0 große Aufmerksamkeit und beinahe täglich entstehen neue Applikationen, Anwendungen und Informationsdienstleistungen, die sich besonders durch eine kollaborative Entstehung und Nutzung von Informationen kennzeichnen – Schlagwörter wären hier u.a. Wikis, Weblogs oder RSS-Feeds. Wissenschaftliche Bibliotheken, die als Zentren von Informationsdienstleistungen dienen, dürfen sich vor dem externen wie internen Gebrauch und der Einbindung der Web 2.0-Techniken in ihre Institutionen nicht verschließen, sondern sollten gerade hier eine Vorreiterrolle einnehmen, um so das Geschehen auf diesem für sie potenziell immer wichtiger werdenden Sektor beeinflussen und mitgestalten zu können. In dieser Arbeit sollen solche wissenschaftlichen Bibliotheken vorgestellt werden, die in Bezug auf Web 2.0-Anwendungen bereits erste Erfahrungen gesammelt haben und nunmehr für weitere wissenschaftliche Bibliotheken eine Vorbildfunktion einnehmen können. Die dargestellten bibliothekarischen Beispiele zeigen, dass eine Wandlung und Anpassung an die neuen Anforderungen – seitens der Bibliotheksnutzer, aber auch und vor allem seitens der Bibliothekare – bereits begonnen hat. Im Einzelnen liegt hierbei das Hauptaugenmerk auf dem Kölner UniversitätsGesamtkatalog (KUG), dem Recommender-System BibTip in Karlsruhe, dem Weblog der UB Mannheim, der LMU München mit ihrer Schnittstelle zu Connotea und der internen Informationsplattform ISIS aus der SULB Saarbrücken. Ausgehend von diesen Beispielen aus der Praxis wird ferner ein genereller Blick gewagt, welche Fakten als Ursache für eine entstehende Bibliothek 2.0 gesehen werden können. Hierbei werden insbesondere die Auskunft, der Schulungskomplex und die Erschließung betrachtet, die von einem Umdenken und einer Umstrukturierung betroffen sein müssen, wobei für diese Einzelbereiche neue Optionen herausgearbeitet werden, durch die sie in besonderem Maß vom Web 2.0 profitieren können.
In dieser Diplomarbeit wird ein neues Verfahren für den automatischen Weißabgleich einer digitalen Kamera beschrieben. Das Verfahren bestimmt die beleuchtende Lichtfarbe durch Messung von polarisierten Reflexen. Die Arbeit untersucht mit diesem Verfahren Reflexe an verschiedenen Oberflächen. Herausgearbeitet werden die kritischen Situationen der Anwendung. Dies geschieht im Hinblick auf die spätere Optimierung des Verfahrens.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
El presente artículo trata aspectos teóricos y prácticos de la traducción poética, concretamente de la traducción de poemas rimados, entre otras cosas con el objetivo de rebatir algunos clichés que se han ido afincando en España en la mentalidad de no pocos críticos y también de algunos traductores.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Das Ziel des vorliegenden Aufsatzes ist es, einen wichtigen Irrtum, der bei der Übersetzung einer der Maximen des Llibre d’amic e amat in die modernen Kultursprachen immer wieder auftaucht, aufzuzeigen und dessen Ursachen zu untersuchen. Es wurden Übersetzungen ins Deutsche, Englische, Französische, Spanische, Portugiesische und Italienische herangezogen. Zudem sollen grundsätzliche Unzulänglichkeiten bei der Übersetzung der Leidensmetaphorik in mystischen Texten besprochen werden.
Electronic Business
(2006)
”Es gibt nur einen Erfolg - nach seinen eigenen Vorstellungen leben zu können.“ (Christopher Morlay) Erfolgreiches Business beruht auf einem sehr einfachen Grundprinzip: Stellen Sie sich dem Konkurrenzkampf und seinen Sie einfach besser. Provokativ heißt das, dass jedes Unternehmen, dass an die Spitze will, mehr Produkte mit höherer Qualität, in größeren Stückzahlen, in kürzerer Zeit und mit besseren Serviceleistungen als die Konkurrenz anbieten muss. Dabei erzwingt der rasche technologische Fortschritt eine vorausschauende Taktik. Hier nimmt das Internet seit einigen Jahren eine Schlüsselposition ein. Durch das Internet ist eine Informationsgesellschaft entstanden, die von allen Unternehmen eine extrem hohe Flexibilität fordert. Diese Flexibilität muss für jeden Kunden nachvollziehbar und somit transparent sein. Es kann keine Frage mehr sein, ob eine Firma ins eBusiness einsteigt, sondern nur noch wann und wie. Wahrscheinlich bedarf es keiner besonderen Hervorhebung mehr, dass das Thema eBusiness keine reine Nebensache für Spezialisten sein darf. Vielmehr ist es so, dass sich die Unternehmen durch das eBusiness auf Ihre Kernkompetenzen konzentrieren können. Bevor man sich aber genauer mit dem Thema auseinandersetzen kann, muss man sich darüber klar sein, was eBusiness eigentlich ist - und was es nicht ist.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
Dentro del marco del Decenio de la Alfabetización (2003-2012) de las Naciones Unidas, el presente trabajo pretende ofrecer un cuadro sobre la situación en América Latina y en especial en Bolivia. En la primera parte del trabajo, se presentan las diferentes definiciones de analfabetismo y alfabetismo y se analiza el fracaso de la doctrina a la hora de elaborar definiciones universalmente aplicables. Dicho fracaso se considera resultado de dos falsas dicotomías que deberían ser abandonadas: oralidad-sociedad escrita y alfabeto-analfabeto. Para finalizar esta parte teórica, se estudia la influencia de las nuevas corrientes doctrinales en la labor de la UNESCO. La segunda parte está dedicada a la descripción de la situación en América Latina y Bolivia, para lo cual se analizan el contexto demográfico (de vital importancia en el caso boliviano), económico y político. Por último, se exponen los programas de alfabetización existentes actualmente en Bolivia.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
Marketing-Mix
(2006)
Der Marketing-Mix mit seinen 4Ps zur operativen Marketingplanung ist innerhalb des Marketing-Managements die nächste Stufe nach der Marktanalyse in dem die strategische Marketingplanung erarbeitet wurde. Die strategische Marketingplanung befasst sich mit der Analyse des Zielmarktes und der grundsätzlichen Zielrichtung des Unternehmens. Auf Basis der gewonnenen Erkenntnisse wird in der Phase der operativen Marketingplanung versucht, die Unternehmensaktivitäten am Zielmarkt des Unternehmens auszurichten.
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
Ziel dieser Arbeit ist die Automatisierung von Prüfverfahren, welche in der PAS 1054 definiert sind und in der digitalen Mammographie ihre Anwendung finden. Dazu standen Aufnahmen eines Prototypen des in der PAS beschriebenen Prüfkörpers zur Verfügung, die mit dem Sectra MDM angefertigt wurden. Anhand dessen konnte mit der Programmiersprache Java und unter Verwendung der Software ImageJ ein Programm geschrieben werden, welches die automatische Analyse der Bilddaten ermöglicht. Eine übersichtliche Benutzeroberfläche und die Ausgabe von Ergebnissen, die auf das Wesentliche reduziert sind, gewährleisten eine zeitsparende und effektive Handhabung.
Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und – in geringerem Maße – hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
Mittelständische Unternehmen erkennen zunehmend die Notwendigkeit einer systematischen Vertriebssteuerung und langfristigen Kundenbindung gerade in der heutigen gesamt- und weltwirtschaftlichen Lage, in der alle Märkte einem harten Konkurrenzdruck unterliegen. Um im aktuell vorliegenden Käufermarkt eine Kundenbindung bzw. –treue zu erlangen, ist die aktive Kundenbetreuung ein absolutes Musskriterium. Genau an diesem Punkt setzt das Customer Relationship Management (CRM) an. Der Kunde rückt zwar in den Mittelpunkt beim CRM, es darf dabei aber nicht die eigene Unternehmung vergessen werden. Der Kerngedanke einer jeden CRM-Lösung ist, die Kosten zu senken sowie den Gewinn der Unternehmung langfristig zu sichern. Um den Kerngedanken zu untermauern, bedient sich eine CRM-Lösung folgender Hilfsmittel, um am Markt eine Steigerung der Wettbewerbsfähigkeit durch eine erhöhte Kundenorientierung zu erlangen: Optimierung der internen Prozessabläufe (auf den Kunden ausgerichtet), Marktpotentialanalyse, automatisches Dokumentenmanagement, Email und CTI-Integration, Besuchplanung, Projektmanagement, verbessertes Service- und Supportangebot sowie ein Termin- und Ressourcenmanagement. Die Einführung einer CRM-Lösung in einem mittelständischen Unternehmen ist ein längerfristiges Projekt. Es reicht nicht aus, eine von den zahlreich vorhandenen CRM-Softwarelösungen zu implementieren, um eine überlebensfähige CRM-Lösung zu besitzen. Eine CRM-Software kann nur so gut sein, wie sich die Unternehmung im Vorfeld eine Strategie und Ziele an ein CRM gesetzt hat. Zusätzlich muss in der gesamten Unternehmung die Begeisterung und Akzeptanz für das CRM geschaffen und aufrecht erhalten werden, da CRM als eine eigenständige Philosophie zu verstehen ist. Nur wenn sich alle Mitarbeiter mit der CRM-Lösung identifizieren und diese aktiv leben, hat die CRM-Lösung Aussicht auf Erfolg.
Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hypertext mit dem etablierte Point- und Klickverfahren an. Eine Visualisierung zur Unterstützung kognitiver Fähigkeiten kann durch eine Darstellung der Informationen mit Hilfe von Punkten und Linien erfolgen. Vorgestellt werden die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswissenschaft der Firma AGI – Information Management Consultants.
Jegliches Leben auf der Erde ist auf das Vorhandensein von Wasser angewiesen. Schon seit Beginn der Menschheit war man in mancherlei Hinsicht vom Wasser abhängig: Trinkwasserbeschaffung für Mensch und Tier, Nahrungsversorgung durch Fischfang und Pflanzen, deren Wachstum erst das Wasser ermöglicht, Fortbewegung von Lasten und Menschen auf dem Wasser. Die heutige fortschreitende kulturelle und zivilisa-torische Entwicklung brachte neue Abhängigkeiten: Gewerbe und Industrie benötigen Wasser für den Produktionsablauf, der Wasserbedarf der Haushalte ist mit der weitge-henden Verdrängung manueller Tätigkeiten durch Maschinen um ein Vielfaches ge-stiegen, Volkswirtschaft und Haushalte verlangen nach elektrischer Energie, die zum Teil der Wasserkraft entstammt; schließlich kann die sprunghaft wachsende Erdbevöl-kerung vor allem in den Entwicklungsländern nur mit Hilfe der künstlichen Bewässerung in ausreichendem Maße mit pflanzlichen Produkten versorgt werden. Bevölkerungsdichte, Siedlungsstruktur und Formen der Wassernutzung beeinflussen die Wassernachfrage und stellen verschiedene Ansprüche hinsichtlich der Menge, der zeit-lichen Verteilung und der Güte des Wassers. Es ist jedoch nicht mehr selbstverständlich, dass das Wasser für die Befriedigung der Bedürfnisse der Menschen auf der Erde in ausreichender Menge und Güte zur Verfügung steht. Der heutige Wassermangel hat seine tiefere Ursache in der dauernden Fehleinschätzung der Natur. Um diese besser zu verstehen und damit dem oben erläuterten Problem entgegenzuwirken, befasst sich die physikalische Hydrologie mit dem globalen und lokalen Wasserkreislauf einschließlich der zugrundeliegenden Naturprozesse. Durch Entwicklung von Modellen wird eine Gewinnung von Detailkenntnissen angestrebt. Der Bereich der angewandten Hydrologie hingegen beschäftigt sich mit der Lösung wasserwirtschaftlicher Probleme - der Nutzung des Wassers durch den Menschen. Der Einsatz eines Geografischen Informationssystems (GIS) kann in der Hydrologie durch Visualisierung gesammelter Erfahrungswerte bereits eine Erleichterung der Ent-scheidungsfindung bei speziellen Problemstellungen bewirken. In einem GIS werden meist Funktionen vereinigt, die Methoden unterschiedlicher Systeme sind, wie z.B. Möglichkeiten statistischer Berechnungen, Bearbeitungen von Geometriedaten, Verwaltung von großen Datenbeständen, Darstellung von Karten. Weitere Aspekte eines GIS sind Geometrische Analysen, Flächenverschneidung, Möglichkeiten der Verknüpfung verschiedener Abfragen, Kombination verschiedener Datentypen und Geometrien etc. Diese Aspekte bilden die Grundlage zum Aufbau eines interaktiven räumlichen Informationssystems. Zur Abrundung eines solchen Systems sind jedoch meist weitere Auswertungen und Analysen des Datenmaterials sowie eine Modellbildung nötig, um konkrete, kompetente Entscheidungen über Eingriffe in die Natur unter Berücksichtigung ihrer Auswirkungen zu treffen.
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
An der Schwelle in ein überwiegend digitales Informationszeitalter stößt das in der „Printwelt“ fest etablierte Publikationsmodell des wissenschaftlichen Zeitschriftenverlages immer mehr an seine Grenzen. Dies ist nicht nur auf das enorme Potenzial der modernen Informations- und Kommunikationstechnologien des 21. Jahrhunderts zurückzuführen, sondern auch auf die zunehmende Konzentration im wissenschaftlichen Verlagswesen, die eine „Krise der wissenschaftlichen Informationsversorgung“ ausgelöst hat. Vor diesem Hintergrund haben sich in den letzten Jahren verschiedene Formen des elektronischen Publizierens herausgebildet, welche die Akteure des wissenschaftlichen Publikationswesens zwingen, sich neu zu positionieren. Dies gilt insbesondere für die wissenschaftlichen Bibliotheken, die ihr klassisches Konzept von Bestandsaufbau, -erschließung und -vermittlung dringend modifizieren müssen. Gleichzeitig bietet die derzeitige Umbruchsituation den Bibliotheken aber auch die Chance, künftig eine aktivere Rolle zu spielen. Das Ziel der vorliegenden Arbeit ist es, die neuen Möglichkeiten, die sich durch die modernen Informations- und Kommunikationstechnologien ergeben, vor allem im Hinblick auf eine Neupositionierung der Bibliotheken im Bereich des wissenschaftlichen Publizierens, auszuloten. Im Mittelpunkt der Analyse stehen dabei die STM-Disziplinen und der wissenschaftliche Zeitschriftenmarkt, weil in diesem Bereich angesichts der zunehmend ausufernden „Zeitschriftenkrise“ der größte Handlungsbedarf besteht.
Die Entwicklung in Technik und Elektronik ermöglicht es, medizinische Bilder in elektronischer Form zu speichern, zu verarbeiten und darzustellen. Der Austausch von Patientendaten wird vereinfacht und der Informationstransfer beschleunigt. Diagnose und Befundungen über Netzwerke sind möglich und eröffnen neue Möglichkeiten in der medizinischen Kommunikation. Für die Gewährleistung der Wiedergabekonstanz von Bildwiedergabesystemen wie CRT- und LCD-Monitore sind Richtlinien notwendig, die messbare Parameter definieren.
Die Fachhochschule Köln führte mit Unterstützung des Instituts für e-Management e.V. eine Studie zu Wissensmanagement vom März 2004 bis Januar 2005 durch. An der Befragung nahmen 89 Personen aus den Branchen Industrie, Handel und Dienstleistung teil. Um herauszufinden, was ein erfolgreiches von einem weniger erfolgreichen Wissensmanagement unterscheidet, lag der Fokus der Studie auf den dafür verantwortlichen Faktoren. Dabei wurden durch systematische Fragen die Dimensionen Mensch, Organisation und Technik unterschieden. Die Ergebnisse zeigen klar auf, dass die Barrieren im organisatorischen Bereich zu suchen sind. Fehlende Zeit wird hier als sehr relevant angesehen. Die Ergebnisse der Studie zeigen u. a. wichtige Ziele, Barrieren und Erfolgsfaktoren im Umgang mit Wissensmanagement. Im Zusammenhang mit den Zielen, die für ein Wissensmanagementsystem gesetzt werden, erachten die Befragten die Verbesserung von Prozessabläufen und Kommunikationsflüssen als besonders wichtig. Nach Ansicht der Befragten ist der Erfolg von Wissensmanagement hauptsächlich von der Einstellung der User abhängig. So rangieren Unterstützung des Wissensmanagements durch das Top-Management, ein hoher Stellenwert von Wissen im Unternehmen und die Akzeptanz des Wissensmanagement durch die Mitarbeiter ganz oben bei den Angaben für Erfolgsfaktoren.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Wie in anderen Marktbranchen sind auch die Bibliotheken als Dienstleistungsanbieter im Informationsmarkt mit Fragen des Qualitätsmanagement konfrontiert. Seit Mitte der neunziger Jahre ist ein Zuwachs der themenbezogenen Fachliteratur zu beobachten. Die Gründe für ein solches Interesse kann man in der Entwicklung des Umfeldes der Bibliotheken finden: 1. Im Kampf um Finanzmittel. 2. In der Entwicklung der speziellen Informationsbedarfe ihrer Kunden. 3. Im Wachstum des Wettbewerbs innerhalb der privaten Wirtschaft so wie auch innerhalb der öffentlichen Bereiche, das die Ermittlung von qualitativen Erfolgsfaktoren erfordert. 4. In der Entwicklung der Technik und der infolgedessen benötigten Anpassung der Abläufe der bibliothekarischen Arbeit, 5. In der Verantwortung bei der Informationsvermittlung in der Gesellschaft. In einem solchen Umfeld sind die Bibliotheken bezüglich der Schaffung von Argumenten zur Rechtfertigung ihrer Wettbewerbsfähigkeit und ihrer Bedeutung (aus gesellschaftlicher, wissenschaftlicher, wirtschaftlicher und politischer Perspektive) vor ihren Trägern; bezüglich der öffentlichen Anerkennung und schließlich auch bezüglich der tatsächlichen Erreichung einer exzellenten Leistung (bei der Kundenorientierung, der Optimierung der Geschäftsgänge, der Kooperationsarbeit und der Berücksichtigung der internationalen Standards) weltweit mit der Qualitätsmanagement- und Excellenz-Einführung konfrontiert. In der vorliegenden Arbeit sollen Überlegungen rund um die Einführung eines optimalen Qualitätsmanagements zur Erreichung der Excellenz am Beispiel der Bibliothek des CNIC Carlos III, der Stiftung Nationales Zentrums für die Kardiovaskuläre Forschung, in Madrid (Spanien) dargestellt werden. Diese junge Bibliothek hat sich der Herausforderung gestellt, Excellenz einzuführen. Dafür will sie ein exzellentes Qualitätsmanagement aufbauen. Diese Arbeit versucht die zwei aktuellen Qualitätsmanagementstrategien hinsichtlich ihrer Eignung für ihre Einführung in der Bibliothek des CNIC Carlos III zu untersuchen und sie der Bibliotheksleitung darzustellen. Man könnte sie dann als Beitrag für den ersten Schritt zur Umsetzung einer Philosophie bzw. Strategie eines Qualitätsmanagements in der Bibliothek des CNIC Carlos III verstehen. Diese Arbeit hat eine Praxis-Orientierung; deswegen wurde das Thema hauptsächlich anhand aktueller praxisnaher Literatur, Erfahrungsberichte und Personalgespräche erarbeitet. Darüber hinaus wurden im Hintergrund Grundmerkmale der Bibliothek, des CNIC Carlos III, immer berücksichtigt: Ihre Trägerschaft, ihre Größe, ihr Forschungsfeld und ihr Konzept als digitale Bibliothek.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Traditionell verwendet die Versicherungsbranche den Ertrag bzw. die Schadenquote zur Bewertung von Vertrags- bzw. Kundenbeziehungen. Die beiden Maßzahlen sind jedoch oft nicht deutlich genug miteinander korreliert und verletzen jeweils wichtige Forderungen, die sich aus einer stringenten Bewertung unter Ertrags- und Risikogesichtspunkten ergeben. In der vorliegenden Arbeit soll eine neue Bewertungsfunktion vorgestellt werden, die einen gewichteten Ertrag, den sogenannten T-Ertrag, als Maßzahl liefert. Gewichtungsfaktor ist dabei das u. a. aus der Informationswissenschaft bekannte Tanimoto(Jaccard)-Distanzmaß. Anhand eines Anwendungsbeispiels aus der Praxis – einer umfangreichen Kundenbewertung für ein deutsches Versicherungsunternehmen – soll verdeutlicht werden, dass der T-Ertrag sowohl mit dem eigentlichen Ertrag als auch der Schadenquote deutlich korreliert ist und damit eine risikoadäquate Ertragsbewertung gewährleistet.
Diese Diplomarbeit beleuchtet die in Deutschland bisher wenig beachtete Thematik der Hörgeschädigten als Bibliotheksbenutzer. Sie beschreibt die Erscheinungsformen und die Verbreitung der Hörschädigung in Deutschland und ihren negativen Einfluss auf die Lese- und Informationskompetenz der Betroffenen. Das Dienstleistungsangebot für Hörgeschädigte in ausländischen und deutschen Bibliotheken wird detailliert beschrieben und verglichen. Anschließend werden die verschiedenen Dienstleistungen im Einzelnen erläutert und ein möglicher Einsatz in deutschen Bibliotheken diskutiert. Als Ergebnis wird festgehalten, dass es in deutschen Bibliotheken, im Gegensatz zu denen im Ausland, kaum spezielle Angebote für Hörgeschädigte gibt. Bibliotheken müssen gezielt Bestandsaufbau betreiben, technische Hilfsmittel zur Verfügung stellen und Hörgeschädigte in das Veranstaltungsangebot integrieren, um so auch dieser Gruppe Medien- und Informationskompetenz zu vermitteln.
Die vorliegende Arbeit beschäftigt sich mit der Jugendbibliothek freestyle der Stadtbüchereien Düsseldorf. Das Konzept zielt auf eine langfristige Kundenbindung jugendlicher Nutzer ab 14 Jahre. Das Projekt und seine Durchführung werden ausführlich vorgestellt. Ferner wird eine Kundenbefragung unter den freestyle-Nutzern durchgeführt. Diese ermittelt die Kundenzufriedenheit und liefert Rückschlüsse auf den Erfolg des Konzepts. Darüber hinaus werden das Freizeit- und Medienverhalten Jugendlicher aufgegriffen und Ursachen für den Wegfall dieser Zielgruppe in Öffentlichen Bibliotheken ermittelt. Zusätzlich verdeutlicht diese Arbeit die zunehmende Bedeutung von Kundenbindung und Marketing für öffentliche Einrichtungen und stellt praktische Kundenbindungsinstrumente aus Wirtschaft und Kultur vor, die als Anregung für ein langfristiges Kundenbindungsprogramm in Öffentlichen Bibliotheken dienen sollen.
Mit dem Internet hat sich eine Technologie etabliert, die Veränderungen in den unterschiedlichsten Bereichen nach sich gezogen hat. Sie ist im Rahmen der Globalisierung zu sehen und ist einer der Hauptakteure bei der Entstehung der Informationsgesellschaft. International und national agierende Unternehmen besitzen einen entscheiden Marktnachteil, wenn diese Technologie nicht gewinnbringend zur Unterstützung ihrer Geschäftsprozesse und deren globaler Vernetzung eingesetzt wird. Einhergehend mit der Entwicklung des Internets sind zahllose Technologien entstanden. Wo es anfänglich nur möglich war, Informationen als feststehende Inhalte zu präsentieren, können und müssen heutige Internetpräsenzen Informationen anbieten, die Zugriff auf verteilt liegende Informationsquellen besitzen, die sich täglich ändern. So sind Web-Applikationen entstanden, die die modernsten Technologien einsetzen, um Anwendern eine Zugangsmöglichkeit auf Informationsquellen über das Internet zu bieten. In Kapitel 2 werden die Anforderungen an Web-Applikationen und deren zugrunde liegende Architektur beleuchtet. Da zahllose Programmiersprachen für die Entwicklung von Web-Applikationen verfügbar sind, wird in Kapitel 3 eine Auswahl an verfügbaren Technologien vorgestellt. Um die Programmierung von Web-Applikationen zu vereinfachen sind im Laufe der letzten Jahre Web-Frameworks entstanden, die den Entwicklungsprozess stark beschleunigen und eine Art Bausatz anbieten, um die Programmierung zu vereinfachen. Der Schwerpunkt der vorliegenden Arbeit richtet sein Augenmerk auf 2 aktuelle Web-Frameworks, die jeweils theoretisch und praxisbezogen anhand einer Beispielapplikation beleuchtet werden. In Kapitel 4 wird JavaServer Faces als erstes Web-Framework vorgestellt. Ausgehend von einer theoretischen Betrachtung wird ein Web-Shop als Beispielapplikation entwickelt und die damit in Zusammenhang stehenden Entwicklungswerkzeuge betrachtet. Auf Struts, als zweites Web-Framework, wird in Kapitel 5 eingegangen und ähnlich wie in Kapitel 4 zu JavaServer Faces wird nach theoretischer Betrachtung des Web-9 Frameworks eine Benutzerverwaltung als Beispielapplikation entwickelt, die die wesentlichsten Aspekte des Web-Frameworks zeigt. Auch hier werden Entwicklungswerkzeuge vorgestellt, die den Umgang mit Struts unterstützen. Schließlich findet in Kapitel 6 ein Vergleich zwischen JavaServer Faces und Struts statt, der mögliche Vor- und Nachteile des jeweiligen Web-Frameworks aufzeigt.
Ziel der Diplomarbeit ist die Entwicklung einer datenbankgestützten Anwendungssoftware, deren Aufgabe es ist, das Internetportal der Stadt Hagen hinsichtlich bestimmter Grundfunktionen automatisiert zu überprüfen. Aufgrund der funktionalen Ausrichtung handelt es sich bei dem zu entwickelnden Prototypen um eine Software, die im Bereich Software-Qualitätsmanagement angesiedelt ist und dem sogenannten Black-Box-Verfahren zugeordnet werden kann.
In einem Studienprojekt „Multimedia CD-ROM RDK - Reallexikon zur Deutschen Kunstgeschichte“ während des Sommersemesters 2002 und des Wintersemesters 2002/03 haben Studierende des Schwerpunktes „Medienerschließung, Information Retrieval“ des Studiengangs Bibliothekswesen den prototypischen Aufbau einer multimedialen, integrierten Nutzungsumgebung für das Reallexikon zur Deutschen Kunstgeschichte realisiert. Die Ergebnisse sowie die zugrunde liegende Vorgehensweise werden in diesem Bericht vorgestellt. Bedingt durch verschiedene Eigenschaften des Originals, das auf höchstem wissenschaftlichen Niveau Zusammenhänge und Fakten in einer Printausgabe ohne bislang hinreichende Zugangsmöglichkeiten (es fehlen bislang Sach- oder Personenregister) anbietet, waren verschiedene Schwierigkeiten zu überwinden, um eine mediengerechte Präsentation der Artikel mit guten Such- und Findemöglichkeiten zu entwickeln. Im Rahmen des Projektes wurden fünf Artikel des Lexikons, die in der Printversion zusammen ca. 60 Seiten umfassen, sowie zusätzliche Informationen in eine Datenbankumgebung eingebracht, die aus sechs einzelnen, teilweise miteinander verknüpften Datenbanken besteht. Grundlage hierfür war die Software MIDOS 2000. Für die Datenbank wurde anschließend eine adäquate Suchumgebung gestaltet. Dem Benutzer wird dort eine zielgenaue Recherche ermöglicht, und die vernetzte Navigationsstruktur bietet die Gelegenheit, komfortablen Zugang zu den Inhalten des Reallexikons und den zusätzlichen Informationen zu erhalten. Ergänzt wird der Projektbericht um je einen Beitrag von PD Dr. Wolfgang Augustyn zum Reallexikon zur Deutschen Kunstgeschichte und von Bernd Ginzkey zum Funktionsumfang der Software MIDOS. Die Betreuer des Projektes sehen es als besonderen Erfolg des Projektes, dass es Vorarbeit zu einem inzwischen bewilligten DFG-Projekt zur Erstellung einer Web-Version des RDK war.
Das steigende Angebot an Datenbanken im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBV-Suchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
Die Erschließung von Bildern ist eine Aufgabe, die sich aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung deutlich unterscheidet. In Museen, Archiven, Hochschulen und anderen Einrichtungen werden Bildsammlungen schon länger katalogisiert. Viele Sammlungen bleiben jedoch unerschlossen, da es für die Praxis der Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein für die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Sammlungsprofile von Bildsammlungen untersucht, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern, sowie auf deren Retrieval eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt.