Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (140)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (10)
Language
- German (583)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (23)
- Deutschland (19)
- Germany (19)
- Soziale Arbeit (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (153)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Jegliches Leben auf der Erde ist auf das Vorhandensein von Wasser angewiesen. Schon seit Beginn der Menschheit war man in mancherlei Hinsicht vom Wasser abhängig: Trinkwasserbeschaffung für Mensch und Tier, Nahrungsversorgung durch Fischfang und Pflanzen, deren Wachstum erst das Wasser ermöglicht, Fortbewegung von Lasten und Menschen auf dem Wasser. Die heutige fortschreitende kulturelle und zivilisa-torische Entwicklung brachte neue Abhängigkeiten: Gewerbe und Industrie benötigen Wasser für den Produktionsablauf, der Wasserbedarf der Haushalte ist mit der weitge-henden Verdrängung manueller Tätigkeiten durch Maschinen um ein Vielfaches ge-stiegen, Volkswirtschaft und Haushalte verlangen nach elektrischer Energie, die zum Teil der Wasserkraft entstammt; schließlich kann die sprunghaft wachsende Erdbevöl-kerung vor allem in den Entwicklungsländern nur mit Hilfe der künstlichen Bewässerung in ausreichendem Maße mit pflanzlichen Produkten versorgt werden. Bevölkerungsdichte, Siedlungsstruktur und Formen der Wassernutzung beeinflussen die Wassernachfrage und stellen verschiedene Ansprüche hinsichtlich der Menge, der zeit-lichen Verteilung und der Güte des Wassers. Es ist jedoch nicht mehr selbstverständlich, dass das Wasser für die Befriedigung der Bedürfnisse der Menschen auf der Erde in ausreichender Menge und Güte zur Verfügung steht. Der heutige Wassermangel hat seine tiefere Ursache in der dauernden Fehleinschätzung der Natur. Um diese besser zu verstehen und damit dem oben erläuterten Problem entgegenzuwirken, befasst sich die physikalische Hydrologie mit dem globalen und lokalen Wasserkreislauf einschließlich der zugrundeliegenden Naturprozesse. Durch Entwicklung von Modellen wird eine Gewinnung von Detailkenntnissen angestrebt. Der Bereich der angewandten Hydrologie hingegen beschäftigt sich mit der Lösung wasserwirtschaftlicher Probleme - der Nutzung des Wassers durch den Menschen. Der Einsatz eines Geografischen Informationssystems (GIS) kann in der Hydrologie durch Visualisierung gesammelter Erfahrungswerte bereits eine Erleichterung der Ent-scheidungsfindung bei speziellen Problemstellungen bewirken. In einem GIS werden meist Funktionen vereinigt, die Methoden unterschiedlicher Systeme sind, wie z.B. Möglichkeiten statistischer Berechnungen, Bearbeitungen von Geometriedaten, Verwaltung von großen Datenbeständen, Darstellung von Karten. Weitere Aspekte eines GIS sind Geometrische Analysen, Flächenverschneidung, Möglichkeiten der Verknüpfung verschiedener Abfragen, Kombination verschiedener Datentypen und Geometrien etc. Diese Aspekte bilden die Grundlage zum Aufbau eines interaktiven räumlichen Informationssystems. Zur Abrundung eines solchen Systems sind jedoch meist weitere Auswertungen und Analysen des Datenmaterials sowie eine Modellbildung nötig, um konkrete, kompetente Entscheidungen über Eingriffe in die Natur unter Berücksichtigung ihrer Auswirkungen zu treffen.
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
An der Schwelle in ein überwiegend digitales Informationszeitalter stößt das in der „Printwelt“ fest etablierte Publikationsmodell des wissenschaftlichen Zeitschriftenverlages immer mehr an seine Grenzen. Dies ist nicht nur auf das enorme Potenzial der modernen Informations- und Kommunikationstechnologien des 21. Jahrhunderts zurückzuführen, sondern auch auf die zunehmende Konzentration im wissenschaftlichen Verlagswesen, die eine „Krise der wissenschaftlichen Informationsversorgung“ ausgelöst hat. Vor diesem Hintergrund haben sich in den letzten Jahren verschiedene Formen des elektronischen Publizierens herausgebildet, welche die Akteure des wissenschaftlichen Publikationswesens zwingen, sich neu zu positionieren. Dies gilt insbesondere für die wissenschaftlichen Bibliotheken, die ihr klassisches Konzept von Bestandsaufbau, -erschließung und -vermittlung dringend modifizieren müssen. Gleichzeitig bietet die derzeitige Umbruchsituation den Bibliotheken aber auch die Chance, künftig eine aktivere Rolle zu spielen. Das Ziel der vorliegenden Arbeit ist es, die neuen Möglichkeiten, die sich durch die modernen Informations- und Kommunikationstechnologien ergeben, vor allem im Hinblick auf eine Neupositionierung der Bibliotheken im Bereich des wissenschaftlichen Publizierens, auszuloten. Im Mittelpunkt der Analyse stehen dabei die STM-Disziplinen und der wissenschaftliche Zeitschriftenmarkt, weil in diesem Bereich angesichts der zunehmend ausufernden „Zeitschriftenkrise“ der größte Handlungsbedarf besteht.
Die Entwicklung in Technik und Elektronik ermöglicht es, medizinische Bilder in elektronischer Form zu speichern, zu verarbeiten und darzustellen. Der Austausch von Patientendaten wird vereinfacht und der Informationstransfer beschleunigt. Diagnose und Befundungen über Netzwerke sind möglich und eröffnen neue Möglichkeiten in der medizinischen Kommunikation. Für die Gewährleistung der Wiedergabekonstanz von Bildwiedergabesystemen wie CRT- und LCD-Monitore sind Richtlinien notwendig, die messbare Parameter definieren.
Die Fachhochschule Köln führte mit Unterstützung des Instituts für e-Management e.V. eine Studie zu Wissensmanagement vom März 2004 bis Januar 2005 durch. An der Befragung nahmen 89 Personen aus den Branchen Industrie, Handel und Dienstleistung teil. Um herauszufinden, was ein erfolgreiches von einem weniger erfolgreichen Wissensmanagement unterscheidet, lag der Fokus der Studie auf den dafür verantwortlichen Faktoren. Dabei wurden durch systematische Fragen die Dimensionen Mensch, Organisation und Technik unterschieden. Die Ergebnisse zeigen klar auf, dass die Barrieren im organisatorischen Bereich zu suchen sind. Fehlende Zeit wird hier als sehr relevant angesehen. Die Ergebnisse der Studie zeigen u. a. wichtige Ziele, Barrieren und Erfolgsfaktoren im Umgang mit Wissensmanagement. Im Zusammenhang mit den Zielen, die für ein Wissensmanagementsystem gesetzt werden, erachten die Befragten die Verbesserung von Prozessabläufen und Kommunikationsflüssen als besonders wichtig. Nach Ansicht der Befragten ist der Erfolg von Wissensmanagement hauptsächlich von der Einstellung der User abhängig. So rangieren Unterstützung des Wissensmanagements durch das Top-Management, ein hoher Stellenwert von Wissen im Unternehmen und die Akzeptanz des Wissensmanagement durch die Mitarbeiter ganz oben bei den Angaben für Erfolgsfaktoren.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Wie in anderen Marktbranchen sind auch die Bibliotheken als Dienstleistungsanbieter im Informationsmarkt mit Fragen des Qualitätsmanagement konfrontiert. Seit Mitte der neunziger Jahre ist ein Zuwachs der themenbezogenen Fachliteratur zu beobachten. Die Gründe für ein solches Interesse kann man in der Entwicklung des Umfeldes der Bibliotheken finden: 1. Im Kampf um Finanzmittel. 2. In der Entwicklung der speziellen Informationsbedarfe ihrer Kunden. 3. Im Wachstum des Wettbewerbs innerhalb der privaten Wirtschaft so wie auch innerhalb der öffentlichen Bereiche, das die Ermittlung von qualitativen Erfolgsfaktoren erfordert. 4. In der Entwicklung der Technik und der infolgedessen benötigten Anpassung der Abläufe der bibliothekarischen Arbeit, 5. In der Verantwortung bei der Informationsvermittlung in der Gesellschaft. In einem solchen Umfeld sind die Bibliotheken bezüglich der Schaffung von Argumenten zur Rechtfertigung ihrer Wettbewerbsfähigkeit und ihrer Bedeutung (aus gesellschaftlicher, wissenschaftlicher, wirtschaftlicher und politischer Perspektive) vor ihren Trägern; bezüglich der öffentlichen Anerkennung und schließlich auch bezüglich der tatsächlichen Erreichung einer exzellenten Leistung (bei der Kundenorientierung, der Optimierung der Geschäftsgänge, der Kooperationsarbeit und der Berücksichtigung der internationalen Standards) weltweit mit der Qualitätsmanagement- und Excellenz-Einführung konfrontiert. In der vorliegenden Arbeit sollen Überlegungen rund um die Einführung eines optimalen Qualitätsmanagements zur Erreichung der Excellenz am Beispiel der Bibliothek des CNIC Carlos III, der Stiftung Nationales Zentrums für die Kardiovaskuläre Forschung, in Madrid (Spanien) dargestellt werden. Diese junge Bibliothek hat sich der Herausforderung gestellt, Excellenz einzuführen. Dafür will sie ein exzellentes Qualitätsmanagement aufbauen. Diese Arbeit versucht die zwei aktuellen Qualitätsmanagementstrategien hinsichtlich ihrer Eignung für ihre Einführung in der Bibliothek des CNIC Carlos III zu untersuchen und sie der Bibliotheksleitung darzustellen. Man könnte sie dann als Beitrag für den ersten Schritt zur Umsetzung einer Philosophie bzw. Strategie eines Qualitätsmanagements in der Bibliothek des CNIC Carlos III verstehen. Diese Arbeit hat eine Praxis-Orientierung; deswegen wurde das Thema hauptsächlich anhand aktueller praxisnaher Literatur, Erfahrungsberichte und Personalgespräche erarbeitet. Darüber hinaus wurden im Hintergrund Grundmerkmale der Bibliothek, des CNIC Carlos III, immer berücksichtigt: Ihre Trägerschaft, ihre Größe, ihr Forschungsfeld und ihr Konzept als digitale Bibliothek.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Traditionell verwendet die Versicherungsbranche den Ertrag bzw. die Schadenquote zur Bewertung von Vertrags- bzw. Kundenbeziehungen. Die beiden Maßzahlen sind jedoch oft nicht deutlich genug miteinander korreliert und verletzen jeweils wichtige Forderungen, die sich aus einer stringenten Bewertung unter Ertrags- und Risikogesichtspunkten ergeben. In der vorliegenden Arbeit soll eine neue Bewertungsfunktion vorgestellt werden, die einen gewichteten Ertrag, den sogenannten T-Ertrag, als Maßzahl liefert. Gewichtungsfaktor ist dabei das u. a. aus der Informationswissenschaft bekannte Tanimoto(Jaccard)-Distanzmaß. Anhand eines Anwendungsbeispiels aus der Praxis – einer umfangreichen Kundenbewertung für ein deutsches Versicherungsunternehmen – soll verdeutlicht werden, dass der T-Ertrag sowohl mit dem eigentlichen Ertrag als auch der Schadenquote deutlich korreliert ist und damit eine risikoadäquate Ertragsbewertung gewährleistet.