Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (12)
Language
- German (586)
- English (316)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
Intelligent use of energy is one of the keys to success for an energy revolution. To meet this challenge, smart meters are suitable tools because INTELLIGENT use of energy means not only to use efficiency technology, but also to determine load shifting potentials and use them accordingly. Especially farms with high power consumption are becoming increasingly concerned about reducing energy costs due to rising energy prices and need a systematic analysis of their operational energy flow. To find solutions for farms, the NaRoTec e.V., the TH Köln, and the Machinery Ring Höxter-Warburg have joined forces with partners and launched the project "Intelligent Energy in Agriculture", which is funded by the state of NRW in Germany. The aim of the project is to be able to give individual advice recommendations for energy optimization of agricultural holdings. This will be achieved inter alia through an operational energy audit and current measurements in different operating ranges. To achieve this, smart meters were installed in selected energy-intensive dairy and pig farms.
As part of the project, the installed smart meter information of one of the dairy Farms is used to optimize the energy consumption of the farm and increase the degree of self-sufficiency. A good way to achieve this is by taking a closer look at the cooling process of the produced milk since it is one of the most energy consuming processes on a dairy farm. In addition an installation of an ice cooling system instead of a direct cooling system enables the possibility to store self-produced energy in the form of ice and use it later on when it is needed to cool the milk. This flattens the usual energy peaks throughout the day and increases the degree of self-sufficiency. To ensure a sufficient amount of self-produced energy with solar power plants of various sizes were designed. The different sizes of the power plants are defined by the use of the gathered smart meter data is used to cover different electric loads in addition to the ice water cooling system. Afterwards the different simulated models are compared to find the best balance between energy production, investment cost and a high degree of self-sufficiency. First results show that using an ice cooling system in combination with a solar power plant improvement the degree of self-sufficiency by up to 7.8 %.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.
The publish or perish culture of scholarly communication results in quality and relevance to be are subordinate to quantity. Scientific events such as conferences play an important role in scholarly communication and knowledge exchange. Researchers in many fields, such as computer science, often need to search for events to publish their research results, establish connections for collaborations with other researchers and stay up to date with recent works. Researchers need to have a meta-research understanding of the quality of scientific events to publish in high-quality venues. However, there are many diverse and complex criteria to be explored for the evaluation of events. Thus, finding events with quality-related criteria becomes a time-consuming task for researchers and often results in an experience-based subjective evaluation. OpenResearch.org is a crowd-sourcing platform that provides features to explore previous and upcoming events of computer science, based on a knowledge graph. In this paper, we devise an ontology representing scientific events metadata. Furthermore, we introduce an analytical study of the evolution of Computer Science events leveraging the OpenResearch.org knowledge graph. We identify common characteristics of these events, formalize them, and combine them as a group of metrics. These metrics can be used by potential authors to identify high-quality events. On top of the improved ontology, we analyzed the metadata of renowned conferences in various computer science communities, such as VLDB, ISWC, ESWC, WIMS, and SEMANTiCS, in order to inspect their potential as event metrics.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Das Thema Environmental Social Governance (ESG) gewinnt auch im Rückversicherungssektor aufgrund gestiegener aufsichtsrechtlicher Anforderungen an Relevanz. Dabei wurde in der Vergangenheit der Schwerpunkt auf Investments gelegt. Nun existieren immer mehr ESG-Kriterien, die das Underwriting betreffen. Welche Effekte dies auf die Branche hat, lässt sich heute noch nicht abschätzen. Klar ist, dass wir uns am Anfang einer langen Transformation befinden. ESG-Kriterien werden zukünftig vermutlich als ein weiterer Aspekt neben der versicherungstechnischen Risikobewertung berücksichtigt.
The method of operation of auctions and their use in
a variety of economic sectors is already well documented. Auctions are already in use for the Placement of reinsurance on a small scale. So why is it important to revisit
this field, which has already been studied in such considerable detail?
• Two researchers, Paul R. Milgrom and Robert B. Wilson of Stanford University, were honoured with the Nobel Prize in Economics in 2020 for their improvements in auction theory and the invention of new auction formats.
• A trend towards automation is in the Placement of reinsurance is emerging. In this connection, a variety of InsurTechs and market initiatives, such as B3i and
Ritablock, are dealing with various fields of application of blockchain technology.
• The persistent low-interest-rate environment, together with existing competition
and cost pressures from primary insurers, mean that insurers are in search of savings potentials.
• Auctions are proving to be a successful model in many areas of the economy, e.g. in the allocation of frequencies in mobile communication, subsidies for wind farms or energy pricing.
Das Thema Environmental Social Governance (ESG) gewinnt auch im Rückversicherungssektor aufgrund gestiegener aufsichtsrechtlicher Anforderungen an Relevanz. Dabei wurde in der Vergangenheit der Schwerpunkt auf Investments gelegt. Nun existieren immer mehr ESG-Kriterien, die das Underwriting betreffen. Welche Effekte dies auf die Branche hat, lässt sich heute noch nicht abschätzen. Klar ist, dass wir uns am Anfang einer langen Transformation befinden. ESG-Kriterien werden zukünftig vermutlich als ein weiterer Aspekt neben der versicherungstechnischen Risikobewertung berücksichtigt
Die Funktionsweise von Auktionen und deren Einsatz in verschiedenen Wirtschaftszweigen ist bereits gut dokumentiert. Auch die Platzierung von Rückversicherung erfolgt bereits in kleinem Rahmen mittels Auktionen. Warum ist es daher wichtig dieses bereits recht gut untersuchte Feld erneut zu betrachten? Für die Verbesserungen der Auktionstheorie und Erfindung neuer Auktionsformate wurden die beiden Wissenschaftler Paul R. Milgrom und Robert B. Wilson der Stanford University 2020 mit dem Wirtschaftsnobelpreis geehrt. Bei der Platzierung von Rückversicherung zeichnet sich ein Trend zur Automatisierung ab. Verschiedene InsurTechs und Marktinitiativen wie B3i und Ritablock beschäftigen sich in diesem Sinne mit verschiedenen Anwendungsfeldern der Blockchain-Technologie. Das anhaltende Niedrigzinsumfeld sowie der bestehende Wettbewerbs- und Kostendruck der Erstversicherer führt dazu, dass Versicherer nach Einsparpotenzialen suchen. Die Auktionen erweisen sich in vielen Bereichen der Wirtschaft als Erfolgsmodell, z.B.
bei der Vergabe von Mobilfunkfrequenzen, Subventionen für Windparks oder der Preisfindung von Energiepreisen.
Katastrophenversicherung ohne Prämienzahlung – Das Konzept der Eventualverpflichtung in der Schweiz
(2023)
Seit den Starkniederschlägen 2021 wird in Deutschland über die Einführung einer Pflichtversicherung für Naturgefahren diskutiert. In der Schweiz besteht bereits eine Pflichtversicherung, ausgenommen für Erdbeben. Ein neuer Vorstoß plant eine "Eventualverpflichtung" für Erdbeben, bei der keine laufende Prämienzahlung erforderlich ist. Im Schadensfall tragen alle Gebäudeeigentümer zur Deckung bei. Dieser Ansatz zielt darauf ab, 99,5 Prozent der Gebäude gegen Erdbeben zu versichern. Der Plan sieht eine Prämienrate von 0,7%, Selbstbehalt von 5%, und eine Deckung von Schäden, die nur alle 500 Jahre auftreten. Während das Konzept Vorteile bietet, wie breite Abdeckung und staatsunabhängige Finanzierung, gibt es auch Bedenken hinsichtlich finanzieller Mittel und individueller Risikobetrachtung.
Catastrophe insurance without premium payment – The concept of contigent liability in Switzerland
(2023)
No later than with the heavy rainfalls of 2021, discussions in Germany have resumed around the introduction of compulsory insurance for natural hazards. Natural hazards exhibit a high potential for loss, and insurance is a building block with which to bolster resilience. In practice, there are already a host of functioning solution concepts to provide cover for natural hazards, including insurance pools and state guarantees. All of the concepts, however, are predicated on payment of an ongoing insurance premium.
Die Erschließung von Bildern ist eine Aufgabe, die sich aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung deutlich unterscheidet. In Museen, Archiven, Hochschulen und anderen Einrichtungen werden Bildsammlungen schon länger katalogisiert. Viele Sammlungen bleiben jedoch unerschlossen, da es für die Praxis der Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein für die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Sammlungsprofile von Bildsammlungen untersucht, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern, sowie auf deren Retrieval eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt.
Die Funktionsfähigkeit der öffentlichen Verwaltung ist auch und gerade bei einem Ausfall oder einer Beeinträchtigung Kritischer Infrastrukturen notwendig für die Aufrechterhaltung der Gesellschaft und des Staates. Ausgehend von dieser These wird zwischen Dezember 2018 und Februar 2019 eine Umfrage in den Landkreisen, Städten und Gemeinden des Regierungsbezirks Stuttgart durchgeführt. In ihr wird der Vorbereitungsgrad der öffentlichen Verwaltung hinsichtlich einer Versorgungsmangellage erfasst. Dabei wird ausschließlich die Versorgung des Personals innerhalb der Verwaltungseinrichtung betrachtet. Es wird untersucht, ob Vorsorgemaßnahmen für die Bereiche Trinkwasser, Nahrungsmittel, beheizte und beleuchte Räumlichkeiten, Sanitäranlagen, Ruhe- und Schlafmöglichkeit sowie Bargeld für die Gehälter der Mitarbeitenden getroffen sind. Als Vorsorgemaßnahmen werden generelle Planungen, Vorräte und Rahmenverträge mit Privatunternehmen betrachtet. Die Antworten werden von den Umfrageteilnehmenden hinsichtlich ihrer zeitlichen Auslegung eingeordnet. Zusätzlich werden die Teilnehmenden zu Planungsgrundlagen, Verbesserungspotenzial und einer Einschätzung der eigenen Vorbereitungen befragt. Diese Bachelorarbeit wertet die Umfrageergebnisse aus. Die Antworten zeigen, dass rund die Hälfte der Befragten eine Notstromversorgung besitzt und rund jede fünfte Einrichtung Planungen für die Trinkwasserversorgung der Mitarbeitenden vorhält. Darüber hinaus sind Vorbereitungen zur Versorgung des Personals nur vereinzelt vorhanden. Spezifische Vorräte für einen Ausfall der Versorgungsleistungen sind nur bei wenigen Befragten in geringem Maße vorhanden. Dennoch zeigt sich durch Alltagsvorhaltungen eine Latenzzeit bis zum Funktionsausfall. Rahmenverträge zur redundanten Sicherstellung der Versorgung sind nur selten abgeschlossen. Die Befragten geben an, dass sie für die Bearbeitung der Thematik Bedarf an weiteren Hilfestellungen haben. Die bekannten Schutzniveaus 72 Stunden (Notstromversorgung) und 14 Tage (Notvorräte der Bevölkerung) sind nicht oder nur sehr bedingt auf den Sektor Staat und Verwaltung zu übertragen. In der Auswertung der Ergebnisse werden drei Möglichkeiten identifiziert, um den Vorbereitungsgrad zu optimieren: Die Erhöhung der Vorhaltungen, das Optimieren der Planungen und das Abschließen von Rahmenverträgen. Darüber hinaus sind langfristig und einrichtungsunabhängig die derzeitigen Zuständigkeiten zu prüfen, einheitliche Schutzniveaus zu etablieren sowie eine gesellschaftliche und politische Kommunikationskultur hinsichtlich der Risiken eines Ausfalls oder einer Beeinträchtigung Kritischer Infrastrukturen aufzubauen.
Datenbanken kommen beim Einstieg von Unternehmen in das Inter- oder Intranet eine besondere Bedeutung zu, denn dort sind für den Mitarbeiter bzw. für den Kunden wichtige Informationen vorhanden: Kundenverzeichnisse, Warenwirtschafts- systeme, Rohdaten für Marketinganalysen, Produktkataloge etc. Die einheitliche Einbettung, d.h. Veröffentlichung, dieser Daten war bislang aufgrund der Heterogenität der Betriebssysteme, Datenbanksysteme und der Anwendungen, die mit ihnen arbeiten, oftmals zu aufwendig. Ziel zur Effizienzsteigerung und Wirtschaftlichkeit sollte es jedoch sein, daß alle Mitarbeiter jederzeit Zugriff auf alle Informationen haben, die sie für ihre Aufgaben benötigen, ohne ihren Arbeitsplatz verlassen zu müssen. Dank des World Wide Webs (WWW) und Java ist eine einheitliche Wahl des Betriebssystems heute nicht mehr zwingend, da WWW und Java Anwendungen ermöglichen, die auf beliebigen Rechnern lauffähig sind. Somit lassen sich Informationen im Inter- oder Intranet überall darstellen. Auf der anderen Seite des Informationskanals stehen verschiedenste Arten von Datenbankmanagementsystemen (DBMS), die die benötigten Informationen bereithalten. Dies sind vor allem Adabas, DB2, Informix, MS SQL-Server, Oracle, Sybase, sowie einige kleinere Systeme. Um die Lücke von der Informationsbereithaltung bis hin zur Informations- darstellung zu schließen, hat Sun Microsystems einen Standard definiert, der es Java-Programmen ermöglicht, über das Inter- bzw. Intranet auf relationale DBMS zugreifen zu können. Dieser Standard wird als JDBC (Java Database Connectivity) bezeichet. Hierdurch werden dem Programmierer Klassen, Interfaces und Methoden zur Verfügung gestellt, die ihm den Informationszugriff über das Netz hinweg ermöglichen sollen.
Sponsoring in Bibliotheken
(1998)
Durch die schlechte finanzielle Situation der öffentlichen Haushalte gewinnt in Deutschland die aktive Beschaffung von zusätzlichen Mittel für kulturelle Einrichtungen zunehmend an Bedeutung. Auch für Bibliotheken wird das Thema Sponsoring immer aktueller. Die Erfolge, die im Sportsponsoring erzielt werden und die zunehmende Bedeutung von Sponsoring in Museen, Theatern oder bei der Organisation von Musikfestivals wirft immer wieder die Frage auf, ob bestimmte Aktivitäten in Bibliotheken nicht über private Akteure finanziert werden können. Sponsoring in Bibliotheken ist mit vielen Schwierigkeiten verbunden. In kontroversen Diskussionen werden oft moralische Bedenken geäußert, die sich vor allem in der Sorge um die wirtschaftliche, politische und kulturelle Unabhängigkeit der Einrichtungen begründen. Die Befürchtung, daß sich die Träger der Einrichtungen ihrer finanziellen Verantwortung entziehen könnten, wenn sich Bibliotheken erfolgreich mit der Beschaffung zusätzlicher Mittel beschäftigen, spielt ebenfalls eine große Rolle. Neben diesen Aspekten stellt sich die Frage, ob Bibliotheken überhaupt die notwendigen fachlichen und personellen Voraussetzungen mitbringen, um Sponsoring professionell und damit erfolgreich in die Bibliotheksarbeit integrieren zu können. Inwieweit sich überhaupt Sponsoren für dieses Aufgabenfeld gewinnen lassen können, wird ebenfalls heftig diskutiert. Trotz dieser Bedenken zwingt die derzeitige Lage Bibliotheken, sich aktiv mit zusätzlichen Finanzierungsquellen auseinanderzusetzen. Diese Arbeit möchte zeigen, unter welchen Voraussetzungen und durch welche konkreten Maßnahmen Sponsoring sowohl für die Bibliothek als auch für Sponsoren erfolgreich sein kann.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
Das Suchen ist eine der, wenn nicht die am häufigsten durchgeführte Tätigkeit im Internet. Täglich werden Suchmaschinen mit Problemen aus aller Welt und aller Domänen befragt, in der Hoffnung, dass das Internet eine Lösung bereitstellt. Neben dem Web der Dokumente, welches überwiegend die großen Suchmaschinenhersteller wie Google und Microsoft durchsuchen, existiert auch das weniger bekannte Web der Daten. In diesem Teil des Internets werden Daten, keine Dokumente, in einem festen Format kodiert.
Dadurch soll die Möglichkeit geschaffen werden, dass nicht nur Menschen, sondern auch Maschinen, diese Daten verarbeiten können. Die Daten enthalten untereinander Verlinkungen, weswegen man auch von Linked Data spricht. Mit der vom W3C standardisierten Abfragesprache SPARQL ist es möglich, diese Daten nach selbst definierten Kriterien abzufragen.
Diese Arbeit befasst sich mit der Entwicklung einer SPARQL Abfrage zur Ermittlung von Sehenswürdigkeiten in Köln. Anhand dieses Anwendungsbeispiels soll beschrieben werden, inwieweit Linked Data in der Lage ist, mit Problemen und Fragestellungen des Alltags umzugehen. Es wird sich zeigen, dass es grundsätzlich möglich ist, derartige Anwendungsszenarien mit Linked Data zu lösen. Ein umfassendes Suchergebnis, welches beispielsweise Reiseführer geben, konnte jedoch nicht erzielt werden. Grund dafür sind hauptsächlich, wie in dieser Arbeit dargelegt wird, inkonsistente Daten. Um diese Beobachtung aufstellen zu können, wurden präzisere Suchkriterien für Sehenswürdigkeiten spezifiziert.Weitere Auffälligkeiten, die während der Entwicklung bemerkt wurden, wurden entsprechend dokumentiert.