Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Language
- German (255) (remove)
Has Fulltext
- yes (255)
Keywords
- Deutschland (14)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- E-Learning (5)
- Electronic Commerce (5)
Faculty
- Fakultät 10 / Institut für Informatik (93)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 07 / Institut für Medien- und Phototechnik (37)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (3)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.