Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (140)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (10)
Language
- German (583)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (23)
- Deutschland (19)
- Germany (19)
- Soziale Arbeit (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (153)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Zentraler Punkt der Verkehrsproblematik ist die hohe Staubelastung, vor allem im Berufsverkehr. Diese Situation ließe sich durch eine Erhöhung des Besetzungsgrades pro PKW verbessern. Eine Vielzahl der Pendler fährt alleine, obwohl besonders in diesem Kontext viele Personen regelmäßig denselben oder einen ähnlichen Weg fahren und dadurch Fahrgemeinschaften möglich wären. Zur Lösung dieser Problematik wird ein persuasive System namens Route Match zur Unterstützung der Bildung von Fahrgemeinschaften geplant. Im Laufe des Dokumentes werden eine Literaturrecherche, eine Kontextanalyse, zwei empirische Erhebungen und eine Anforderungsspezifizierung für Route Match durchgeführt. Darauf aufbauend wird ein sutainability analysis Framework angewendet und erste Prototypen erstellt. Das Ergebnis sind 138 Requirements, Qualitätsanforderungen und einige Protoypen. Route Match ist eine einfache und kostengünstige Möglichkeit den Autoverkehr zu reduzieren und dadurch die Umwelt positiv zu beeinflussen. Die meisten anderen Ansätze beruhen auf der Entwicklung von neuen Transportmitteln oder dem Ausbau der öffentlichen Verkehrsnetze und des Straßennetzes.
The rising worldwide energy demand leads to the depletion of fossil fuels reserves and at the same time, it increases the environmental impact caused by emissions of greenhouse gases (GHG).
Utilization of fossil fuels causes not only climate change impacts such as global warming, but also many other environmental problems such as water and soil contamination that pose potential risks to human and animal health.
Furthermore, increasing population growth leads to increased food demand and consumption. This upward trend creates competition between food and bioenergy markets. Hence, the so‐called “food or fuel” discussion is back.
Challenges to counteract deciding between food and fuel that focus on the need to produce sustainable energy, while protecting environment, are the keys to replacing fossil fuels and lowering their greenhouse gas emissions. For this purpose, a completely new strategy with a proper sustainable system to supplying world’s energy demand must be found.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop
(2016)
Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt.
The goal of the ComProSol project is the mobilization of currently unused biogenic contingents such as residual and waste material for bioenergy feedstocks. Another budding option is the reactivation of fallow land to grow energy crops and short rotation coppice for energy recovery.
In the course of Germany’s bioeconomy program, which will switch the economy from a petro-based to a bio-based society, the prioritized utilization of bio-based resources should always be the hierarchically most valuable. Food and forage production are given preference over material recycling and extracting raw materials. Another driver is the growing consciousness of environmental issues and nature conservation which limits the available cultivatable area by law. As a result, there is a supply bottleneck of economically competitive feedstock for bioenergy. In this context, the interdisciplinary project is based on the systematic interconnection of applications to create utilization cascades.
Methodical corrective measures of ComProSol focus on influencing fuel properties by preconditioning through substrate and additive compound blending, sieving and compacting, and integrating process optimization. Collaboration with other subprojects that deal with bio- or thermal-chemical conversion will provide additional impetus for developing utilization applications.
The initial work package of ComProSol, which recently started, defines the scope by dint of a regional potential feedstock cadaster in order to specify the further roadmap.
Intelligent use of energy is one of the keys to success for an energy revolution. To meet this challenge, smart meters are suitable tools because INTELLIGENT use of energy means not only to use efficiency technology, but also to determine load shifting potentials and use them accordingly. Especially farms with high power consumption are becoming increasingly concerned about reducing energy costs due to rising energy prices and need a systematic analysis of their operational energy flow. To find solutions for farms, the NaRoTec e.V., the TH Köln, and the Machinery Ring Höxter-Warburg have joined forces with partners and launched the project "Intelligent Energy in Agriculture", which is funded by the state of NRW. The aim of the project is to be able to give individual advice recommendations for energy optimization of agricultural holdings. This will be achieved inter alia through an operational energy audit and current measurements in different operating ranges. To achieve this, smart meters were installed in selected energy-intensive dairy and pig farms. As part of the project, the installed smart meter information about the consumption of various plants and their components were analyzed, regularities and adaptability in loading history identified, and the energy efficiency of the equipment and systems used verified (especially pumps, ventilators, feeding systems). Then recommendations were formulated to shift electricity-intensive processes to times with low electricity costs and high intrinsic power production. The resulting findings will be used as the basis for intelligent energy management in the further course of the project. Overall, efficiency streamlining measures in the field of ventilation and lighting systems, flexible dry feeding systems by decoupling power purchase and consumption, as well as energy savings and related CO2 savings were determined.
Intelligent use of energy is one of the keys to success for an energy revolution. To meet this challenge, smart meters are suitable tools because INTELLIGENT use of energy means not only to use efficiency technology, but also to determine load shifting potentials and use them accordingly. Especially farms with high power consumption are becoming increasingly concerned about reducing energy costs due to rising energy prices and need a systematic analysis of their operational energy flow. To find solutions for farms, the NaRoTec e.V., the TH Köln, and the Machinery Ring Höxter-Warburg have joined forces with partners and launched the project "Intelligent Energy in Agriculture", which is funded by the state of NRW in Germany. The aim of the project is to be able to give individual advice recommendations for energy optimization of agricultural holdings. This will be achieved inter alia through an operational energy audit and current measurements in different operating ranges. To achieve this, smart meters were installed in selected energy-intensive dairy and pig farms.
As part of the project, the installed smart meter information of one of the dairy Farms is used to optimize the energy consumption of the farm and increase the degree of self-sufficiency. A good way to achieve this is by taking a closer look at the cooling process of the produced milk since it is one of the most energy consuming processes on a dairy farm. In addition an installation of an ice cooling system instead of a direct cooling system enables the possibility to store self-produced energy in the form of ice and use it later on when it is needed to cool the milk. This flattens the usual energy peaks throughout the day and increases the degree of self-sufficiency. To ensure a sufficient amount of self-produced energy with solar power plants of various sizes were designed. The different sizes of the power plants are defined by the use of the gathered smart meter data is used to cover different electric loads in addition to the ice water cooling system. Afterwards the different simulated models are compared to find the best balance between energy production, investment cost and a high degree of self-sufficiency. First results show that using an ice cooling system in combination with a solar power plant improvement the degree of self-sufficiency by up to 7.8 %.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
There is a dramatic shift in credit card fraud from the offline to the online world. Large online retailers have tried to establish countermeasures and transaction data analysis technologies to lower the rate of fraudulent transactions to a manageable amount. But as retailers will always have to make a trade-off between the performance of the transaction processing, the usability of the web shop, and the overall security of it, one can assume that e-commerce fraud will still happen in the future. Thus, retailers have to collaborate with relevant business partners on the incident to find a common ground and take coordinated (legal) actions against it.
Trying to combine the information from different stakeholders will face issues due to different wordings and data formats, competing incentives of the stakeholders to participate on information sharing, as well as possible sharing restrictions that prevent them from making the information available to a larger audience. Moreover, as some of the information might be confidential or business-critical to at least one of the parties involved, a centralized system (e.g. a service in the public cloud) can not be used.
This Master Thesis is therefore analysing how far a computer supported collaborative work system based on peer-to-peer communication and Semantic Web technologies can improve the efficiency and effectivity of e-commerce fraud investigations within an inter-institutional team.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Der Otterberger Kapitelsaal
(1993)
Die Otterberger Bauplastik
(1998)
Due to the present developments of the Internet and its technical components, the skills of the web experts have to be more and more complex and specific. The Internet experts in the creative field are located distributedly around the whole world. As a result, many companies have problems to find the needed experts on site and are dependent on creative cooperations and virtual teams with the help of technical tools. The virtual working place is an important issue, particularly in modern times and the market offers more and more cooperation systems for exactly this purpose: Creative cooperation in distributed working situations. This thesis examines the approaches of creative cooperation and cooperation technologies with an analysis about existing cooperation systems with a creative context. It spans a wide range of tools. On the one hand, there are approaches which offer only straightforward solutions for single design tasks. On the other hand, there are providers which recognised the great need of creative cooperation systems and working at full speed to extend their systems. The examined areas of this work lead to a design process oriented approach with flexible frames and enough space for the creative development of every single user. The cooperation in a creative context stays in the foreground and is the base for future approaches for the web design sector.
When it comes to web applications and their dynamic content, one seemingly common trouble area is that of layouts. Frequently, web designers resort to frameworks or JavaScript-based solutions to achieve various layouts where the capabilities of Cascading Style Sheets (CSS) fall short. Although the World Wide Web Consortium (W3C) is attempting to address the demand for more robust and concise layout solutions to handle dynamic content with the recent and upcoming specifications, a generic approach to creating layouts using constraint syntax has been proposed and implementations have been created. Yet, the introduction of constraint syntax would change the CSS paradigm in a fundamental way, demanding further analysis to determine the viability of its inclusion in core web standards. This thesis focuses on one particular aspect of the introduction of constraint syntax: how intuitive constraint syntax will be for designers. To this end, an experiment is performed involving participants thinking aloud while reading code snippets. Also, cursor movements are recorded as a proxy for eye movement over the code snippets. The results indicate that, upon first-impression, constraint syntax within CSS is not intuitive for designers.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic canned corn export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic black tea export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic/fair trade coffee export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic coconut oil export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic canned tomatoes export opportunities to the German and US markets.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
The utilization of roadside-green-cuttings (grass) for anaerobic digestion increases provides an additional possible source of organic waste for use as a renewable energy source. Grass can be used as a substrate to increase biogas yield. Nevertheless, the anaerobic digestion of this kind of waste can be limited due to the fact that it could be contaminated with heavy metals, in particular from traffic emissions and industrial activity. For this reason the biogas production of grass from a busy road was assessed. Samples of roadside-grass were washed with an organosulphide, which is used for the removal of heavy metals from wastewater.
A comparison of the anaerobic digestion of washed and unwashed roadside grass was performed. Results showed that the anaerobic digestion of the unwashed grass was much more effective than the washed grass. A second experiment was carried out and co-fermentation of manure and farm-grass was prepared for anaerobic digestion. Lead was added in the concentrations 500, 1000 and 2000 mg Pb2+/kg. The results showed that the higher the lead concentration, the lower the inhibition of the biogas yield. The grass could be acting as phytoremediator for high lead concentrations. The grass could contain organic compounds, which can as-similate heavy metals.
Anaerobic Digestion of spent grains: Potential use in small-scale Biogas Digesters in Jos, Nigeria
(2014)
In order to ascertain biogas yield potential and applicability of spent grains (SG)1 in small-scale biogas production, laboratory batch fermentation was performed with various masses of dry and wet SG using sewage sludge (SS)2 and digested maize silage (DMs) 3 as inoculums. Different volumes of biogas and CH4 were measured with higher volumes observed for batch fermentation with DMs in com-parison to those produced by SS. Results from the study reveals minimum biogas yield of 118.10 L/kg
VS and maximum yields of 769.46 L/kg VS, which are indicative of the possible use of SG for domestic biogas production in Jos, Nigeria. The study established the fact that the use of both dry and wet SG results in the yield of a useful amount of biogas having 40 - 60 % CH4 content depending on the inoculum and amount of volatile solids present. Using the parameters of dry matter and volatile solids contents analysed for SG and DMs, it was estimated that a reactor volume of 6.47 m3 would be capable of meeting the daily cooking needs of rural households in Jos, Nigeria.
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit gegenüber Fairtrade- und Bio-Produkten abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse zeigen unter anderem eine Skepsis – hier insbesondere bei der Gruppe der Studierenden – gegenüber der Glaubwürdigkeit bekannter Fairtrade- und Bio-Siegel. Dabei ist das Misstrauen gegenüber den Aussagen des Bio-Siegels deutlich stärker ausgeprägt. Bezüglich der Kaufbereitschaft und dem tatsächlichen Verhalten ist das Phänomen des attitude behaviour gap zu beobachten. Die Befragten halten Fairtrade zwar für unterstützenswert, drücken ihre Einstellung aber nicht in ihrem tatsächlichen Verhalten aus. Die Befragung zeigt, dass häufig Unklarheit über die inhaltlichen Aspekte der Faitrade- und Bio-Siegel besteht. Insbesondere mehr Aufklärung (Bewusstseinsbildung) und eine größere Transparenz des Fairtrade-Systems könnten hier entgegenwirken und dazu beitragen, dass Einstellungen sich auch in tatsächlichem Handeln widerspiegeln.
Der verantwortungsvolle Konsument – Einstellungen von Wirtschafts- und Sozialwissenschaftlern
(2015)
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit in Bezug auf Fairtrade- und Bio-Produkte abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse sind in der Reihe „Forum NIL“ veröffentlicht worden. In der vorliegenden Studie sollte untersucht werden, ob Sozialwissenschaftler ein verantwortungsvolleres Konsumentenverhalten aufweisen als Wirtschaftswissenschaftler. Aus diesem Grunde, wurde die gleiche Befragung an der Fakultät für Sozialwissenschaften der TH Köln durchgeführt. Ein Vergleich der Befragungsergebnisse zeigte einerseits, dass Studierende, Mitarbeiter/innen und Professor(inn)en in den Sozialwissenschaften ein teilweise höheres Verantwortungsbewusstsein aufweisen. Dies gilt insbesondere in Bezug auf das bewusste Achten auf nachhaltige Produkte, die Zahlungsbereitschaft und den tatsächlichen Kauf von Fairtrade- und Bio-Produkten. Allerdings war auch bei den Befragten der Fakultät für Wirtschaftswissenschaften ein durchaus verantwortungsvolles Konsumentenverhalten erkennbar. Darüber hinaus konnte der generelle Vorwurf, dass sich eine Ökonomieausbildung negativ auf die Einstellung zu einem verantwortungsvollen Handeln auswirkt, anhand der Studienergebnisse nicht bestätigt werden. Vielmehr zeigte sich, dass nahezu keine Unterschiede zwischen den Antworten der Studienanfänger und Studierender höherer Semester an der Fakultät für Wirtschaftswissenschaften feststellbar waren.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.