Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (140)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (10)
Language
- German (583)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (23)
- Deutschland (19)
- Germany (19)
- Soziale Arbeit (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (153)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic canned tomatoes export opportunities to the German and US markets.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
The utilization of roadside-green-cuttings (grass) for anaerobic digestion increases provides an additional possible source of organic waste for use as a renewable energy source. Grass can be used as a substrate to increase biogas yield. Nevertheless, the anaerobic digestion of this kind of waste can be limited due to the fact that it could be contaminated with heavy metals, in particular from traffic emissions and industrial activity. For this reason the biogas production of grass from a busy road was assessed. Samples of roadside-grass were washed with an organosulphide, which is used for the removal of heavy metals from wastewater.
A comparison of the anaerobic digestion of washed and unwashed roadside grass was performed. Results showed that the anaerobic digestion of the unwashed grass was much more effective than the washed grass. A second experiment was carried out and co-fermentation of manure and farm-grass was prepared for anaerobic digestion. Lead was added in the concentrations 500, 1000 and 2000 mg Pb2+/kg. The results showed that the higher the lead concentration, the lower the inhibition of the biogas yield. The grass could be acting as phytoremediator for high lead concentrations. The grass could contain organic compounds, which can as-similate heavy metals.
Anaerobic Digestion of spent grains: Potential use in small-scale Biogas Digesters in Jos, Nigeria
(2014)
In order to ascertain biogas yield potential and applicability of spent grains (SG)1 in small-scale biogas production, laboratory batch fermentation was performed with various masses of dry and wet SG using sewage sludge (SS)2 and digested maize silage (DMs) 3 as inoculums. Different volumes of biogas and CH4 were measured with higher volumes observed for batch fermentation with DMs in com-parison to those produced by SS. Results from the study reveals minimum biogas yield of 118.10 L/kg
VS and maximum yields of 769.46 L/kg VS, which are indicative of the possible use of SG for domestic biogas production in Jos, Nigeria. The study established the fact that the use of both dry and wet SG results in the yield of a useful amount of biogas having 40 - 60 % CH4 content depending on the inoculum and amount of volatile solids present. Using the parameters of dry matter and volatile solids contents analysed for SG and DMs, it was estimated that a reactor volume of 6.47 m3 would be capable of meeting the daily cooking needs of rural households in Jos, Nigeria.
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit gegenüber Fairtrade- und Bio-Produkten abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse zeigen unter anderem eine Skepsis – hier insbesondere bei der Gruppe der Studierenden – gegenüber der Glaubwürdigkeit bekannter Fairtrade- und Bio-Siegel. Dabei ist das Misstrauen gegenüber den Aussagen des Bio-Siegels deutlich stärker ausgeprägt. Bezüglich der Kaufbereitschaft und dem tatsächlichen Verhalten ist das Phänomen des attitude behaviour gap zu beobachten. Die Befragten halten Fairtrade zwar für unterstützenswert, drücken ihre Einstellung aber nicht in ihrem tatsächlichen Verhalten aus. Die Befragung zeigt, dass häufig Unklarheit über die inhaltlichen Aspekte der Faitrade- und Bio-Siegel besteht. Insbesondere mehr Aufklärung (Bewusstseinsbildung) und eine größere Transparenz des Fairtrade-Systems könnten hier entgegenwirken und dazu beitragen, dass Einstellungen sich auch in tatsächlichem Handeln widerspiegeln.
Der verantwortungsvolle Konsument – Einstellungen von Wirtschafts- und Sozialwissenschaftlern
(2015)
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit in Bezug auf Fairtrade- und Bio-Produkte abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse sind in der Reihe „Forum NIL“ veröffentlicht worden. In der vorliegenden Studie sollte untersucht werden, ob Sozialwissenschaftler ein verantwortungsvolleres Konsumentenverhalten aufweisen als Wirtschaftswissenschaftler. Aus diesem Grunde, wurde die gleiche Befragung an der Fakultät für Sozialwissenschaften der TH Köln durchgeführt. Ein Vergleich der Befragungsergebnisse zeigte einerseits, dass Studierende, Mitarbeiter/innen und Professor(inn)en in den Sozialwissenschaften ein teilweise höheres Verantwortungsbewusstsein aufweisen. Dies gilt insbesondere in Bezug auf das bewusste Achten auf nachhaltige Produkte, die Zahlungsbereitschaft und den tatsächlichen Kauf von Fairtrade- und Bio-Produkten. Allerdings war auch bei den Befragten der Fakultät für Wirtschaftswissenschaften ein durchaus verantwortungsvolles Konsumentenverhalten erkennbar. Darüber hinaus konnte der generelle Vorwurf, dass sich eine Ökonomieausbildung negativ auf die Einstellung zu einem verantwortungsvollen Handeln auswirkt, anhand der Studienergebnisse nicht bestätigt werden. Vielmehr zeigte sich, dass nahezu keine Unterschiede zwischen den Antworten der Studienanfänger und Studierender höherer Semester an der Fakultät für Wirtschaftswissenschaften feststellbar waren.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
The effects of global warming, the depletion of non-renewable resources, the loss of biodiversity and a growing population, has affected nature and humanity over the past decades. Unless we change course in how we produce and consume, severe consequences for life on this Planet in the future are likely to follow. Based on that background, this paper looks at one area of consumption, namely food, and analyses a particular market within this area which causes high environmental pressures, i.e. the meat market. After having laid the theoretical foundation of sustainable consumption, an overview of the problems arising in the food sector in general and the meat market in particular is given. An in-depth analysis of the consumption of meat in one country, namely Germany, follows. Germany has been chosen as an exemplary for a country showing an excessive consumption of meat. This contributes to the problems linked to the meat market. The past development of the consumption of meat is evaluated and forms the basis for predicting a possible development of meat consumption in Germany until 2025. Based on the findings, conclusions are drawn about a possible trend towards sustainable consumption in the German meat market.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Der vorliegende Bericht ist ein ökonomischer Vergleich
verschiedener Varianten der Überschussschlamm
(ÜSS)-Verwertung der Sickerwasseranlage
auf der Deponie des Entsorgungszentrums Leppe
mit dem aktuellen Entsorgungsweg. Als Vergleichsparameter
werden die Jahresvollkosten herangezogen.
Der derzeitige Entsorgungsweg über die kommunale
Kläranlage wird hierbei als Basisvariante
betrachtet und mit alternativen Behandlungs- und
Verwertungsmöglichkeiten verglichen. Hierbei werden
verschiedene Varianten mit unterschiedlichen
Ausführungen der Komponenten Lagerung, Entwässerung,
Trocknung, Transport und Verbrennung
gegenübergestellt.
In der vorliegenden Arbeit wurde eine HPLC-Methode mit der dazugehörigen Probenvorbereitung entwickelt, welche es ermöglicht Essigsäure und Acrylsäure in komplexen Matrizes wie Deponiesickerwasser zu bestimmen. Hauptaugenmerk lag dabei auf der Matrixreduzierung, die bei 96 % lag. Die Wiederfindung der Analyten Essigsäure und Acrylsäure liegt bei der beschriebenen Methode bei ca. 100 %.
Biogas, mit geringen Konzentrationen an Methan, entsteht unter anderem bei verschiedenen industriellen Prozessen. Wegen der Umweltschädlichkeit des Methans gilt es dessen Eintrag in die Umwelt zu vermeiden.
Das Ziel des vorgestellten Projektes war die Überprüfung eines umweltfreundlichen Verfahrens zur Reduzierung des Methans durch methanotrophe Bakterien. Die einzelnen Batchversuche liefen über 15 Stunden und zeigten eine starke Reduzierung des Methans von 18 auf 1 Vol.-%.
Messverfahren zur Erfassung der potenziellen Ökotoxizität in anaeroben und aeroben Abbauprozessen
(2014)
In der vorliegenden Ausarbeitung werden die etablierten Verfahren zur Bestimmung der Ökotoxizität erläutert, mit dem Ziel weitere Bioaktivitätsparameter zur Charakterisierung der biologischen Prozesse bei der Forschungsgemeinschaft :metabolon zu integrieren.
Die Erfassung der Toxizität beruht bei den vorgestellten Methoden auf der Messung der Lumineszenz, der Sauerstoffverbrauchsrate oder der Zellzahl. In Abhängigkeit von den Eigenschaften der Schadstoffe sowie der biologischen Betriebsbedingungen der Behandlungsstufen ist die Auswahl der bestmöglichen Methode erforderlich.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
Für einen aktiven Gewässerschutz ist es sinnvoll,
Immissionen aus Kläranlagen und Kanalsystemen
in einem Gesamtkonzept zu betrachten und somit
das Abwasserabflusssystem ganzheitlich zu bewirtschaften.
Schließlich belasten diese Einleitungen
die Gewässer sowohl in hydraulischer wie auch in
stofflicher Hinsicht.
Die gewonnenen Erfahrungen aus fünfjähriger Forschungsarbeit
stellen die Grundlage für einen erfolgreichen
Technologietransfer auf weitere Kanal und
Kläranlagen-Systeme dar. Dies ist ein wesentliches
Ziel des wissenschaftlichen Netzwerkes, das
im Rahmen von :metabolon aufgebaut wird.
Die Messung des Chemischen Sauerstoffbedarfs (CSB) im Zulauf von Kläranlagen ist von zentraler Bedeutung für die Optimierung und Regelung der Abbauprozesse der Nitrifikation und Denitrifikation. Allerdings ist die Messung des CSB bislang sehr zeitaufwändig und kostenintensiv, da 24-Stunden Mischproben im Labor nasschemisch analysiert werden müssen.
Online-Messtechnik in Form von spektroskopischen Messgeräten (10.000 ̶ 20.000 €) oder nass-chemischen Online-Analysatoren (> = 50.000 €) sind insbesondere für kleine und mittlere Kläranlagen aus Kostengründen keine Alternative.
Eine extrem kostengünstige Alternative ist der im Folgenden beschriebene Softsensor für CSB im Kläranlagenzulauf, der auf Basis von Standardmesstechnik im Zulauf von kleinen und mittleren kommunalen Kläranlagen sowie mit zusätzlicher Online-Messtechnik für Trübung sowie Ammonium- und Nitratstickstoff (NH4-N und NO3-N) die aktuelle CSB-Konzentration bestimmt. Zur Entwicklung des Softsensors werden Regressionsmethoden aus dem Bereich des Machine Learning eingesetzt. Die Ergebnisse einer Entwicklungs- und Testphase an der Kläranlage Rospe in Gummersbach zeigen, dass die Werte des Softsensors sehr gut mit den Originaldaten übereinstimmen. Die Korrelationswerte beim Vergleich mit CSB-Messungen liegen bei der Regression mit Support Vector Regression bei 0,98 mit einem RSME von 2,45 mg/l.
Die Regelung heutiger, industriell genutzter Biomasse-Feuerungsanlagen erfolgt meistens über fest eingestellte Parameter. Bei Veränderungen des Brennstoffs dienen visuelle Beobachtungen der Mitarbeiter als Basis der Neueinstellung dieser Parameter. Das Ziel der Forschung besteht in der Optimierung solcher Regelungen durch den Einsatz von Kamerasystemen in Kombination mit einer automatisierten Regelung, die auf Basis von Flammenbild-Analysen funktioniert. Ein solches System wäre auch unabhängig von der Art des Brennstoffs.
This paper presents a series of flow and temperature measurements on the principal heat network of :metabolon in Lindlar, Germany. These measurements intend to show the behaviour of the system on specific production areas of :metabolon for future monitoring and optimisation purposes. Such measurements allow the analysis of the system’s heat flow through the network, which showed that losses exist, some areas. The results demonstrate successfully that the temperature and flow changes deserve more detailed and fixed monitoring in specific areas to help the user decide the optimum measuring point.
Online-measurement systems for agricultural and industrial AD plants – A review and practice test
(2014)
Online-measurement systems for AD plants in general are crucial to allow for detailed and comprehensive process monitoring and provide a basis for the development and practical application of process optimisation and control strategies.
Nevertheless, the online measurement of key process variables such as Volatile Fatty Acids (VFA) and Total Alkalinity (TA) has proven to be difficult due to extreme process conditions. High Total Solids (TS) concentrations and extraneous material often damage the sensors or have a strong negative impact on measurement quality and long-term behaviour.
Consequently, there is a need for new robust and accurate online-measurement systems.
The purpose of this paper is to give an overview of existing online-measurement systems, to present the current state of research and to show the results of practice tests at an agricultural and industrial AD plant. It becomes obvious that a broad variety of measurement solutions have been developed over the past few years, but that the main problem is the upscaling from lab-scale to practical application at full-scale AD plants. Results from the practice tests show that an online-measurement of pH, ORP, TS is possible.
Mit Hilfe der Inline-ATR-FTIR-Spektroskopie im mittelinfraroten (MIR) Spektralbereich lassen sich gleich mehrere Prozessparameter für Biogasanlagen in Echtzeit und ohne Probenahme verfolgen. Die gemessenen Absorptionsspektren geben simultan Aufschluss über den Gehalt an flüchtigen organischen Säuren (FOS), die alkalische Pufferkapazität (TAC) und die Ammoniumstickstoff-Konzentration (NH4-N).
Dabei können unter Verwendung intelligenter Datenanalyseverfahren, wie z.B. Partial Least Squares (PLS), Regression oder Support Vector Regression (SVR) sowie in kontrollierter Laborumgebung, Vorhersagefehler (RMSECV) von 0.372 g/l (FOS: R2=0.971), 0.336 g/l (TAC: R2=0.996) und 0.171 g/l (NH4-N: R2=0.992) im Falle der PLS, bzw. 0.386, 0.259 und 0.110 g/l für die SVR erreicht werden.
Erste Inline-Messungen in einer Biomüllvergärungsanlage zeigen, dass die erwarteten Absorptionsbanden auch im Prozessbetrieb wiedergefunden werden können. Sie unterliegen jedoch einem ausgeprägten Temperatureinfluss, der bei der Quantifizierung dieser Prozessdaten berücksichtigt werden muss. Weiterführende Untersuchungen sind notwendig, um die Inline-Tauglichkeit des Messsystems unter Beweis zu stellen.
In this paper a closed-loop substrate feed control for agricultural biogas plants is proposed. In this case, multi-objective nonlinear model predictive control is used to control composition and amount of substrate feed to optimise the economic feasibility of a biogas plant whilst assuring process stability. The control algorithm relies on a detailed biogas plant simulation model using the Anaerobic
Digestion Model No. 1. The optimal control problem is solved using the state-of-the-art multi-objective optimization method SMS-EGO. Control performance is evaluated by means of a set point tracking problem in a noisy environment.
Results show, that the proposed control scheme is able to keep the produced electrical energy close to a set point with an RMSE of 0.9 %, thus maintaining optimal biogas plant operation.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
Erwachsenenbildungs- und Weiterbildungsprogramme begründen sich auf Zielgruppen- und Bedarfsanalysen. Es geht darum heraus zu finden, welche Zielgruppe welchen Bedarf hat, um daraufhin gezielte Angebote konzipieren zu können. Doch selbst wenn die Zielgruppe, ihre Bedürfnisse, Wünsche und Erwartungen bekannt sind und Ziele für ein Weiterbildungs-programm klar formuliert und kommuniziert wurden, bedeutet das nicht, dass diese Ziele in dieser Form von den Programmteilnehmer/innen verstanden und angenommen sowie in ihrem Arbeitsalltag umgesetzt werden. Diese Studie untersucht inwiefern die Programmziele des LehrendenCoaching-Programms der Fachhochschule Köln in den von neu berufenen Professorinnen und Professoren verfassten Lehrportfolios wieder zufinden sind.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic cotton export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic oats export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic rye export opportunities to the German and US markets.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Studierende der Fachhochschule Köln unterscheiden sich in zunehmendem Maße in ihren sozio-kulturellen, bildungsbiografischen und kognitiven Voraussetzungen für einen hochschulischen Bildungsprozess. Lehre zeigt sich vor dem Hintergrund dieser Diversität zunehmend als Herausforderung. Ausgehend vom Ziel, studentisches Lern- und Arbeitsverhalten verstärkt auf Studienerfolg und die Gestaltung von Lehrveranstaltungen auf heterogene Zielgruppen auszurichten, wurde die Studie „Diversity Forschung“ durchgeführt, um Status quo der und Gestaltungsspielräume für Diversity-bezogene Aufmerksamkeit und Verständnis für lehr- und lernrelevante Effekte zu identifizieren. Die Studie wurde mit dem Forschungstypus Innerinstitutionelle Hochschulforschung durchgeführt.
Was kann und was sollte eine Hochschule über ihr Kerngeschäft Studium und Lehre wissen, wie kommt sie zu diesem Wissen und was fängt sie damit an? Innerinstitutionelle Hochschulforschung macht Handlungen und Prozesse im Rahmen von Studium und Lehre in den Strukturen der Hochschule transparent und kann so die institutionelle Selbstaufklärung und das Qualitätsmanagement stützen.
Gegenstand dieses Berichts sind Ansatz, Methoden und Befunde innerinstitutioneller hochschuldidaktischer Forschung an der Fachhochschule Köln. Schwerpunkt ist die Diversität der Lehrenden und Lernenden als Akteursgruppen und -gemeinschaft in Sachen Studium und Lehre. Ausgangspunkt war die Absicht, den Status lehr- und lernrelevanter Diversität zu erkennen, Gestaltungsspielräume für den Umgang mit Diversität auszuloten und Implementationen innovativer Lehrkonzepte für erfolgreiches Studieren mit einem Monitoring-Ansatz zu begleiten.
Weiterer Gegenstand des Berichts sind die Einflüsse dieser Forschung als Selbstbeobachtung auf intendierte Change-Prozesse zur Verbesserung von Studium und Lehre und die Frage, wie Selbstbeobachtungsstrategien als hochschuldidaktische Hochschulforschung weiter elaboriert werden und deren Befunde in die hochschuldidaktische Praxis und die Lehr- und Lernkultur der Fachhochschule Köln gelangen können.
This paper gives an overview of the development of Fair Trade in six European countries: Austria, France, Germany, the Netherlands, Switzerland and the United Kingdom. After the description of the food retail industry and its market structures in these countries, the main European Fair Trade organizations are analyzed regarding their role within the Fair Trade system. The following part deals with the development of Fair Trade sales in general and with respect to the products coffee, tea, bananas, fruit juice and sugar. An overview of the main activities of national Fair Trade organizations, e.g. public relation activities, completes the analysis. This study shows the enormous upswing of Fair Trade during the last decade and the reasons for this development. Nevertheless, it comes to the conclusion that Fair Trade is still far away from being an essential part of the food retail industry in Europe.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
This paper is grounded in the emerging field of web science and shall contribute to its further classification and demarcation by illustrating the current state of »web-native research methods«. It builds upon an initial arraying work of Richard Rogers, who coined the term »Digital Methods« for research with methods that were »born« in the web, and illustrated and organized them in his eponymous book in 2013. This paper attempts to develop a more appropriate illustration of the Digital Methods by following the web’s very own, hypertextual, network-like nature, in particular by construing an ontological representation on the base of the Web Ontology Language (OWL). By virtue of decomposing the book into granular information units and their subsequent reassembly into OWL entities, immediate access to the entire knowledge domain can be provided, and coherencies, interrelations and distinctions between concepts become apparent. The ontology’s structure was induced narrowly along the provided examples of research projects and subsequently clustered in topic groups, of which the three most important ones were (a) the Digital Methods as an arraying space of web-native methodology, (b) a collection of concrete applications of these Digital Methods in research projects, and (c) a hierarchical scheme of traditional sciences with a distinct interest in answering research questions with help of Digital Methods. Subsequently, the ontology was evaluated in three general dimensions: Deriving user stories and scenarios provided means to validate the utilization quality; the accuracy and reliability of the resulting structure was validated with help of a control group of web-native research projects; and process control instruments served as a validator for the ontology’s correctness. Despite the ontology itself, this paper also resulted in a first interpretation of the produced information: Statements about research practise in social science, politics and philosophy were as possible as findings about commonly applied varieties of methods. Concluding, the present paper proposes a process of ontology engineering, an evaluation of the ontology’s value, and an interpretation of the ontology’s content.
Vorlesungsnotizen, Präsentationen, To-do-Listen – und vielleicht auch der eine oder andere Schmierzettel: Wie Studierende lernen, bleibt Dozenten oft verborgen. In Lernportfolios sammeln Studierende solche Dokumente dagegen systematisch. Davon können auch Lehrende profitieren – wenn sie ihre Kursteilnehmer gut anleiten.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.