Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Aus Filmen wie „Star Trek“ kennen wir „Beamen“. Dort werden komplette Personen durch Beamen auf z.B. Planeten transportiert. Dies hört sich im ersten Moment sehr nach Science-Fiction an, allerdings ist das Beamen von Informationen seit ein paar Jahren sehr real geworden.
Nach einem Grundverständnis für herkömmliche Datenübertragungen wird die Quantenphysik vorgestellt mit ihren grundlegendsten Begriffen. Anschließend wird nun die Quantenteleportation vorgestellt. Einleitend dazu wird zuerst die Quantenverschränkung erklärt, auf der die Teleportation beruht. Es wird erklärt, wie solche Verschränkungen entstehen, um dann den Aufbau einer Teleportation mit den aktuellen Fortschritten vorzustellen sowie Ziele der Quantenteleportation zu beschrieben. Mit deren Hilfe werden Quantencomputern unterstützt.
Steigende Unsicherheitswahrnehmungen im höheren Alter korrespondieren kaum mit der objektiven Kriminalitätsrate oder dem Risiko, Opfer einer Straftat zu werden. Vielmehr beeinflussen das Gefühl der eigenen Verletzbarkeit, die Wahrnehmungen im Wohnquartier und die Beziehungen zur Nachbarschaft das subjektive Sicherheitsempfinden Älterer in besonderem Maße. Für die Soziale Arbeit eröffnet sich damit ein neues Themenfeld, denn das individuelle Sicherheitsempfinden wirkt sich unweigerlich auf die eigene Lebensqualität und auf die Teilhabechancen im Alter aus. Fachkräfte der Sozialen Arbeit können dabei kriminalpräventive und fachliche Methoden kombinieren, um sozialraumorientierte und zielgruppenadäquate Maßnahmen zur Verbesserung der Sicherheitslage älterer Menschen in die Praxis zu integrieren.
Dieses Praxishandbuch verbindet kriminologisches Grundlagenwissen zur objektiven und subjektiven Sicherheit älterer Menschen mit praxisorientierten Handlungsansätzen der Sozialen Arbeit. Es richtet sich an Fachkräfte der Sozialen Arbeit, Multiplikatorinnen und Multiplikatoren im Gemeinwesen sowie Akteure der Kriminalprävention.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic tofu export opportunities to the German and US markets.
Mitarbeitermotivation in Start-Ups - Theoretischer Rahmen und praktische Handlungsempfehlungen
(2017)
Das vorliegende Paper fasst die Erkenntnisse zu Möglichkeiten der Mitarbeitermotivation in Start-Ups zusammen.
Es basiert auf der Bachelorarbeit von Herrn William Bork, die von Mai bis Juli 2017 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden die gewonnenen Erkenntnisse durch explorative Interviews mit Start-Ups ergänzt.
Der Kerninhalt dieses Papers ist sowohl das Verständnis für die Bedeutung von Arbeitsmotivation zu verdeutlichen als auch konkrete Ansätze zur positiven Beeinflussung der Arbeitsmotivation für Start-Ups aufzuzeigen.
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Online-Marketing für B2B Unternehmen zusammen.
Es basiert auf der Bachelorarbeit von Frau Lena-Marie Mikat, die von September 2017 bis Januar 2018 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden die Online-Präsenzen der 25 größten B2B-Unternehmen des Oberbergischen Kreises analysiert.
Der Kerninhalt dieses Papers ist wie B2B Unternehmen von Online-Marketing anwen-den können. Dabei liegt der Fokus auf die Websitegestaltung für B2B-Unternehmen mit Tipps zur strategischen Planung und operativen Gestaltung.
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Social Media für Start-Ups zusammen.
Es basiert auf der Bachelorarbeit von Frau Alexandra Schütz, die von Mai bis Juli 2017 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden die gewonnenen Erkenntnisse durch explorative Interviews mit Start-Ups ergänzt.
Der Kerninhalt dieses Papers ist die Anwendung von Social Media Marketing insbesondere für Start-Ups mit Tipps zur strategischen Planung und operativen Gestaltung von Social Media Beiträgen.
LA FERDINANDA (in der Mitte des Ozeans...), ein 1981 von Rebecca Horn
bemaltes Glasobjekt ist aufgrund seines Erhaltungszustandes nicht mehr
ausstellungsfähig. Aufbauend auf Untersuchungen zu künstlerischem Kontext,
verwendeten Materialien, Werkprozess und Erhaltungszustand wurde ein
Restaurierungskonzept entwickelt. Den Schwerpunkt der Arbeit stellt die
Konsolidierung des schwach gebundenen Farbauftrages auf dem Glasträger dar.
Hierfür wurden umfangreiche Versuchsreihen angelegt und bewertet. Die besten
Ergebnisse konnten mit einem Konsolidierungsmittel auf Basis des
siliciumorganischen ORMOCER-G in Mischung mit Paraloid B72 erzielt werden.
Die Applikation erfolgte mit einem Dosiergerät.
Zielsetzung dieser Abschlussarbeit ist die Eignungsprüfung nichtrelationaler Datenbanksysteme für die Erstellung einer leichtathletischen Mehrkampfdatenbank. Sie ist in fünf Kapitel aufgeteilt.
Im ersten Kapitel wird einleitend auf die Entstehung dieser Arbeit und des zugrundeliegenden Projekts eingegangen.
Im zweiten Kapitel werden die vier großen Hauptgruppen nichtrelationaler Datenbanksysteme grob auf ihre generelle Eignung für die Verwendung und Umsetzung der Mehrkampfdatenbank anhand gegebener Anforderungen bewertet und aussortiert.
Im dritten Kapitel werden die verbliebenen Hauptgruppen eingehender betrachtet und das am besten geeignet erscheinende Gruppe für eine weitergehende Betrachtung ausgewählt.
Im vierten Kapitel werden mögliche Kandidaten aus der im vorherigen Kapitel bestimmten Hauptgruppe für die tatsächliche Umsetzung bewertet. Abschließend wird ein Kandidat für die Umsetzung der Mehrkampfdatenbank bestimmt.
Im fünften Kapitel wird ein Vergleich mit einer relationalen Umsetzung der Mehrkampfdatenbank gezogen, dabei werden verschiedene Datenbankanfragen auf unterschiedlichen Datenmengen
verglichen. Außerdem einzelne Verfahrensweisen zur Abwicklung von Anfragen betrachtet.
In einem abschließenden Fazit werden die Ergebnisse und Erkenntnisse der Arbeit nochmals kurz zusammengefasst.
Carbon Sequestration under different land uses and soils in the State of Quintana Roo, Mexico
(2017)
Rising in global temperature is evidently related to atmospheric carbon dioxide (CO2) and methane (CH4) concentrations; this has become an environmental problem. The use of renewable energy, the development of eco-friendly merchandise and the enforcement of biomass management have been proposed to mitigate the issue. In the ecosphere, the pedosphere stores 1,500 to 2,500 PgC, which is four times more than the carbon stored in biomass; hence, it is very important to carry out soil carbon studies because of more long-term stability of such storage. In the study, soil carbon quantification was applied to the entire state of Quintana Roo, using a purpose oriented sampling, to observe the dynamic between land uses and soils, relating all relevant characteristics and properties of the landscape. To study the carbon content stored in soils, total carbon was estimated through loss-on-ignition, organic carbon by Walkley-Black method and inorganic carbon by calcium carbonate determination. The result portrays that the coastal dune vegetation-Arenosol (1,256 Mg C ha-1) is the combination with the highest soil carbon density, while Leptosol is the soil type with the highest storage capacity (852 MtC). Consequently, the soil carbon storage not only relates to soil properties but also associates with the surface area occupied by the specific soil type. In addition, the characteristics of the landscape play an important role in the storage of soil carbon. Due to that, soil carbon storage can be explained by biogeomorphoedaphic factors.
In dieser Arbeit werden zunächst die Werbebestimmungen (Produktplatzierung, Schleichwerbung, Sponsoring etc.) der einzelnen Gesetze dargestellt und erläutert. Anschließend werden die Videoportale, insbesondere YouTube, im deutschen Rechtssystem eingeordnet und geprüft, ob sie unter den verfassungsrechtlichen Rundfunkbegriff und/oder einfachgesetzlichen Rundfunkbegriff fallen oder nicht. Letztlich erfolgt die Prüfung der Anwendbarkeit der werberechtlichen Rahmenbedingungen des Rundfunkstaatsvertrages unter besonderer Berücksichtigung des Kriteriums der Fernsehähnlichkeit im Rahmen des § 58 Abs. 3 Rundfunkstaatsvertrages. Es wird geprüft, ob es sich bei YouTube um ein fernsehähnliches Telemediuem im Sinne des § 58 Abs. RStV handelt.
The present thesis research was focused on the assessment of hydrological drought in the Tempisque-Bebedero catchment system in Costa Rica as part of the TropiSeca project framework. The study area is in the province of Guanacaste and has an extension of 5449.94 Km2, the region is characterized by a defined wet and dry season resulting in a marked seasonality in precipitation and streamflow regime which provokes frequent periods of water deficits considered as drought.
The main objective of this research is to conduct an analysis on hydrological drought in the study area through the understanding of the behavior of hydrological cycle and its implications for the rice sector by applying different drought indices such as Standardized Precipitation Index (SPI) and Streamflow Drought Index (SDI). From the values obtained in the calculation of drought indices were studied the temporal distribution and spatial distribution based on the characterization of drought periods in terms of frequency, severity, duration, and seasonality.
For the characterization of meteorological drought in the study area an approach based on area average precipitation was implemented to calculate a regional representative SPI for each sub-basin, in contrast, hydrological drought was assessed using only two streamflow gauges data provided by the ICE from 1973 until 2003.
As result, Tempisque showed longer drought periods in comparison with Bebedero whose mean duration was lower but the number of drought events were more frequent. In terms of spatial distribution, it could be found that the upper basin experienced extreme meteorological drought periods at high time scales tied to a severe streamflow deficit probably justified by its low permeability due to geological characteristics that allow a slow movement of groundwater.
Additionally, one of the aims of this thesis was to analyze the existence of correlation between precipitation and streamflow anomalies with rice yield and, to determine the influence of ENSO in climate variability using Sea Surface Temperature indices; in this phase of the research was found that climate patterns in the catchment system exhibited a significant influence by ENSO events with a significance level of 99% (r > 0.7) showing an important dependence of meteorological drought periods presented during the period 1980-2016.
In terms of temporal behavior of rice yield anomalies was revealed moderate correlation coefficients (r < 0.4) in both watersheds due to in most of the cases the response of water deficit did not have significant impact in terms of magnitude as expected; in some periods in which drought period was present categorized as mild-drought, rice yield had a considerable decreasing compared with those in which was categorized as extreme event; these differences can be justified mostly because crop yield depends not only on weather, but also on variety of seed used and its coping capacity to periods of water scarcity, fertilizers, soil moisture, farming techniques, sowing date, temperature, irrigation, use of pesticides etc.
The results of this thesis can be used to motivate future researches in the elaboration of crop models to predict yields based on physiological processes during plant development considering water requirement to take enough measures to mitigate the effects of drought periods. Furthermore, it should be considered to implement a drought monitor system in the area as an important tool of early warning system and as an indicator for the efficient water resources management.
In den Jahren 2015 und 2016 ist im Zuge des starken Anstieges der Flüchtlingszahlen eine Debatte über digitale Medien im Zusammenhang mit Menschen auf und nach der Flucht entstanden. Hinweise darauf sind der „Digitale Flüchtlingsgipfel“, der im Jahr 2016 vom Bundesinnenministerium veranstaltet wurde, oder die Studie „Internet ist gleich mit Essen“ von Nadia Kutscher und Lisa-Marie Kreß.
Innerhalb der vorliegenden explorativen Forschungsarbeit werden aus einer sozialarbeitswissenschaftlichen Perspektive Apps als digitale Medien, die beim Integrationsprozess
von geflüchteten Menschen in Deutschland unterstützen sollen, auf einer inhaltlichen und technisch-funktionalen Ebene analysiert. Mit einer eigens entwickelten Erhebungsmethode werden die Inhalte der Apps mithilfe eines Analyserasters ausgewertet. Als Grundlage für
die Analyse dient das soziologische Modell "Integration als Sozialintegration“ von Friedrich Heckmann. Die fünf Apps „Ankommen“, „Integreat“, „Moin Refugee“, „Welcome App Germany“ und „Welcome to NRW“ wurden aufgrund der vertretenen geografischen Bereiche sowie des Spektrums der Initiatoren aus staatlichen Institutionen, „Willkommensinitiativen“
und Institutionen der Sozialen Arbeit ausgewählt.
Die Forschungsarbeit richtet ihren Blick auf die Inhalte der Apps und deren Gewichtung in Bezug auf die Integrationsdimensionen. Daraus werden Hypothesen entwickelt, wie durch
Inhalte der Apps Mechanismen entstehen, die die Integrationsprozesse zwischen Lenkung und Selbstermächtigung beeinflussen. Dabei wird kritisch reflektiert, inwieweit die Themen
der konstruierten und heterogenen Zielgruppe der geflüchteten Menschen aufgegriffen werden. Aufbauend auf den Untersuchungsergebnissen werden Schlussfolgerungen gezogen, wie Apps zu zielgruppenübergreifenden, digitalen Informationsangeboten für Leistungen und Träger der Sozialen Arbeit weiterentwickelt werden können.
Development of renewable energy projects within photovoltaic energy sector has reached unrestrainable pace in recent years and thus the investors are more vigilantly considering the further business deployment towards this sector. Underpinned with clear support from KfW Development Bank, the company MACS Energy & Water GmbH decided to facilitate future verification of credit lines towards these projects by deploying special eSaveTM software which would include technical and financial appraisals specially designed for their clients. Hereof this thesis comprises the initial phase development of this software within the MS Excel and endeavors to provide a proper guideline for the software engineers included in this task in the company. In order to simplify the explanation process this report sticks to 50 kW power plant project in Prokuplje. It is anticipated that this model would enhance, improve and expedite the feasibility analysis between the cooperatives by delivering the projections of energy yield, payback periods and sensitivity analysis of the loan conditions specified for the target country and PV projects in the same. However, besides this main task this report aims to fulfill all the other necessary prerequisites for accomplishing a good due diligence practice. Therefore the thesis places its focus to Republic of Serbia where exceptional due diligence reports were made, among which the Prokuplje project, and compiles the assessments in terms of legal, environmental and risk into one general framework for PV projects in this country. By doing so, the desktop-based model and results obtained with this user-friendly tool can lean on the full due diligence assessment and provide the reader a clear comprehensive overview of possibility to invest into this renewable energy sector in Republic of Serbia.
Keywords: PV, Due diligence, Serbia, eSaveTM, feasibility, model
Abseits von spektakulären Vergewaltigungsfällen, welche nach wie vor auf ein hohes Maß
an medialem Interesse stoßen, prägt sexualisierte Gewalt den Alltag von Frauen und Mädchen.
Trotz dessen Häufigkeit und Schwere sowie der Folgen für die Betroffenen ist nicht
nur ein Mangel an gesellschaftlicher Unterstützung zu verzeichnen, vielmehr ist ein durch
bestimmte Einstellungen und Überzeugungen verstellter Blick weit verbreitet. Diese als
„Vergewaltigungsmythen“ bezeichneten Einstellungen haben gemein, dass sie täterentlastend
und opferfeindlich wirken. Was für eine Rolle spielen Vergewaltigungsmythen in unserer
Gesellschaft, wie wirken sie sich auf die justizielle Strafverfolgung aus, und welche
Bedeutung haben sie für Betroffene?
Die vorliegende Arbeit beleuchtet die unabdingbare Notwendigkeit, mit diesen Schuldzuweisungen
zusammenhängende Reaktionen von Staat und Gesellschaft zu Vergewaltigungen
kritisch zu hinterfragen. Nahezu zwingend ergibt sich daraus die Frage nach Veränderungsmöglichkeiten.
Anhand eines Sensibilisierungstrainings, welches für Auszubildende
der Polizei entwickelt, durchgeführt und ausgewertet wird, werden diese Möglichkeiten
und Erkenntnisse diskutiert. Untersucht wird so eine mögliche Reduzierung in der
Akzeptanz von Vergewaltigungsmythen, welche Ausblick auf einen notwendigen, gesellschaftlichen
Wandel bietet.
Das Gespräch als Grundeinheit der zwischenmenschlichen Kommunikation stellt die wichtigste Methode des professionellen Handelns in der Sozialen Arbeit dar. Für den beruflichen Alltag der Soziarbeiter/innen spielt die Gesprächsform „Beratung“ eine zentrale Rolle in allen Phasen des Interventionsprozesses. Seit den 70er Jahren spielt Beratung als Forschungsgegenstand in der Linguistik sowie weiteren wissenschaftlichen Disziplinen eine wichtige Rolle. Eine detaillierte Erforschung von Besonderheiten des Beratungsgesprächs in der Sozialen Arbeit auf der Mikroebene mit Hilfe der linguistischen Forschung fand dagegen bis auf wenige Ausnahmen im englischsprachigen Raum wenig Beachtung.
In der vorliegenden Arbeit werden authentische Beratungsgespräche in der Sozialen Arbeit mit linguistischen Forschungsmethoden analysiert. Besondere Aufmerksamkeit wird dabei auf die Phase der Lösungsentwicklung und Lösungsverarbeitung mit dem Schwerpunkt auf der Erteilung von Ratschlägen gerichtet. Die Datengrundlage bilden fünf Gesprächsaufnahmen, die in unterschiedlichen Einrichtungen der Wohnungslosenhilfe gemacht wurden.
1977 prägt der deutsche Psychoanalytiker Wolfgang Schmidbauer den Begriff Helfersyndrom. In seiner Konzeption liegt die Grundproblematik des Helfersyndroms darin, dass die
Betroffenen ihre eigene Hilfsbedürftigkeit hinter einer sozial akzeptierten, starken Fassade verstecken. Indem sie permanent anderen helfen und dadurch das Gefühl bekommen, gebraucht zu werden, können sie sich ein gewisses Selbstwertgefühl aufrechterhalten. Wolfgang
Schmidbauer vertritt die Ansicht, dass das Helfersyndrom vor allem bei Beschäftigten in helfenden Berufen vorzufinden ist. Umfassende empirische Belege für seine These führt er jedoch nicht an.
Die vorliegende Arbeit beleuchtet zunächst den theoretischen Ansatz von Schmidbauer. Darauf aufbauend führt die Autorin eine Untersuchung mittels eines Fragebogens durch, in
der sie in Übereinstimmung mit Schmidbauers These der Frage nachgeht, ob Anzeichen
des Helfersyndroms häufiger bei Studierenden der Sozialen Arbeit als bei Studierenden
der Technischen Informatik festzustellen sind. Anhand dieser quantitativen Forschung
kann als Ergebnis festgehalten werden, dass zwischen den Studierenden beider Studiengänge kaum Unterschiede hinsichtlich der Merkmalsausprägung zu verzeichnen sind.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic black tea export opportunities to the German and US markets.
Intelligent use of energy is one of the keys to success for an energy revolution. To meet this challenge, smart meters are suitable tools because INTELLIGENT use of energy means not only to use efficiency technology, but also to determine load shifting potentials and use them accordingly. Especially farms with high power consumption are becoming increasingly concerned about reducing energy costs due to rising energy prices and need a systematic analysis of their operational energy flow. To find solutions for farms, the NaRoTec e.V., the TH Köln, and the Machinery Ring Höxter-Warburg have joined forces with partners and launched the project "Intelligent Energy in Agriculture", which is funded by the state of NRW in Germany. The aim of the project is to be able to give individual advice recommendations for energy optimization of agricultural holdings. This will be achieved inter alia through an operational energy audit and current measurements in different operating ranges. To achieve this, smart meters were installed in selected energy-intensive dairy and pig farms.
As part of the project, the installed smart meter information of one of the dairy Farms is used to optimize the energy consumption of the farm and increase the degree of self-sufficiency. A good way to achieve this is by taking a closer look at the cooling process of the produced milk since it is one of the most energy consuming processes on a dairy farm. In addition an installation of an ice cooling system instead of a direct cooling system enables the possibility to store self-produced energy in the form of ice and use it later on when it is needed to cool the milk. This flattens the usual energy peaks throughout the day and increases the degree of self-sufficiency. To ensure a sufficient amount of self-produced energy with solar power plants of various sizes were designed. The different sizes of the power plants are defined by the use of the gathered smart meter data is used to cover different electric loads in addition to the ice water cooling system. Afterwards the different simulated models are compared to find the best balance between energy production, investment cost and a high degree of self-sufficiency. First results show that using an ice cooling system in combination with a solar power plant improvement the degree of self-sufficiency by up to 7.8 %.
Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop
(2016)
Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt.
Intelligent use of energy is one of the keys to success for an energy revolution. To meet this challenge, smart meters are suitable tools because INTELLIGENT use of energy means not only to use efficiency technology, but also to determine load shifting potentials and use them accordingly. Especially farms with high power consumption are becoming increasingly concerned about reducing energy costs due to rising energy prices and need a systematic analysis of their operational energy flow. To find solutions for farms, the NaRoTec e.V., the TH Köln, and the Machinery Ring Höxter-Warburg have joined forces with partners and launched the project "Intelligent Energy in Agriculture", which is funded by the state of NRW. The aim of the project is to be able to give individual advice recommendations for energy optimization of agricultural holdings. This will be achieved inter alia through an operational energy audit and current measurements in different operating ranges. To achieve this, smart meters were installed in selected energy-intensive dairy and pig farms. As part of the project, the installed smart meter information about the consumption of various plants and their components were analyzed, regularities and adaptability in loading history identified, and the energy efficiency of the equipment and systems used verified (especially pumps, ventilators, feeding systems). Then recommendations were formulated to shift electricity-intensive processes to times with low electricity costs and high intrinsic power production. The resulting findings will be used as the basis for intelligent energy management in the further course of the project. Overall, efficiency streamlining measures in the field of ventilation and lighting systems, flexible dry feeding systems by decoupling power purchase and consumption, as well as energy savings and related CO2 savings were determined.
The rising worldwide energy demand leads to the depletion of fossil fuels reserves and at the same time, it increases the environmental impact caused by emissions of greenhouse gases (GHG).
Utilization of fossil fuels causes not only climate change impacts such as global warming, but also many other environmental problems such as water and soil contamination that pose potential risks to human and animal health.
Furthermore, increasing population growth leads to increased food demand and consumption. This upward trend creates competition between food and bioenergy markets. Hence, the so‐called “food or fuel” discussion is back.
Challenges to counteract deciding between food and fuel that focus on the need to produce sustainable energy, while protecting environment, are the keys to replacing fossil fuels and lowering their greenhouse gas emissions. For this purpose, a completely new strategy with a proper sustainable system to supplying world’s energy demand must be found.
The goal of the ComProSol project is the mobilization of currently unused biogenic contingents such as residual and waste material for bioenergy feedstocks. Another budding option is the reactivation of fallow land to grow energy crops and short rotation coppice for energy recovery.
In the course of Germany’s bioeconomy program, which will switch the economy from a petro-based to a bio-based society, the prioritized utilization of bio-based resources should always be the hierarchically most valuable. Food and forage production are given preference over material recycling and extracting raw materials. Another driver is the growing consciousness of environmental issues and nature conservation which limits the available cultivatable area by law. As a result, there is a supply bottleneck of economically competitive feedstock for bioenergy. In this context, the interdisciplinary project is based on the systematic interconnection of applications to create utilization cascades.
Methodical corrective measures of ComProSol focus on influencing fuel properties by preconditioning through substrate and additive compound blending, sieving and compacting, and integrating process optimization. Collaboration with other subprojects that deal with bio- or thermal-chemical conversion will provide additional impetus for developing utilization applications.
The initial work package of ComProSol, which recently started, defines the scope by dint of a regional potential feedstock cadaster in order to specify the further roadmap.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic canned tomatoes export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic coconut oil export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic/fair trade coffee export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic canned corn export opportunities to the German and US markets.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
When it comes to web applications and their dynamic content, one seemingly common trouble area is that of layouts. Frequently, web designers resort to frameworks or JavaScript-based solutions to achieve various layouts where the capabilities of Cascading Style Sheets (CSS) fall short. Although the World Wide Web Consortium (W3C) is attempting to address the demand for more robust and concise layout solutions to handle dynamic content with the recent and upcoming specifications, a generic approach to creating layouts using constraint syntax has been proposed and implementations have been created. Yet, the introduction of constraint syntax would change the CSS paradigm in a fundamental way, demanding further analysis to determine the viability of its inclusion in core web standards. This thesis focuses on one particular aspect of the introduction of constraint syntax: how intuitive constraint syntax will be for designers. To this end, an experiment is performed involving participants thinking aloud while reading code snippets. Also, cursor movements are recorded as a proxy for eye movement over the code snippets. The results indicate that, upon first-impression, constraint syntax within CSS is not intuitive for designers.
Due to the present developments of the Internet and its technical components, the skills of the web experts have to be more and more complex and specific. The Internet experts in the creative field are located distributedly around the whole world. As a result, many companies have problems to find the needed experts on site and are dependent on creative cooperations and virtual teams with the help of technical tools. The virtual working place is an important issue, particularly in modern times and the market offers more and more cooperation systems for exactly this purpose: Creative cooperation in distributed working situations. This thesis examines the approaches of creative cooperation and cooperation technologies with an analysis about existing cooperation systems with a creative context. It spans a wide range of tools. On the one hand, there are approaches which offer only straightforward solutions for single design tasks. On the other hand, there are providers which recognised the great need of creative cooperation systems and working at full speed to extend their systems. The examined areas of this work lead to a design process oriented approach with flexible frames and enough space for the creative development of every single user. The cooperation in a creative context stays in the foreground and is the base for future approaches for the web design sector.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
There is a dramatic shift in credit card fraud from the offline to the online world. Large online retailers have tried to establish countermeasures and transaction data analysis technologies to lower the rate of fraudulent transactions to a manageable amount. But as retailers will always have to make a trade-off between the performance of the transaction processing, the usability of the web shop, and the overall security of it, one can assume that e-commerce fraud will still happen in the future. Thus, retailers have to collaborate with relevant business partners on the incident to find a common ground and take coordinated (legal) actions against it.
Trying to combine the information from different stakeholders will face issues due to different wordings and data formats, competing incentives of the stakeholders to participate on information sharing, as well as possible sharing restrictions that prevent them from making the information available to a larger audience. Moreover, as some of the information might be confidential or business-critical to at least one of the parties involved, a centralized system (e.g. a service in the public cloud) can not be used.
This Master Thesis is therefore analysing how far a computer supported collaborative work system based on peer-to-peer communication and Semantic Web technologies can improve the efficiency and effectivity of e-commerce fraud investigations within an inter-institutional team.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Das Praxisprojekt ist eine Fortführung des bereits umgesetzten Informatikprojektes.
Daher wird in den nachfolgenden Kapiteln ausschließlich auf die maßgeblichen Änderungen und Erweiterungen Bezug genommen.
Der Schwerpunkt ist die Konzeption und Umsetzung eines relationalen Datenbanksystems zur Erfassung, Verwaltung und Bearbeitung von leichtathletischen Mehrkampfwettbewerben.
Die Bedienung erfolgt über eine Weboberfläche, die Mithilfe des PHP-Frameworks Laravel an das Datenbanksystem MariaDB angekoppelt ist.
Die wichtigsten Themen im Projekt sind:
• Die Umsetzung und Koordinierung des Mehrbenutzerbetriebs
• Die Umsetzung und Kontrolle der Rechteverwaltung der Benutzer
• Die Möglichkeit zur Erfassung eigener Wettkämpfe bestehend aus beliebig vielen Disziplinen inklusive individueller Formeln zur Punkteberechnung
Die ersten beiden Punkte werden in dieser Ausarbeitung auf einer allgemeinen Ebene behandelt.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit gegenüber Fairtrade- und Bio-Produkten abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse zeigen unter anderem eine Skepsis – hier insbesondere bei der Gruppe der Studierenden – gegenüber der Glaubwürdigkeit bekannter Fairtrade- und Bio-Siegel. Dabei ist das Misstrauen gegenüber den Aussagen des Bio-Siegels deutlich stärker ausgeprägt. Bezüglich der Kaufbereitschaft und dem tatsächlichen Verhalten ist das Phänomen des attitude behaviour gap zu beobachten. Die Befragten halten Fairtrade zwar für unterstützenswert, drücken ihre Einstellung aber nicht in ihrem tatsächlichen Verhalten aus. Die Befragung zeigt, dass häufig Unklarheit über die inhaltlichen Aspekte der Faitrade- und Bio-Siegel besteht. Insbesondere mehr Aufklärung (Bewusstseinsbildung) und eine größere Transparenz des Fairtrade-Systems könnten hier entgegenwirken und dazu beitragen, dass Einstellungen sich auch in tatsächlichem Handeln widerspiegeln.
The effects of global warming, the depletion of non-renewable resources, the loss of biodiversity and a growing population, has affected nature and humanity over the past decades. Unless we change course in how we produce and consume, severe consequences for life on this Planet in the future are likely to follow. Based on that background, this paper looks at one area of consumption, namely food, and analyses a particular market within this area which causes high environmental pressures, i.e. the meat market. After having laid the theoretical foundation of sustainable consumption, an overview of the problems arising in the food sector in general and the meat market in particular is given. An in-depth analysis of the consumption of meat in one country, namely Germany, follows. Germany has been chosen as an exemplary for a country showing an excessive consumption of meat. This contributes to the problems linked to the meat market. The past development of the consumption of meat is evaluated and forms the basis for predicting a possible development of meat consumption in Germany until 2025. Based on the findings, conclusions are drawn about a possible trend towards sustainable consumption in the German meat market.
Der verantwortungsvolle Konsument – Einstellungen von Wirtschafts- und Sozialwissenschaftlern
(2015)
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit in Bezug auf Fairtrade- und Bio-Produkte abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse sind in der Reihe „Forum NIL“ veröffentlicht worden. In der vorliegenden Studie sollte untersucht werden, ob Sozialwissenschaftler ein verantwortungsvolleres Konsumentenverhalten aufweisen als Wirtschaftswissenschaftler. Aus diesem Grunde, wurde die gleiche Befragung an der Fakultät für Sozialwissenschaften der TH Köln durchgeführt. Ein Vergleich der Befragungsergebnisse zeigte einerseits, dass Studierende, Mitarbeiter/innen und Professor(inn)en in den Sozialwissenschaften ein teilweise höheres Verantwortungsbewusstsein aufweisen. Dies gilt insbesondere in Bezug auf das bewusste Achten auf nachhaltige Produkte, die Zahlungsbereitschaft und den tatsächlichen Kauf von Fairtrade- und Bio-Produkten. Allerdings war auch bei den Befragten der Fakultät für Wirtschaftswissenschaften ein durchaus verantwortungsvolles Konsumentenverhalten erkennbar. Darüber hinaus konnte der generelle Vorwurf, dass sich eine Ökonomieausbildung negativ auf die Einstellung zu einem verantwortungsvollen Handeln auswirkt, anhand der Studienergebnisse nicht bestätigt werden. Vielmehr zeigte sich, dass nahezu keine Unterschiede zwischen den Antworten der Studienanfänger und Studierender höherer Semester an der Fakultät für Wirtschaftswissenschaften feststellbar waren.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic rye export opportunities to the German and US markets.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic cotton export opportunities to the German and US markets.
Studierende der Fachhochschule Köln unterscheiden sich in zunehmendem Maße in ihren sozio-kulturellen, bildungsbiografischen und kognitiven Voraussetzungen für einen hochschulischen Bildungsprozess. Lehre zeigt sich vor dem Hintergrund dieser Diversität zunehmend als Herausforderung. Ausgehend vom Ziel, studentisches Lern- und Arbeitsverhalten verstärkt auf Studienerfolg und die Gestaltung von Lehrveranstaltungen auf heterogene Zielgruppen auszurichten, wurde die Studie „Diversity Forschung“ durchgeführt, um Status quo der und Gestaltungsspielräume für Diversity-bezogene Aufmerksamkeit und Verständnis für lehr- und lernrelevante Effekte zu identifizieren. Die Studie wurde mit dem Forschungstypus Innerinstitutionelle Hochschulforschung durchgeführt.
Was kann und was sollte eine Hochschule über ihr Kerngeschäft Studium und Lehre wissen, wie kommt sie zu diesem Wissen und was fängt sie damit an? Innerinstitutionelle Hochschulforschung macht Handlungen und Prozesse im Rahmen von Studium und Lehre in den Strukturen der Hochschule transparent und kann so die institutionelle Selbstaufklärung und das Qualitätsmanagement stützen.
Gegenstand dieses Berichts sind Ansatz, Methoden und Befunde innerinstitutioneller hochschuldidaktischer Forschung an der Fachhochschule Köln. Schwerpunkt ist die Diversität der Lehrenden und Lernenden als Akteursgruppen und -gemeinschaft in Sachen Studium und Lehre. Ausgangspunkt war die Absicht, den Status lehr- und lernrelevanter Diversität zu erkennen, Gestaltungsspielräume für den Umgang mit Diversität auszuloten und Implementationen innovativer Lehrkonzepte für erfolgreiches Studieren mit einem Monitoring-Ansatz zu begleiten.
Weiterer Gegenstand des Berichts sind die Einflüsse dieser Forschung als Selbstbeobachtung auf intendierte Change-Prozesse zur Verbesserung von Studium und Lehre und die Frage, wie Selbstbeobachtungsstrategien als hochschuldidaktische Hochschulforschung weiter elaboriert werden und deren Befunde in die hochschuldidaktische Praxis und die Lehr- und Lernkultur der Fachhochschule Köln gelangen können.
Wie können in der sozialraumorientierten Kinder- und Jugendhilfe örtlich verinselte Lebenswelten berücksichtigt werden? Wie kann es Fachkräften gelingen leistungsberechtigten Menschen Teilhabechancen an bisher für sie noch nicht zugänglichen Orten zu ermöglichen? Für beide Anforderungen sind interterritoriale Kooperationen, die über das planungsräumliche Zuständigkeitsgebiet eines Sozialraumteams hinausreichen, relevant.
In diesem Buch finden sich netzwerkanalytische Forschungsergebnisse zu den Möglichkeiten und Grenzen interterritorialer Kooperationen. Aus den Forschungsergebnissen wurden Hinweise zur Gestaltung interterritorialer Hilfen für die kommunale Praxis abgeleitet.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
Erwachsenenbildungs- und Weiterbildungsprogramme begründen sich auf Zielgruppen- und Bedarfsanalysen. Es geht darum heraus zu finden, welche Zielgruppe welchen Bedarf hat, um daraufhin gezielte Angebote konzipieren zu können. Doch selbst wenn die Zielgruppe, ihre Bedürfnisse, Wünsche und Erwartungen bekannt sind und Ziele für ein Weiterbildungs-programm klar formuliert und kommuniziert wurden, bedeutet das nicht, dass diese Ziele in dieser Form von den Programmteilnehmer/innen verstanden und angenommen sowie in ihrem Arbeitsalltag umgesetzt werden. Diese Studie untersucht inwiefern die Programmziele des LehrendenCoaching-Programms der Fachhochschule Köln in den von neu berufenen Professorinnen und Professoren verfassten Lehrportfolios wieder zufinden sind.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
This paper gives an overview of the development of Fair Trade in six European countries: Austria, France, Germany, the Netherlands, Switzerland and the United Kingdom. After the description of the food retail industry and its market structures in these countries, the main European Fair Trade organizations are analyzed regarding their role within the Fair Trade system. The following part deals with the development of Fair Trade sales in general and with respect to the products coffee, tea, bananas, fruit juice and sugar. An overview of the main activities of national Fair Trade organizations, e.g. public relation activities, completes the analysis. This study shows the enormous upswing of Fair Trade during the last decade and the reasons for this development. Nevertheless, it comes to the conclusion that Fair Trade is still far away from being an essential part of the food retail industry in Europe.
The utilization of roadside-green-cuttings (grass) for anaerobic digestion increases provides an additional possible source of organic waste for use as a renewable energy source. Grass can be used as a substrate to increase biogas yield. Nevertheless, the anaerobic digestion of this kind of waste can be limited due to the fact that it could be contaminated with heavy metals, in particular from traffic emissions and industrial activity. For this reason the biogas production of grass from a busy road was assessed. Samples of roadside-grass were washed with an organosulphide, which is used for the removal of heavy metals from wastewater.
A comparison of the anaerobic digestion of washed and unwashed roadside grass was performed. Results showed that the anaerobic digestion of the unwashed grass was much more effective than the washed grass. A second experiment was carried out and co-fermentation of manure and farm-grass was prepared for anaerobic digestion. Lead was added in the concentrations 500, 1000 and 2000 mg Pb2+/kg. The results showed that the higher the lead concentration, the lower the inhibition of the biogas yield. The grass could be acting as phytoremediator for high lead concentrations. The grass could contain organic compounds, which can as-similate heavy metals.
In der vorliegenden Arbeit wurde eine HPLC-Methode mit der dazugehörigen Probenvorbereitung entwickelt, welche es ermöglicht Essigsäure und Acrylsäure in komplexen Matrizes wie Deponiesickerwasser zu bestimmen. Hauptaugenmerk lag dabei auf der Matrixreduzierung, die bei 96 % lag. Die Wiederfindung der Analyten Essigsäure und Acrylsäure liegt bei der beschriebenen Methode bei ca. 100 %.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Mit Hilfe der Inline-ATR-FTIR-Spektroskopie im mittelinfraroten (MIR) Spektralbereich lassen sich gleich mehrere Prozessparameter für Biogasanlagen in Echtzeit und ohne Probenahme verfolgen. Die gemessenen Absorptionsspektren geben simultan Aufschluss über den Gehalt an flüchtigen organischen Säuren (FOS), die alkalische Pufferkapazität (TAC) und die Ammoniumstickstoff-Konzentration (NH4-N).
Dabei können unter Verwendung intelligenter Datenanalyseverfahren, wie z.B. Partial Least Squares (PLS), Regression oder Support Vector Regression (SVR) sowie in kontrollierter Laborumgebung, Vorhersagefehler (RMSECV) von 0.372 g/l (FOS: R2=0.971), 0.336 g/l (TAC: R2=0.996) und 0.171 g/l (NH4-N: R2=0.992) im Falle der PLS, bzw. 0.386, 0.259 und 0.110 g/l für die SVR erreicht werden.
Erste Inline-Messungen in einer Biomüllvergärungsanlage zeigen, dass die erwarteten Absorptionsbanden auch im Prozessbetrieb wiedergefunden werden können. Sie unterliegen jedoch einem ausgeprägten Temperatureinfluss, der bei der Quantifizierung dieser Prozessdaten berücksichtigt werden muss. Weiterführende Untersuchungen sind notwendig, um die Inline-Tauglichkeit des Messsystems unter Beweis zu stellen.
This paper is grounded in the emerging field of web science and shall contribute to its further classification and demarcation by illustrating the current state of »web-native research methods«. It builds upon an initial arraying work of Richard Rogers, who coined the term »Digital Methods« for research with methods that were »born« in the web, and illustrated and organized them in his eponymous book in 2013. This paper attempts to develop a more appropriate illustration of the Digital Methods by following the web’s very own, hypertextual, network-like nature, in particular by construing an ontological representation on the base of the Web Ontology Language (OWL). By virtue of decomposing the book into granular information units and their subsequent reassembly into OWL entities, immediate access to the entire knowledge domain can be provided, and coherencies, interrelations and distinctions between concepts become apparent. The ontology’s structure was induced narrowly along the provided examples of research projects and subsequently clustered in topic groups, of which the three most important ones were (a) the Digital Methods as an arraying space of web-native methodology, (b) a collection of concrete applications of these Digital Methods in research projects, and (c) a hierarchical scheme of traditional sciences with a distinct interest in answering research questions with help of Digital Methods. Subsequently, the ontology was evaluated in three general dimensions: Deriving user stories and scenarios provided means to validate the utilization quality; the accuracy and reliability of the resulting structure was validated with help of a control group of web-native research projects; and process control instruments served as a validator for the ontology’s correctness. Despite the ontology itself, this paper also resulted in a first interpretation of the produced information: Statements about research practise in social science, politics and philosophy were as possible as findings about commonly applied varieties of methods. Concluding, the present paper proposes a process of ontology engineering, an evaluation of the ontology’s value, and an interpretation of the ontology’s content.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
Die Regelung heutiger, industriell genutzter Biomasse-Feuerungsanlagen erfolgt meistens über fest eingestellte Parameter. Bei Veränderungen des Brennstoffs dienen visuelle Beobachtungen der Mitarbeiter als Basis der Neueinstellung dieser Parameter. Das Ziel der Forschung besteht in der Optimierung solcher Regelungen durch den Einsatz von Kamerasystemen in Kombination mit einer automatisierten Regelung, die auf Basis von Flammenbild-Analysen funktioniert. Ein solches System wäre auch unabhängig von der Art des Brennstoffs.
In this paper a closed-loop substrate feed control for agricultural biogas plants is proposed. In this case, multi-objective nonlinear model predictive control is used to control composition and amount of substrate feed to optimise the economic feasibility of a biogas plant whilst assuring process stability. The control algorithm relies on a detailed biogas plant simulation model using the Anaerobic
Digestion Model No. 1. The optimal control problem is solved using the state-of-the-art multi-objective optimization method SMS-EGO. Control performance is evaluated by means of a set point tracking problem in a noisy environment.
Results show, that the proposed control scheme is able to keep the produced electrical energy close to a set point with an RMSE of 0.9 %, thus maintaining optimal biogas plant operation.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Der vorliegende Bericht ist ein ökonomischer Vergleich
verschiedener Varianten der Überschussschlamm
(ÜSS)-Verwertung der Sickerwasseranlage
auf der Deponie des Entsorgungszentrums Leppe
mit dem aktuellen Entsorgungsweg. Als Vergleichsparameter
werden die Jahresvollkosten herangezogen.
Der derzeitige Entsorgungsweg über die kommunale
Kläranlage wird hierbei als Basisvariante
betrachtet und mit alternativen Behandlungs- und
Verwertungsmöglichkeiten verglichen. Hierbei werden
verschiedene Varianten mit unterschiedlichen
Ausführungen der Komponenten Lagerung, Entwässerung,
Trocknung, Transport und Verbrennung
gegenübergestellt.
Messverfahren zur Erfassung der potenziellen Ökotoxizität in anaeroben und aeroben Abbauprozessen
(2014)
In der vorliegenden Ausarbeitung werden die etablierten Verfahren zur Bestimmung der Ökotoxizität erläutert, mit dem Ziel weitere Bioaktivitätsparameter zur Charakterisierung der biologischen Prozesse bei der Forschungsgemeinschaft :metabolon zu integrieren.
Die Erfassung der Toxizität beruht bei den vorgestellten Methoden auf der Messung der Lumineszenz, der Sauerstoffverbrauchsrate oder der Zellzahl. In Abhängigkeit von den Eigenschaften der Schadstoffe sowie der biologischen Betriebsbedingungen der Behandlungsstufen ist die Auswahl der bestmöglichen Methode erforderlich.
Für einen aktiven Gewässerschutz ist es sinnvoll,
Immissionen aus Kläranlagen und Kanalsystemen
in einem Gesamtkonzept zu betrachten und somit
das Abwasserabflusssystem ganzheitlich zu bewirtschaften.
Schließlich belasten diese Einleitungen
die Gewässer sowohl in hydraulischer wie auch in
stofflicher Hinsicht.
Die gewonnenen Erfahrungen aus fünfjähriger Forschungsarbeit
stellen die Grundlage für einen erfolgreichen
Technologietransfer auf weitere Kanal und
Kläranlagen-Systeme dar. Dies ist ein wesentliches
Ziel des wissenschaftlichen Netzwerkes, das
im Rahmen von :metabolon aufgebaut wird.
Online-measurement systems for agricultural and industrial AD plants – A review and practice test
(2014)
Online-measurement systems for AD plants in general are crucial to allow for detailed and comprehensive process monitoring and provide a basis for the development and practical application of process optimisation and control strategies.
Nevertheless, the online measurement of key process variables such as Volatile Fatty Acids (VFA) and Total Alkalinity (TA) has proven to be difficult due to extreme process conditions. High Total Solids (TS) concentrations and extraneous material often damage the sensors or have a strong negative impact on measurement quality and long-term behaviour.
Consequently, there is a need for new robust and accurate online-measurement systems.
The purpose of this paper is to give an overview of existing online-measurement systems, to present the current state of research and to show the results of practice tests at an agricultural and industrial AD plant. It becomes obvious that a broad variety of measurement solutions have been developed over the past few years, but that the main problem is the upscaling from lab-scale to practical application at full-scale AD plants. Results from the practice tests show that an online-measurement of pH, ORP, TS is possible.
Anaerobic Digestion of spent grains: Potential use in small-scale Biogas Digesters in Jos, Nigeria
(2014)
In order to ascertain biogas yield potential and applicability of spent grains (SG)1 in small-scale biogas production, laboratory batch fermentation was performed with various masses of dry and wet SG using sewage sludge (SS)2 and digested maize silage (DMs) 3 as inoculums. Different volumes of biogas and CH4 were measured with higher volumes observed for batch fermentation with DMs in com-parison to those produced by SS. Results from the study reveals minimum biogas yield of 118.10 L/kg
VS and maximum yields of 769.46 L/kg VS, which are indicative of the possible use of SG for domestic biogas production in Jos, Nigeria. The study established the fact that the use of both dry and wet SG results in the yield of a useful amount of biogas having 40 - 60 % CH4 content depending on the inoculum and amount of volatile solids present. Using the parameters of dry matter and volatile solids contents analysed for SG and DMs, it was estimated that a reactor volume of 6.47 m3 would be capable of meeting the daily cooking needs of rural households in Jos, Nigeria.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
Die Messung des Chemischen Sauerstoffbedarfs (CSB) im Zulauf von Kläranlagen ist von zentraler Bedeutung für die Optimierung und Regelung der Abbauprozesse der Nitrifikation und Denitrifikation. Allerdings ist die Messung des CSB bislang sehr zeitaufwändig und kostenintensiv, da 24-Stunden Mischproben im Labor nasschemisch analysiert werden müssen.
Online-Messtechnik in Form von spektroskopischen Messgeräten (10.000 ̶ 20.000 €) oder nass-chemischen Online-Analysatoren (> = 50.000 €) sind insbesondere für kleine und mittlere Kläranlagen aus Kostengründen keine Alternative.
Eine extrem kostengünstige Alternative ist der im Folgenden beschriebene Softsensor für CSB im Kläranlagenzulauf, der auf Basis von Standardmesstechnik im Zulauf von kleinen und mittleren kommunalen Kläranlagen sowie mit zusätzlicher Online-Messtechnik für Trübung sowie Ammonium- und Nitratstickstoff (NH4-N und NO3-N) die aktuelle CSB-Konzentration bestimmt. Zur Entwicklung des Softsensors werden Regressionsmethoden aus dem Bereich des Machine Learning eingesetzt. Die Ergebnisse einer Entwicklungs- und Testphase an der Kläranlage Rospe in Gummersbach zeigen, dass die Werte des Softsensors sehr gut mit den Originaldaten übereinstimmen. Die Korrelationswerte beim Vergleich mit CSB-Messungen liegen bei der Regression mit Support Vector Regression bei 0,98 mit einem RSME von 2,45 mg/l.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
This paper presents a series of flow and temperature measurements on the principal heat network of :metabolon in Lindlar, Germany. These measurements intend to show the behaviour of the system on specific production areas of :metabolon for future monitoring and optimisation purposes. Such measurements allow the analysis of the system’s heat flow through the network, which showed that losses exist, some areas. The results demonstrate successfully that the temperature and flow changes deserve more detailed and fixed monitoring in specific areas to help the user decide the optimum measuring point.
Biogas, mit geringen Konzentrationen an Methan, entsteht unter anderem bei verschiedenen industriellen Prozessen. Wegen der Umweltschädlichkeit des Methans gilt es dessen Eintrag in die Umwelt zu vermeiden.
Das Ziel des vorgestellten Projektes war die Überprüfung eines umweltfreundlichen Verfahrens zur Reduzierung des Methans durch methanotrophe Bakterien. Die einzelnen Batchversuche liefen über 15 Stunden und zeigten eine starke Reduzierung des Methans von 18 auf 1 Vol.-%.
Vorlesungsnotizen, Präsentationen, To-do-Listen – und vielleicht auch der eine oder andere Schmierzettel: Wie Studierende lernen, bleibt Dozenten oft verborgen. In Lernportfolios sammeln Studierende solche Dokumente dagegen systematisch. Davon können auch Lehrende profitieren – wenn sie ihre Kursteilnehmer gut anleiten.
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic oats export opportunities to the German and US markets.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
This paper gives a practical approach to the area of business ethics, in particular to Corporate Social Responsibility (CSR), via analyzing how the retail chain REWE shows its commitment to its social responsibilities as defined by the four-part model of CSR. As Fairtrade offers one way for fulfilling social responsibilities, in particular the ethical and philanthropic responsibilities of CSR, REWE’s participation in selling Fairtrade products is analyzed. This analysis is conducted by applying the criteria for receiving the Fairtrade Award to REWE which allows drawing conclusions about REWE’s commitment to Fairtrade. Information for this assessment is taken from publicly available sources as well as from personal communication with the Fairtrade organization TransFair. The paper further gives an indication about the match between REWE’s communication – as the selling of Fairtrade products is communicated via REWE’s sustainability program – and REWE’s action concerning social responsibility, expressed by its commitment to Fairtrade. Implementing a sustainability program is one way for companies to exercise CSR and thus the analysis conducted concerning REWE’s commitment to Fairtrade is an attempt to answer the question whether companies’ communication about their CSR efforts matches their actions.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
This study paper introduces different tools, i.e. analytical methods and visualizations, in business intelligence environments. It especially emphasizes the use of OLAP-based technologies as a tradtional kind of data analysis in contrast to as graph analysis and formal concept analysis as rather new approaches in the area of visual analytics.
Bei der Erfüllung zentraler kommunaler Aufgaben hat die Europäische Union zunehmend an politikfeldübergreifender Bedeutung gewonnen. Die Herausforderung der Kommunen besteht darin, das Prinzip der kommunalen Selbstverwaltung in der Europäischen Union durch dauerhafte Anstrengungen auf der nationalen und europäischen Ebene zu festigen und auszubauen. Der Vertrag von Lissabon hat indirekte Möglichkeiten der Einflussnahme geschaffen. Welche politischen und administrativen Strategien haben Kommunen wie die Stadt Köln bisher entwickelt, um in den Governancestrukturen des EU-Mehrebenenmodells aktiv mitzuwirken? Inwieweit führt der Vertrag von Lissabon zu Anpassungen, damit Kommunen für dieses veränderte System besser ausgestattet sind?
In einer Netzwerkanalyse wird exemplarisch eine Landkarte der Netzwerkpfade zwischen der Stadt Köln und der Europäischen Union nachgezeichnet. Daraus werden Netzwerkstrategien für Kommunen im EU-Mehrebenensystem abgeleitet.