Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic coconut oil export opportunities to the German and US markets.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Digital competences are describing a set of skills, which are necessary to use digital devices and tools with an adequate degree of self-determination. With the ubiquitous digitization of our lives and our society it is important for every citizen to have digital competences. Therefor, it is necessary to educate those competences in schools. As one cannot assume teachers to have enough digital competences to well educate the children of todays classes, this master thesis tries to find out: How to shape the process of teaching digital competences to adolescents in German schools, focusing on including multiple parties from diverse backgrounds into the process? At first, the current situation of teaching digital competences in German schools is analyzed by means of a literature review. After the identification of the challenges within the German system, international best practices are examined. Therefor, four countries, which have reached high scores in the International Computer and Information Literacy Study are selected. Australia, the Czech Republic, Denmark and the Republic of Korea are compared and possible chances for Germany identified. As the next step, expert interviews with divers parties, which have direct or indirect relation to the German education system, are held. The goal of the interviews is to generate ideas on how to support the education system by external help. At the end of the thesis the recommended approach of Motivating External People is presented. Several measures, such as teaching or mentoring students in a guest lecturer model; providing IT support for the hard- and software of the schools or creating Open Educational Resources as education material for the teachers are presented and possible third parties are named. As it is not possible to support the education system from the outside without education system internal persons, it is presented, what needs to change within the system to get the approach working. Therefor, not a complex and system changing approach is presented, but a combined top-down and bottom-up process to motivate external people to support.
Die vorliegende Diplomarbeit vergleicht drei didaktisch-methodische Modelle von Präsenzveranstaltungen zur Vermittlung von Informationskompetenz an Hochschulbibliotheken. Neben den etablierten Konzepten Benutzerschulung und Teaching Library analysiert sie das von der Universitätsbibliothek Kassel entwickelte innovative Modell Learning Library. Die Arbeit untersucht jeweils die lerntheoretischen Grundlagen, das Verständnis von Informationskompetenz, Ziele und Inhalte, didaktische Prinzipien und Methoden. Abschließend bewertet sie, welches Modell hinsichtlich der Förderung des Lebenslangen Lernens zukunftsträchtig ist.
The increase in greenhouse gas emissions, mainly due to the burning of fossil fuels and land use change, has led to changes in the global climate. Agriculture is one of the economic sectors most vulnerable to the impacts generated by climate change. For this reason, the challenge facing humanity today is to develop innovative solutions to address the complexity of agricultural sustainability.
On the other hand, sugarcane is one of the crops that emits the most pollutants into the atmosphere, mainly due to the burning of sugarcane before and after harvesting. Most of these atmospheric pollutants are precursors of climate change and have an impact on the health and quality of life of communities. Moreover, this agricultural practice causes the gradual deterioration of the soil, directly affecting sugarcane production. Consequently, several sugarcane-producing countries have established regulations or dispositions to eliminate this agricultural practice, and one option to eliminate it is the mechanization of harvesting. However, its implementation implies social, environmental, and economic impacts that must be analyzed systemically to avoid potential failures during the technological transition process. It is for this reason that this research, through the MICMAC method, focused on identifying the variables associated with the reduction of sugarcane burning in Campos dos Goytacazes and Tamasopo, to subsequently analyze their direct and indirect interrelationship, and, thus, determine the opportunities and limitations of each locality for the reduction of sugarcane burning.
Through this analysis, it became evident that although the technological transition is an imminent step for the sustainability of sugarcane cultivation, certain factors such as legislation, technological innovation, and the perception of the stakeholders regarding the consequences of sugarcane burning, is what defines in the study sites the speed and subsequent success of this process of change towards green harvesting.
Wärme‐ und Kältespeicher von Gebäuden beruhen auf verschiedenen Konzepten der Wärmeübertragung. Bei thermischen Hybridspeichern befindet sich das Phasen-wechselmaterial (PCM) makroverkapselt in PCM‐Objekten, die im Speicherbehälter positioniert sind und vom Wärmeträgerfluid umströmt werden. Die experimentellen Untersuchungen widmen sich den Belade‐ und Entladeeigenschaften des in Kugeln makroverkapselten PCM. Es wird gezeigt, dass die spezifische Wärmeübertragungs-leistung eines Hybridspeichers unmittelbar von der Größe der Kugeln als auch von der spezifischen Wärmeleitfähigkeit des PCM abhängt.
Die Dimensionierung von thermischen Speichern in der Gebäudetechnik bezieht sich häufig auf die Trinkwassererwärmung mit der DIN 4708. Dabei werden in der Regel die Bedarfe der Nutzer zur Auslegung herangezogen. Bekannt ist das Summenlinienverfahren und der daraus resultierende Beitrag des Wärmeerzeugers. Bei Pufferspeichern wird dagegen unter-schieden in welcher Kombination von Speicher und Wärmerzeuger dieser eingesetzt werden soll und es kommt häufig zu Größenschätzungen und Auslegungen mit Richtwerten. Daneben bieten zahlreiche Herstellern Auslegungsprogramme, die immer auf den Spitzenbedarf des Gebäudes ausgelegt sind.
In diesem Beitrag wird eine Methode vorgestellt, die den thermischen Speicher als zweiten Wärmeversorger im Gebäude betrachtet, der zusammen mit diesem die Versorgung über-nimmt. Damit wird die Speicherauslegung mit der Wärmeerzeugerleistung verknüpft. Aus-gleichend über eine bestimmte Zeitperiode (24 h) mit Phasen hohen und niedrigen Bedarfs übernehmen der Wärmeerzeuger und der Speicher gemeinsam die Versorgung. Da die Wärmeversorgung eines Gebäudes in erster Linie von der Außenlufttemperatur abhängt, wird hier ein Verfahren auf dieser Basis vorgestellt, welches eine einfache Berechnung des Wärmeinhalts eines Speichers ermöglicht.
Electronic Business
(2006)
”Es gibt nur einen Erfolg - nach seinen eigenen Vorstellungen leben zu können.“ (Christopher Morlay) Erfolgreiches Business beruht auf einem sehr einfachen Grundprinzip: Stellen Sie sich dem Konkurrenzkampf und seinen Sie einfach besser. Provokativ heißt das, dass jedes Unternehmen, dass an die Spitze will, mehr Produkte mit höherer Qualität, in größeren Stückzahlen, in kürzerer Zeit und mit besseren Serviceleistungen als die Konkurrenz anbieten muss. Dabei erzwingt der rasche technologische Fortschritt eine vorausschauende Taktik. Hier nimmt das Internet seit einigen Jahren eine Schlüsselposition ein. Durch das Internet ist eine Informationsgesellschaft entstanden, die von allen Unternehmen eine extrem hohe Flexibilität fordert. Diese Flexibilität muss für jeden Kunden nachvollziehbar und somit transparent sein. Es kann keine Frage mehr sein, ob eine Firma ins eBusiness einsteigt, sondern nur noch wann und wie. Wahrscheinlich bedarf es keiner besonderen Hervorhebung mehr, dass das Thema eBusiness keine reine Nebensache für Spezialisten sein darf. Vielmehr ist es so, dass sich die Unternehmen durch das eBusiness auf Ihre Kernkompetenzen konzentrieren können. Bevor man sich aber genauer mit dem Thema auseinandersetzen kann, muss man sich darüber klar sein, was eBusiness eigentlich ist - und was es nicht ist.
Climate change includes the change of the long-term average values and the change of the tails of probability density functions, where the extreme events are located. However, obtaining average values are more straightforward than the high temporal resolution information necessary to catch the extreme events on those tails. Such information is difficult to get in areas lacking sufficient rain stations. Thanks to the development of Satellite Precipitation Estimates with a daily resolution, this problem has been overcome, so Extreme Precipitation Indices (EPI) can be calculated for the entire Colombian territory. However, Colombia is strongly affected by the ENSO (El Niño—Southern Oscillation) phenomenon. Therefore, it is pertinent to ask if the EPI’s long-term change due to climate change is more critical than the anomalies due to climate variability induced by the warm and cold phases of ENSO (El Niño and La Niña, respectively). In this work, we built EPI annual time series at each grid-point of the selected Satellite Precipitation Estimate (CHIRPSv2) over Colombia to answer the previous question. Then, the Mann-Whitney-Wilcoxon test was used to compare the samples drawn in each case (i.e., change tests due to both long-term and climatic variability). After performing the analyses, we realized that the importance of the change depends on the region analyzed and the considered EPI. However, some general conclusions became evident: during El Niño years (La Niña), EPI’s anomaly follows the general trend of reduction -drier conditions- (increase; -wetter conditions-) observed in Colombian annual precipitation amount, but only on the Pacific, the Caribbean, and the Andean region. In the Eastern plains of Colombia (Orinoquía and Amazonian region), EPI show a certain insensitivity to change due to climatic variability. On the other hand, EPI’s long-term changes in the Pacific, the Caribbean, and the Andean region are spatially scattered. Still, long-term changes in the eastern plains have a moderate spatial consistency with statistical significance.
Diese Arbeit stellt drei Masterstudiengänge des Bereichs Library and Information Science an Hochschulen des United Kingdom vor und überprüft sie auf ihre Eignung als weiterführende Qualifikation für die Absolventen des Bachelorstudiengangs „Bibliothekswesen“ der Fachhochschule Köln. Durch Darstellung der europäischen Studienstrukturen seit Beginn des Bologna-Prozesses werden zunächst die Rahmenbedingungen für ein Auslandsstudium verdeutlicht. Als Grundlage für die spätere Beurteilung der Masterstudiengänge wird anschließend der Bachelorstudiengang „Bibliothekswesen“ unter Zuhilfenahme des Modulbuchs und der Prüfungsordnung vorgestellt und ein Profil für die Absolventen entwickelt. Nach einem allgemeinen Überblick über die Hochschulausbildung im United Kingdom und die LIS-Ausbildung im Speziellen, wird der Berufsverband Chartered Institute of Library and Information Professionals und seine Aufgabe im Bereich Akkreditierung vorgestellt. Im Hauptteil werden anhand selbsterstellter Kriterien drei Studiengänge aus England, Wales und Schottland ausgewählt und anhand der Informationen der Internetseiten der Hochschulen beschrieben. Abschließend werden die Studiengänge, ebenfalls mittels selbstgewählter Kriterien, auf ihre Eignung als weiterführende Qualifikation überprüft.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic cotton export opportunities to the German and US markets.
As Digital Twins gain more traction and their adoption in industry increases, there is a need to integrate such technology with machine learning features to enhance functionality and enable decision making tasks. This has lead to the emergence of a concept known as Digital Triplet; an enhancement of Digital Twin technology through the addition of an ’intelligent activity layer’. This is a relatively new technology in Industrie 4.0 and research efforts are geared towards exploring its applicability, development and testing of means for implementation and quick adoption. This paper presents the design and implementation of a Digital Triplet for a three-floor elevator system. It demonstrates the integration of a machine learning (ML) object detection model and the system Digital Twin. This was done to introduce an additional security feature that enabled the system to make a decision, based on objects detected and take preliminary security measures. The virtual model was designed in Siemens NX and programmed via Total Integrated Automation (TIA) portal software. The corresponding physical model was fabricated and controlled using a Programmable Logic Controller (PLC) S7 1200. A control program was developed to mimic the general operations of a typical elevator system used in a commercial building setting. Communication, between the physical and virtual models, was enabled using the OPC-Unified Architecture (OPC-UA) protocol. Object recognition using “You only look once” (YOLOV3) based machine learning algorithm was incorporated. The Digital Triplet’s functionality was tested, ensuring the virtual system duplicated actual operations of the physical counterpart through the use of sensor data. Performance testing was done to determine the impact of the ML module on the real-time functionality aspect of the system. Experiment results showed the object recognition contributed an average of 1.083s to an overall signal travel time of 1.338 s.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
The goal of the ComProSol project is the mobilization of currently unused biogenic contingents such as residual and waste material for bioenergy feedstocks. Another budding option is the reactivation of fallow land to grow energy crops and short rotation coppice for energy recovery.
In the course of Germany’s bioeconomy program, which will switch the economy from a petro-based to a bio-based society, the prioritized utilization of bio-based resources should always be the hierarchically most valuable. Food and forage production are given preference over material recycling and extracting raw materials. Another driver is the growing consciousness of environmental issues and nature conservation which limits the available cultivatable area by law. As a result, there is a supply bottleneck of economically competitive feedstock for bioenergy. In this context, the interdisciplinary project is based on the systematic interconnection of applications to create utilization cascades.
Methodical corrective measures of ComProSol focus on influencing fuel properties by preconditioning through substrate and additive compound blending, sieving and compacting, and integrating process optimization. Collaboration with other subprojects that deal with bio- or thermal-chemical conversion will provide additional impetus for developing utilization applications.
The initial work package of ComProSol, which recently started, defines the scope by dint of a regional potential feedstock cadaster in order to specify the further roadmap.
There is a dramatic shift in credit card fraud from the offline to the online world. Large online retailers have tried to establish countermeasures and transaction data analysis technologies to lower the rate of fraudulent transactions to a manageable amount. But as retailers will always have to make a trade-off between the performance of the transaction processing, the usability of the web shop, and the overall security of it, one can assume that e-commerce fraud will still happen in the future. Thus, retailers have to collaborate with relevant business partners on the incident to find a common ground and take coordinated (legal) actions against it.
Trying to combine the information from different stakeholders will face issues due to different wordings and data formats, competing incentives of the stakeholders to participate on information sharing, as well as possible sharing restrictions that prevent them from making the information available to a larger audience. Moreover, as some of the information might be confidential or business-critical to at least one of the parties involved, a centralized system (e.g. a service in the public cloud) can not be used.
This Master Thesis is therefore analysing how far a computer supported collaborative work system based on peer-to-peer communication and Semantic Web technologies can improve the efficiency and effectivity of e-commerce fraud investigations within an inter-institutional team.
Erwachsenenbildungs- und Weiterbildungsprogramme begründen sich auf Zielgruppen- und Bedarfsanalysen. Es geht darum heraus zu finden, welche Zielgruppe welchen Bedarf hat, um daraufhin gezielte Angebote konzipieren zu können. Doch selbst wenn die Zielgruppe, ihre Bedürfnisse, Wünsche und Erwartungen bekannt sind und Ziele für ein Weiterbildungs-programm klar formuliert und kommuniziert wurden, bedeutet das nicht, dass diese Ziele in dieser Form von den Programmteilnehmer/innen verstanden und angenommen sowie in ihrem Arbeitsalltag umgesetzt werden. Diese Studie untersucht inwiefern die Programmziele des LehrendenCoaching-Programms der Fachhochschule Köln in den von neu berufenen Professorinnen und Professoren verfassten Lehrportfolios wieder zufinden sind.
Sinkende Mitgliederzahlen, ein wachsendes Aufgabenspektrum und gefährlichere Einsatzlagen bedingen auch in den Feuerwehren eine Digitalisierung, um die aktiven Feuerwehrangehörigen im Einsatz zu entlasten und zu schützen.
In der vorliegenden Bachelorarbeit werden aktuelle und zukünftige Technologien auf ihre Potenziale und Gefahren als Einsatzmittel für die Feuerwehr analysiert. Neben einer Betrachtung dieser Technologien als Ursache eines Feuerwehreinsatzes werden Unterstützungsmöglichkeiten für die Feuerwehrangehörigen aufgezeigt, die aus der Nutzung fremder Technologien oder einer Eigenbeschaffung resultieren. In der Arbeit werden ausschließlich Technologien fokussiert, die als Entwicklung aus dem Internet der Dinge hervorgehen. Ziel der Arbeit ist es, die Technologien auf ihren Unterstützungscharakter zu analysieren, damit die Einsatzkräfte zielgerichtet entlastet und besser geschützt werden.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
This paper introduces a Business Cycle Indicator to compile a transparent and reliable chronology of past business cycle turning points for Germany. The Indicator is derived applying the statistical method of Principal Component Analysis, based on information from 20 economic time series. In this way, the Business Cycle Indicator grasps the development of the broader economic activity and has several advantages over a business cycle assessment based on quarterly series of Gross Domestic Product.
This paper studies the process of business cycle synchronization in the European Union and the euro area. As our baseline methodology we adopt rolling window correlation coefficients of various economic indicators, observed since 2000. Among the indicators, we distinguish between real economic indicators, like the real GDP growth and unemployment, and nominal indicators, like inflation and government budget. Given the direct implication of this kind of analysis for the common monetary policy of the European Central Bank (ECB), special attention is paid to the pattern of business cycle synchronization in the core and peripheral members of the euro area. Our analysis of quarterly data covering the first two decades of the euro area shows that there was a certain synchronization tendency in the first years of the common currency. However, the European debt crisis halted the economic integration within the European Union and—even more so—within the euro area. Since the ECB can to a large extent intervene only with “one-size-fits-all” monetary policy instruments, this renders increasingly cumbersome the conduct of stabilisation policies within the euro area.
Bei der Interaktion mit technischen und sozialen Systemen treten für Menschen mit und ohne Beeinträchtigungen Barrieren auf. Die vorliegende Arbeit befasst sich mit der Identifikation dieser Barrieren. Dabei wird der wissenschaftliche Diskurs über die Ursachen von Barrieren als ein mehrdimensionales Handlungsfeld betrachtet. Der Bezug zur Mensch-Computer-Interaktion wird hergestellt und Philosophien zur Umsetzung von Barrierefreiheit im Gestaltungsprozess werden erläutert. Es wird ein grundlegender Vergleich von Barrierefreiheit und Usability gezogen. Der objekt- und subjektbasierte Ansatz zur Identifizierung von Barrieren wird ebenfalls vorgestellt.
Die gewonnenen Erkenntnisse werden im Kontext des ehrenamtlichen Musikvereins Junges Musical Leverkusen e. V. praktisch umgesetzt. Für den Kooperationspartner wird der Service rund um ein Ticketverkaufssystem auf mögliche Barrieren untersucht. Dazu wird die Domäne analytisch dargestellt und anschließend empirisch untersucht. Es werden Interviews mit fünf Personen mit unterschiedlichen Beeinträchtigungen geführt. Aus den daraus resultierenden identifizierten Barrieren werden Gestaltungsempfehlungen abgeleitet und deren Nutzen für den:die Benutzer:in und Umsetzbarkeit für den Kooperationspartner diskutiert.
Bevor mit der Entwicklung eines interaktiven Systems begonnen werden kann, müssen mehrere Technologieentscheidungen getroffen werden. In der Web-Frontend-Entwicklung wird durch die steigende Diversität von standardisierten Technologien und Drittanbieter-Frameworks bzw. Libraries diese Entscheidung erschwert. Für den Kooperationspartner Junges Musical Leverkusen e. V. ist es besonders wichtig, langlebige Software zu entwickeln. Der ehrenamtlich-arbeitende Verein hat eine geringe Ressourcenverfügbarkeit, um Entwicklungsprojekte kontinuierlich zu pflegen. Für ein Ticketverkaufssystem soll nun eine langlebige Technologieentscheidung getroffen werden.
In dieser Arbeit wird der Web Components Standard vorgestellt und auf seine Langlebigkeit untersucht. Dazu werden Standards im Web im Allgemeinen vorgestellt. Unterschiedliche Entscheidungsorgane und Standardisierungsprozesse werden erläutert. Um eine Aussage über die Lebenszeit von Standards in Web Browsern zu treffen, wird ein Paper des Google-Chrome-Teams vorgestellt, aus dem geschlossen werden kann, dass keine allgemeingültige Vorhersage über den Zeitpunkt des Verfalls von Standards getroffen werden kann. Dennoch werden Web Standards in Abhängigkeit von ihrer Verwendung im Web, Sicherheitsproblemen und anderen Faktoren als veraltet markiert.
Der komponenten-getriebene Ansatz von Software-Entwicklung wird vorgestellt, um Web Components im Kontext der Softwareentwicklung zu verstehen. Die Spezifikationen der Webtechnologien für den Web Components Standard werden im Detail vorgestellt, um im weiteren Verlauf der Arbeit Grenzen des Standards zu erörtern. Des Weiteren wird eine Auswahl von Drittanbieter-Frameworks nach einer gekürzten Liste von Metriken verglichen. Konzepte und Prinzipien dieser Frameworks werden erläutert.
Es werden allgemeingültige Konzepte und Prinzipien vorgestellt, die das Thema der Langlebigkeit von Software adressieren. Hierzu zählen Test-Driven Development und Coding Style. Der Diskurs um diese Konzepte wird angerissen. Als Konzept für die Langlebigkeit von Web-Frontendprojekten wird die Bewegung Lean Web vorgestellt.
Es wird damit abgeschlossen, dass die Verwendung des Web Component Standard diskutiert wird. Die Konzepte aus den untersuchten Frameworks und die Prinzipien zur Erreichung einer Langlebigkeit von Software werden in die Diskussion eingebracht. Es wird überprüft, inwieweit eine Bewertung des Standards möglich ist und ob dem Kooperationspartner die Verwendung der Technologie zu empfehlen ist.
Desarrollo de Competencias para la Sustentabilidad, a través del Aprendizaje Basado en Escenarios
(2018)
La sustentabilidad, planteada como concepto y solución estratégica frente a la crisis contemporánea, supone diversos retos para la humanidad entre los que se encuentra la formación de individuos capaces de afrontar la complejidad de la problemática ambiental, así como de visualizar y desarrollar una sociedad libre, justa y en equilibrio.
Con el propósito de coadyuvar a dicho cambio, el presente trabajo se propuso investigar la contribución del Aprendizaje Basado en Escenarios al desarrollo de competencias para la sustentabilidad, tanto desde el punto de vista conceptual como práctico, diseñando un recurso educativo y realizando una prueba piloto en estudiantes de la Universidad Autónoma de San Luis Potosí. Los objetivos específicos fueron: (1) Identificar, seleccionar y formular el análisis sistémico de dos casos, uno en México y otro en Alemania, para mostrar la complejidad de la relación entre dimensiones de la sustentabilidad y los desafíos a los que se enfrentan los actores en la gestión de esta y, (2) Diseñar y probar un recurso educativo en torno a su contribución al desarrollo de las competencias de pensamiento crítico y pensamiento sistémico.
La prueba piloto del recurso educativo se realizó con un grupo multidisciplinario, integrando estudiantes de las licenciaturas: Ciencias de la Comunicación, Ciencias Ambientales y Salud, Ingeniería Agroindustrial, Psicología y Psicopedagogía.
Con base en entrevistas de valoración se llegó a la conclusión de que el aprendizaje basado en escenarios si permitió contribuir al desarrollo de competencias para la sustentabilidad. Los dos casos seleccionados: Río Rin y Río Verde resultaron eficaces al evidenciar la complejidad, así mismo, advirtieron los desafíos que resultan de la gestión de la sustentabilidad de ambos, mostrándose análogos. Por último, cabe mencionar que el desarrollo de la competencia interpersonal (diálogo y colaboración principalmente) que no estaba dentro de los objetivos de la tesis, se evidenció a partir de las entrevistas la valoración.
Abstract
Even though researchers are increasingly acknowledging the dark side of customer participation (i.e., behavioral customer engagement), particularly in professional services with high cognitive demands that cause customer participation stress (i.e., negative psychological state resulting from the customer's overextension by required customer participation efforts), insights on how firms can effectively mitigate customer participation stress remains limited. Building on transactional stress theory, we investigate whether customers can effectively cope with the expected cognitive demands of professional services. Moreover, by introducing an adapted coping construct (i.e., coping support), we examine whether employees can provide coping support to help decrease customer participation stress. The findings of a time‐lagged field study with customers of a large German bank (N = 117) suggest that customer coping before the encounter cannot mitigate the effect of anticipated cognitive demands on customer participation stress. Instead, the results of both the field study and a follow‐up experimental study (N = 218) show that a certain set of employee coping support during service encounters is crucial. While focusing on action coping support is not ideal in situations with high cognitive demands, firms should advise their professional service employees to offer emotional coping support to attenuate the unfavorable effect of cognitive demands on customer participation stress.
Traditionell verwendet die Versicherungsbranche den Ertrag bzw. die Schadenquote zur Bewertung von Vertrags- bzw. Kundenbeziehungen. Die beiden Maßzahlen sind jedoch oft nicht deutlich genug miteinander korreliert und verletzen jeweils wichtige Forderungen, die sich aus einer stringenten Bewertung unter Ertrags- und Risikogesichtspunkten ergeben. In der vorliegenden Arbeit soll eine neue Bewertungsfunktion vorgestellt werden, die einen gewichteten Ertrag, den sogenannten T-Ertrag, als Maßzahl liefert. Gewichtungsfaktor ist dabei das u. a. aus der Informationswissenschaft bekannte Tanimoto(Jaccard)-Distanzmaß. Anhand eines Anwendungsbeispiels aus der Praxis – einer umfangreichen Kundenbewertung für ein deutsches Versicherungsunternehmen – soll verdeutlicht werden, dass der T-Ertrag sowohl mit dem eigentlichen Ertrag als auch der Schadenquote deutlich korreliert ist und damit eine risikoadäquate Ertragsbewertung gewährleistet.
The Highland Plateau region, in San Luis Potosí, involves particular dynamics and needs from those presented within the rest of the state; its culture, vocation, mineral resources and territory, converge to give rise to a unique and particular region. The connectivity within the region has been decisive for its development, since two of the largest and most important national roads in go through this territory.
Despite comprehending about a half of the state's territory, this region has not managed to truly influence the state statistics neither economically nor socially; on the contrary, the employment rate has significantly decreased significantly, and also its population number.
Accordingly, this research aims to analyze the connectivity system within this region to strengthen and complement the development tools of these communities in a sustainable manner and, in this way, increase the welfare of the Highland Plateau population.
Throughout this investigation, it will be possible to understand how the location of this physical network, as well as for the use of resources for the satisfaction of the inhabitants, has been reflected in the communities within this region. Likewise, the statements made by state directors in charge of the economy, road network and social development within the region, will be studied. These statements will also be combined with a “functional grid analysis”, the connectivity between communities and their basic needs.
Linoleic acid hydroperoxides are versatile intermediates for the production of green note aroma compounds and bifunctional ω-oxo-acids. An enzyme cascade consisting of lipoxygenase, lipase and catalase was developed for one-pot synthesis of 13-hydroperoxyoctadecadienoic acid starting from safflower oil. Reaction conditions were optimized for hydroperoxidation using lipoxygenase 1 from Glycine max (LOX-1) in a solvent-free system. The addition of green surfactant Triton CG-110 improved the reaction more than two-fold and yields of >50% were obtained at linoleic acid concentrations up to 100 mM. To combine hydroperoxidation and oil hydrolysis, 12 lipases were screened for safflower oil hydrolysis under the reaction conditions optimized for LOX-1. Lipases from Candida rugosa and Pseudomonas fluorescens were able to hydrolyze safflower oil to >75% within 5 h at a pH of 8.0. In contrast to C. rugosa lipase, the enzyme from P. fluorescens did not exhibit a lag phase. Combination of P. fluorescens lipase and LOX-1 worked well upon LOX-1 dosage and a synergistic effect was observed leading to >80% of hydroperoxides. Catalase from Micrococcus lysodeikticus was used for in-situ oxygen production with continuous H2O2 dosage in the LOX-1/lipase reaction system. Foam generation was significantly reduced in the 3-enzyme cascade in comparison to the aerated reaction system. Safflower oil concentration was increased up to 300 mM linoleic acid equivalent and 13-hydroperoxides could be produced in a yield of 70 g/L and a regioselectivity of 90% within 7 h.
AbstractThe Ganges-Brahmaputra (GB) delta is one of the most disaster-prone areas in the world due to a combination of high population density and exposure to tropical cyclones, floods, salinity intrusion and other hazards. Due to the complexity of natural deltaic processes and human influence on these processes, structural solutions like embankments are inadequate on their own for effective hazard mitigation. This article examines nature-based solutions (NbSs) as a complementary or alternative approach to managing hazards in the GB delta. We investigate the potential of NbS as a complementary and sustainable method for mitigating the impacts of coastal disaster risks, mainly cyclones and flooding. Using the emerging framework of NbS principles, we evaluate three existing approaches: tidal river management, mangrove afforestation, and oyster reef cultivation, all of which are actively being used to help reduce the impacts of coastal hazards. We also identify major challenges (socioeconomic, biophysical, governance and policy) that need to be overcome to allow broader application of the existing approaches by incorporating the NbS principles. In addition to addressing GB delta-specific challenges, our findings provide more widely applicable insights into the challenges of implementing NbS in deltaic environments globally.
In this paper a closed-loop substrate feed control for agricultural biogas plants is proposed. In this case, multi-objective nonlinear model predictive control is used to control composition and amount of substrate feed to optimise the economic feasibility of a biogas plant whilst assuring process stability. The control algorithm relies on a detailed biogas plant simulation model using the Anaerobic
Digestion Model No. 1. The optimal control problem is solved using the state-of-the-art multi-objective optimization method SMS-EGO. Control performance is evaluated by means of a set point tracking problem in a noisy environment.
Results show, that the proposed control scheme is able to keep the produced electrical energy close to a set point with an RMSE of 0.9 %, thus maintaining optimal biogas plant operation.
Die Einführung des Neuen Steuerungsmodells (NSM) ist Thema in vielen Gemeinden. Die theoretischen Grundlagen der Verwaltungsreform, die hauptsächlich von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) erstellt werden, sind einfach vermittelt. Die Umsetzung der Theorie in die Praxis bringt allerdings für die meisten Gemeinden und ihre Ämter Komplikationen mit sich. Aus diesem Grund ist es sinnvoll, daß bereits neu gesteuerte Ämter ihre Erfahrungen austauschen und "Neueinsteigern" zugänglich machen. Durch das Deutsche Bibliotheksinstitut (DBI) und verschiedene bibliothekarische Fachzeitschriften findet bereits seit mehreren Jahren ein reger Austausch zwischen Bibliotheken statt. Dabei werden individuelle Erfahrungen wiedergegeben, die allerdings ohne vorher definierte Untersuchungsgegenstände und -methoden erstellt worden sind. Gegenstand dieser Arbeit ist die Entwicklung eines Untersuchungsschemas, das auf den Analyse-Instrumenten und Erkenntnissen der empirischen Strategieforschung basiert.
In Köln studierende angehende Bibliothekare und Dokumentare wurden im Januar 1998 nach dem Berufsbild "Bibliothekar" befragt. Manche Klischeevorstellungen konnten bestätigt werden, wie z.B. daß Bibliothekare den Beruf wählen, weil sie gerne lesen. Andere - wie die Sicht der Bibliothek als "Refugium" - werden derzeit abgelehnt, da der Umgang mit Menschen als hoch bewertet wird. Insgesamt zeigt sich ein eher gespaltenes Bild: Prinzip und Konturen des gegenwärtigen Wandels im Bibliothekswesen scheinen von den Studierenden zwar wahrgenommen, aber nicht durchgängig verinnerlicht worden zu sein.
Gesamtziel des Projektes LyRA war und ist es, eine Datenbank zur deutschsprachigen Lyrik aufzubauen, die als Informations- und Auskunftssystem die Zuordnung von Autor, Titel, Anfangszeile und Volltext deutschsprachiger Gedichte ermöglicht. Inhaltlich geht es um die Erfassung und Auswertung aller Anthologien, die im Kern deutschsprachige Lyrik enthalten. Technisches Arbeitsziel war zunächst die Entwicklung des Datenmodells, der Entwurf der Datenstrukturen und der Aufbau einer relationalen Datenbank, die sowohl online als auch ofline angeboten werden kann. LyRA ist also ein interdisziplinäres, in mehreren Entwicklungsstufen konzipiertes Forschungsprojekt zur deutschsprachigen Lyrik, das die Bereiche Germanistik, Informationswissenschaft und Informatik miteinander verbindet. Inhaltliche Ziele des Projektes LyRA sind: 1. Aufbau einer Informations- und Auskunftsdatenbank 2. Neue Grundlage für rezeptionsgeschichliche und -ästhetische Forschungen im Zusammenhang mit deutschsprachinger Lyrik
Untersuchungsgegenstand des Berichtes ist die Leistungsmessung in Forschungsbibliotheken am Beispiel der Fraunhofer Gesellschaft und damit eine sehr komplexe Fragestellung, die sich mit den Besonderheiten dieses bibliothekarischen Arbeitsfeldes und seiner Evaluation auseinander setzt. Während es zahlreiche Ansätze in Deutschland und auch international für die Leistungsmessung in öffentlichen und wissenschaftlichen Bibliotheken – hier meist im Sinne von Universitätsbibliotheken verstanden – gibt, ist die Sonderstellung von Forschungsbibliotheken weniger gut untersucht. Alle großen Wissenschaftsorganisationen in Deutschland besitzen unterschiedlich strukturierte Forschungsbibliotheken. Ihre Aufgabe ist es, die Forscher auf dem Weg zur Spitzenforschung in adäquater Weise zu unterstützen und zu begleiten, um so optimale Rahmenbedingungen für die „exzellente“ wissenschaftliche Arbeit zu schaffen. Dabei hat sich jedoch das Umfeld der Bibliotheken in den letzten Jahren dramatisch gewandelt. Neue Publikationswege der Verlagsbranche, sich änderndes Mediennutzungsverhalten der Kunden durch das Internet sowie eine stärker globalisierte und vernetzte Zusammenarbeit der Forscher (e-Science) stellen Bibliotheken vor neue Aufgaben und Herausforderungen. Neue Produkte und Dienstleistungen entstehen, deren Erfolg und / oder Wirkung gemessen werden sollen. Diesem Forschungsprojekt vorausgegangen ist ein umfassendes Kooperationsprojekt mit der Fraunhofer-Gesellschaft im WS 2008/9 und SS 2009 mit dem Titel „Die Forschungsbibliothek der Zukunft“. Zentrale Fragestellung des Berichtes ist die Entwicklung einer zukunftsweisenden Leistungsmessung in den Bibliotheken der Fraunhofer-Forschungsinstitute. Neben allgemeinen Kennzahlen geht es auch darum, welche Besonderheiten zu berücksichtigen sind und wo sich auch die Grenzen der Messbarkeit zeigen. Entwickelt wird ein Vorschlag, mit dem sowohl kleine, als auch große Bibliotheken ihren Beitrag zur Gesamtleistungsdarstellung des Bibliotheksbereichs liefern können, so dass ein abgestuftes Modell verschiedener Methoden in Form einer „Toolbox“ entsteht.
Wie nutzen die Kunden die Bibliothek? : Online-Kundenbefragung der Universitätsbibliothek Bochum
(2011)
Die Universitätsbibliothek Bochum (UB) hat in Zusammenarbeit mit der Fachhochschule Köln / Fakultät für Informations- und Kommunikationswissenschaften in der Zeit vom 20. Januar bis 11. März 2011 eine Online-Befragung aller Studierenden durchgeführt. Ziel der Befragung war, Erkenntnisse darüber zu gewinnen, wie die Bibliothekskunden die Lehr- und Lernplätze schon heute nutzen und in Zukunft gerne nutzen würden. Weitere Schwerpunkte waren die für die Nutzung des Lernortes Bibliothek bevor-zugten Zeiten und welche Wünsche hinsichtlich einer optimalen gewünschten räumlichen Lern- und Arbeitsumgebung bei den Kunden bestehen. Aspekte der Mediennutzung in gedruckter oder elektronischer Form sowie das Kursangebot der Bibliothek zur Informationskompetenz standen ebenso im Fokus des Interesses. Dabei stand die Frage im Vordergrund: Was wünschen die Kunden sich für die Zukunft und welche Hinweise auf strategische Handlungsfelder und Prioritäten können daraus gewonnen werden.
Im Zeitalter der Globalisierung und der die Menschen so vieler verschiedener Nationalitäten weltweit vernetzenden Kommunikationstechnik stellt sich eine Frage immer wieder: In welcher Sprache soll die mittlerweile alltägliche internationale Kommunikation stattfinden? Bedingt durch die Zahl der Sprecher fällt die Entscheidung im globalen Rahmen meist auf eine der drei führenden Weltsprachen Englisch, Spanisch oder Chinesisch. Einem Großteil der Menschen kaum bewusst ist hingegen die Tatsache, dass die „Sprachenfrage“ oft schon auf einer viel niedrigeren Ebene als der globalen gestellt werden muss. Ein eindrucksvolles Beispiel hierfür ist das Königreich Spanien, auf dessen Territorium neben seiner offiziellen Amtssprache Kastilisch sechs weitere eigenständige Sprachen existieren, von denen drei in ihrer jeweiligen Autonomen Gemeinschaft ebenfalls offiziellen Status haben. Der komplexe und zuweilen überaus konfliktreiche sprachpolitische Regelungsbedarf, der mit dem Nebeneinander von Staats- und Regionalsprache in Katalonien und dem Baskenland einhergeht, ist Thema der vorliegenden Arbeit. Nachdem zunächst ein kurzer Blick auf die Sprachpolitik im spanischen Staat in der Vergangenheit und auf Ebene der Zentralmacht geworfen wird, zeigt die vorliegende Arbeit im Anschluss auf, in welchen Bereichen Katalonien und das Baskenland die Stärkung bzw. Wiedereinführung ihrer Regionalsprachen jeweils am intensivsten gefördert und welche konkreten Maßnahmen sie zu diesem Zweck seit der Demokratisierung Spaniens ergriffen haben. Zudem werden die wichtigsten Kritikpunkte an der katalanischen Sprachpolitik dargelegt, um anhand deren extremer Züge beispielhaft auf die Probleme einer zuweilen zu entschlossenen regionalen sprachpolitischen Linie hinzudeuten.
Die vorliegende Bachelorarbeit erforscht, inwiefern sich eine Analyse des Projektes BibChatDe, eines bibliothekarischen Twitterchats, und der im Zuge dessen diskutierten Themen als Grundlage für die Konzeption bibliothekarischer Weiterbildung eignet. Nach einer Beschreibung der Funktionen von Twitter und der Eigenschaften von Twitterchats wird durch eine Analyse der Beteiligung festgestellt, dass das Projekt BibChatDe nach einem Jahr Laufzeit als Erfolg gewertet werden kann. Hinsichtlich der Nachhaltigkeit besteht Optimierungspotenzial, daher werden Handlungsoptionen zur Verbesserung der Nachhaltigkeit aufgezeigt. Nach Erläuterung der Anforderungen an Weiterbildungsinhalte und - formate werden die diskutierten Themen des BibChatDe anhand eines Kategorienschemas analysiert. Das Ergebnis zeigt, dass eine Themenanalyse nur bedingt Anhaltspunkte für die Konzeption bibliothekarischer Weiterbildung liefert. Auf Grundlage der Themenanalyse zusammen mit den Anforderungen an Weiterbildungsinhalte und -formate werden Konzepte für ein digitales Fortbildungsangebot auf Twitter und eine Präsenzveranstaltung erarbeitet.
Im Rahmen eines Forschungsaufenthaltes an der Universidad de Buenos Aires (UBA) wurde in Kooperation mit der Fakultät für Veterinärwissenschaften und dem Zentrum für Interdisziplinäre Wasserforschung (CETA) eine Befragung unter Studierenden und Mitarbeitenden (wissenschaftlichen und Verwaltungsmitarbeitern sowie Professoren) durchgeführt. Diese Befragung befasste sich inhaltlich mit Themen zur Einstellung argentinischer Konsumenten zu nachhaltigen und biologischen Lebensmitteln. Dabei spielte ebenfalls die Wahrnehmung dieser Lebensmittel anhand von Siegeln eine Rolle. Ferner wurden auch Fragen zum Bewusstsein für zertifizierte Produkte gestellt, das ein Präjudiz für ein spezifisches Einkaufsverhalten ist. Die in der Befragung genutzten Siegel erfreuen sich einer gewissen Beliebtheit, wobei sich die tatsächliche Wahrnehmung im Lebensmittelhandel davon unterscheidet und sich keine generelle Kaufbereitschaft der Konsumenten daraus ableiten lässt (siehe hierzu Terlau und Hirsch (2015) oder Padel und Foster (2005)). Interessant sind die Unterschiede zwischen männlichen und weiblichen Befragten in Bezug darauf, was ihnen bei ihren Lebensmitteln persönlich wichtig ist. Dies sind beispielsweise geschlechtsspezifische Ansichten zu Qualität und Frische beim Thema „Fleisch“. Die befragten Konsumenten sind sich hingegen weitgehend darüber einig, dass sie mit biologischen Lebensmitteln eine besondere Qualität verbinden und der Preis kein allgemeines Kaufhindernis darstellt. Dies gilt allerdings nur für Argentinien, während deutsche Konsumenten den Preis sehr wohl als kritischen Aspekt sehen. Verglichen mit dem Preisniveau für konventionelle Produkte ergibt sich jedoch für Konsumenten beider Länder eine ähnliche zusätzliche Zahlungsbereitschaft gegenüber einem konventionellen Produkt, sofern Lebensmittel ein entsprechendes Siegel tragen.
Das steigende Angebot an Datenbanken im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBV-Suchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
Obwohl innerhalb des neueren Professionalisierungsdiskurses der Sozialen Arbeit zunehmend das Wissen und Können von Berufspraktiker*innen in der Praxis fokussiert wird, ist das Professionswissen der Sozialen Arbeit ein bislang nur sehr gering beforschtes Feld. Zentral wird hierbei im Diskurs stets thematisiert und diskutiert, welches Wissen professionell handelnde Sozialarbeitende in der Praxis benötigen, wie sich dieses strukturiert und welche Relevanz dabei dem wissenschaftlich fundierten Wissen zukommt. In dieser Bachelorthesis soll daran anknüpfend aufgezeigt werden, wie das Wissen zu den Zusammenhängen zwischen Substanzabhängigkeit, Fluchtmigration und Integrationsprozessen im Aufnahmeland bei Sozialarbeitenden des noch recht jungen Handlungsfeldes substanzabhängiger Geflüchteter in der niedrigschwelligen Suchthilfe verhandelt sowie strukturiert und genutzt wird. Dabei soll ebenfalls untersucht werden, wie die Wissensinhalte Einzug in die Praxis erhalten und welchen Veränderungen sie dort im Arbeitsalltag unterliegen. Hierzu wurden Leitfadeninterviews mit Sozialarbeitenden geführt, welche in verschiedenen Einrichtungen innerhalb der niedrigschwelligen Suchthilfe tätig sind. Eine zentrale Erkenntnis dieser Thesis stellt dabei dar, dass die Sozialarbeitenden grundsätzlich über ausreichendes theoretisches Rahmenwissen verfügen und versuchen dieses in den Praxisalltag zu integrieren, die Gegebenheiten innerhalb eines Handlungsfeldes in verschiedenen Einrichtungen beziehungsweise Städten jedoch ebenso wie die Erfahrungen und Formen der Berührungspunkte mit der Klientel so unterschiedlich ausfallen können, dass theoretisches Wissenschaftswissen nie vollständig auf einen konkreten Einzelfall bezogen werden kann, sondern immer als Hintergrundwissen im oftmals erfahrungsgeleiteten Handeln mitschwingt, was zwangsläufig einer kontinuierlichen Reflexion mit den Grenzen des eigenen Wissens bedarf. Wie dies konkret innerhalb der niedrigschwelligen Suchthilfe im Kontakt mit geflüchteten substanzabhängigen Menschen geschieht, wird innerhalb dieser Thesis abgebildet.
Messverfahren zur Erfassung der potenziellen Ökotoxizität in anaeroben und aeroben Abbauprozessen
(2014)
In der vorliegenden Ausarbeitung werden die etablierten Verfahren zur Bestimmung der Ökotoxizität erläutert, mit dem Ziel weitere Bioaktivitätsparameter zur Charakterisierung der biologischen Prozesse bei der Forschungsgemeinschaft :metabolon zu integrieren.
Die Erfassung der Toxizität beruht bei den vorgestellten Methoden auf der Messung der Lumineszenz, der Sauerstoffverbrauchsrate oder der Zellzahl. In Abhängigkeit von den Eigenschaften der Schadstoffe sowie der biologischen Betriebsbedingungen der Behandlungsstufen ist die Auswahl der bestmöglichen Methode erforderlich.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Unsere heutige Gesellschaft und Wirtschaft sind geprägt von ständiger Veränderung. Ein besonderer Wandel findet vor allem in der Arbeitswelt statt. Es herrscht ein erhöhtes Bedürfnis nach Selbstverwirklichung. Gleichzeitig müssen sich die Unternehmen immer schneller an die sich verändernden Prozesse der zunehmend global ausgerichteten Wirtschaft anpassen. Daraus ergeben sich Flexibilisierungsprozesse, die in der Entstehung neuartiger Berufe, Beschäftigungsmodelle und neuen Formen der Zusammenarbeit resultieren. Ein Phänomen, das sich dabei herausgebildet hat, ist das des „Coworking“ und der „Coworking Spaces“. Ein relativ neues Arbeitssystem, das es Wissensarbeiter ermöglicht, weitgehend voneinander unabhängig und trotzdem gemeinsam an einem institutionalisierten Ort zu arbeiten. Mittlerweile hat sich dieses Modell zu einer globalen Bewegung formiert. Dadurch bildet der Aspekt der internationalen Vernetzung der Coworking Spaces und deren Nutzern den Schwerpunkt dieser Arbeit. Der internationale Gesichtspunkt ist aus verschiedenen Gründen von besonderem Interesse. Zum einen befinden wir uns gegenwärtig durch die fortschreitende Globalisierung und die hohe technologische Entwicklung in einer Welt, die auf fast allen Ebenen miteinander verknüpft ist. Zum anderen ist das Thema Netzwerken ebenfalls ein wichtiger Grundwert des Coworking-Konzepts. Somit befasst sich die vorliegende Arbeit mit der folgenden Fragestellung: Inwiefern besteht unter Coworking Spaces und deren Nutzern Interesse an der internationalen Vernetzung und welche Möglichkeiten wurden dahingehend im Zuge der globalen Coworking-Bewegung entwickelt?
In this paper we describe traffic sign recognition with neural networks in the frequency domain. Traffic signs exist in all countries to regulate the traffic of vehicles and pedestrians. Each country has its own set of traffic signs that are more or less similar. They consist of a set of abstract forms, symbols, numbers and letters, which are combined into different signs. Automatic traffic sign recognition is important for driver assistance systems and for autonomous driving. Traffic sign recognition is a subtype of image recognition. The traffic signs are usually recorded by a camera and must be recognized in real time, i.e. assigned to a class. We use neural networks for traffic sign recognition. The special feature of our method is that the traffic sign recognition does not take place in the spatial domain but in the frequency domain. This has advantages because it is possible to significantly reduce the number of neurons and thus the computing effort of the neural network compared to a conventional neural network.
Zielsetzung dieser Abschlussarbeit ist die Eignungsprüfung nichtrelationaler Datenbanksysteme für die Erstellung einer leichtathletischen Mehrkampfdatenbank. Sie ist in fünf Kapitel aufgeteilt.
Im ersten Kapitel wird einleitend auf die Entstehung dieser Arbeit und des zugrundeliegenden Projekts eingegangen.
Im zweiten Kapitel werden die vier großen Hauptgruppen nichtrelationaler Datenbanksysteme grob auf ihre generelle Eignung für die Verwendung und Umsetzung der Mehrkampfdatenbank anhand gegebener Anforderungen bewertet und aussortiert.
Im dritten Kapitel werden die verbliebenen Hauptgruppen eingehender betrachtet und das am besten geeignet erscheinende Gruppe für eine weitergehende Betrachtung ausgewählt.
Im vierten Kapitel werden mögliche Kandidaten aus der im vorherigen Kapitel bestimmten Hauptgruppe für die tatsächliche Umsetzung bewertet. Abschließend wird ein Kandidat für die Umsetzung der Mehrkampfdatenbank bestimmt.
Im fünften Kapitel wird ein Vergleich mit einer relationalen Umsetzung der Mehrkampfdatenbank gezogen, dabei werden verschiedene Datenbankanfragen auf unterschiedlichen Datenmengen
verglichen. Außerdem einzelne Verfahrensweisen zur Abwicklung von Anfragen betrachtet.
In einem abschließenden Fazit werden die Ergebnisse und Erkenntnisse der Arbeit nochmals kurz zusammengefasst.
Das Praxisprojekt ist eine Fortführung des bereits umgesetzten Informatikprojektes.
Daher wird in den nachfolgenden Kapiteln ausschließlich auf die maßgeblichen Änderungen und Erweiterungen Bezug genommen.
Der Schwerpunkt ist die Konzeption und Umsetzung eines relationalen Datenbanksystems zur Erfassung, Verwaltung und Bearbeitung von leichtathletischen Mehrkampfwettbewerben.
Die Bedienung erfolgt über eine Weboberfläche, die Mithilfe des PHP-Frameworks Laravel an das Datenbanksystem MariaDB angekoppelt ist.
Die wichtigsten Themen im Projekt sind:
• Die Umsetzung und Koordinierung des Mehrbenutzerbetriebs
• Die Umsetzung und Kontrolle der Rechteverwaltung der Benutzer
• Die Möglichkeit zur Erfassung eigener Wettkämpfe bestehend aus beliebig vielen Disziplinen inklusive individueller Formeln zur Punkteberechnung
Die ersten beiden Punkte werden in dieser Ausarbeitung auf einer allgemeinen Ebene behandelt.