Refine
Year of publication
Document Type
- Master's Thesis (328)
- Article (173)
- Bachelor Thesis (149)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (48)
- Working Paper (48)
- Book (30)
- Part of a Book (27)
- Other (12)
Language
- German (599)
- English (343)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (25)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (157)
- Fakultät 03 / Institut für Informationswissenschaft (105)
- Fakultät 04 / Institut für Versicherungswesen (79)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (78)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (49)
- Fakultät 10 / Advanced Media Institute (37)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (36)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Der anthropogene Klimawandel erfordert drastische Maßnahmen zur Reduzierung von Treib-hausgasemissionen, insbesondere im Verkehrssektor. Alternative Antriebe wie batterieelektri-sche Fahrzeuge sind vielversprechend, auch für den Rettungsdienst, der derzeit überwiegend Fahrzeuge mit Verbrennungsmotoren nutzt. Ein Hindernis für die Einführung von batterie-elektrischen Rettungswagen ist die begrenzte Reichweite. Ziel dieser Arbeit ist die Entwicklung einer Methodik zur Ermittlung, ob und welche konventionell betriebenen Rettungswagen unter welchen ladeinfrastrukturellen Voraussetzungen durch batterieelektrische Rettungswagen er-setzt werden können. Konkret wird untersucht, welche der neun im Ilm-Kreis stationierten Ret-tungswagen durch das Modell „WAS 500 E-Ambulanz“ ersetzt werden können und welche Ladeinfrastruktur dafür notwendig ist.
Die Analyse basiert auf Einsatzfahrtdaten der Rettungswagen im Ilm-Kreis aus dem Jahr 2022. Fehlende Daten wurden durch Imputation ergänzt. Die Methodik umfasst die Entwicklung ma-thematisch-physikalischer Modelle zur Simulation des Ladezustands der batterieelektrischen Rettungswagen unter den zwei Szenarien: „Ladeinfrastruktur nur an Rettungswachen“ und „Ladeinfrastruktur an Rettungswachen und Krankenhäusern“. Herausforderungen bestehen in den Datenlücken und der Qualität der vorhandenen Daten. Die Modellierung weist Einschrän-kungen aufgrund der Datenqualität und Vereinfachungen realer Bedingungen auf. Eine Mo-dellvalidierung war nur grundlegend möglich. Die Methodik kann auf andere Untersuchungs-gebiete übertragen werden, sofern die Parameter angepasst werden und eine ausreichende Datenqualität gewährleistet ist. Zielgruppe sind Entscheidungsträger im Rettungsdienst und bei der Fahrzeugbeschaffung.
Die Simulation zeigt, dass keiner der Rettungswagen im Ilm-Kreis einschränkungslos ersetzt werden kann. Hauptursachen sind aufeinanderfolgende Einsatzfahrten ohne ausreichende Zwischenladung und Einsätze mit Gesamtverbräuchen über der maximalen Batteriekapazität. Im Szenario „Ladeinfrastruktur nur an Rettungswachen“ liegt die Ausfallrate zwischen 1,71 % und 4,9 %, während sie im Szenario „Ladeinfrastruktur an Rettungswachen und Krankenhäu-sern“ auf 0,14 % bis 0,91 % sinkt. Unter der Voraussetzung der Einhaltung bestimmter Ein-schränkungen ist es möglich, im Rahmen des Szenarios „Ladeinfrastruktur an Rettungswa-chen und Krankenhäusern“ vier Rettungswagen durch batterieelektrische Rettungswagen zu ersetzen. Die Einschränkungen umfassen eine Anpassung der Dispositionsstrategie sowie die fortlaufende Vorhaltung konventioneller Rettungswagen an anderen Standorten. Weitere For-schung ist notwendig, um die Modellgenauigkeit zu verbessern und die genauen Auswirkun-gen angepasster Dispositionsstrategien zu untersuchen. Zukünftige Praxistests und Wirt-schaftlichkeitsanalysen sind erforderlich, um die umfassende Eignung von batterieelektrischen Rettungswagen sicherzustellen.
Problemstellung: Mit Stand Dezember 2021 wurden in Nordrhein-Westfalen rund 235.000 Menschen durch ambulante Pflegedienste versorgt. Gleichzeitig haben die vergangenen Jahre gezeigt, wie anfällig Pflegedienste gegenüber Schadensereignissen sind. Beispiele hierfür sind die Starkregenereignisse im Juli 2021, die COVID-19 Pandemie und das Winterhochwasser 2023, welche teils zum Totalausfall von Pflegediensten führten.
Zielsetzung: Ziel dieser Thesis war es zu prüfen, inwieweit die Resilienz von ambulanten Pflegediensten durch die Nutzung von Risikoanalysen gestärkt werden kann und wie sich dies in den Arbeitsalltag integrieren lässt. Weitergehend sollte daher ermittelt werden, welche Komponenten in der ambulanten Pflege als besonders kritisch zu bewerten sind. Die Frage, ob ambulante Pflege als Kritische Infrastruktur (KRITIS) zu bewerten sei, wurde basierend auf geltendem Recht analysiert. Der Betrachtungsraum wurde dabei auf die ambulanten Pflegedienste des Arbeiter-Samariter-Bundes in Nordrhein-Westfalen eingegrenzt.
Stand der Wissenschaft: Die ambulanten Pflege ist geprägt von einer hohen Arbeitsbelastung, Personalmangel und Zeitdruck bei einer gleichzeitig hohen Verantwortung. Die Leistungen werden zwischen Grundpflege (SGB XI) und Behandlungspflege (SGB V) unterschieden. Die Versorgung der Kund*innen erfolgt meist in eng getakteten Touren, bei denen ausschließlich die vorgesehenen Maßnahmen durchgeführt wird, jedoch keine Flexibilität besteht. Als relevante Forschungsprojekte in der ambulanten Pflege können AUPIK und KOPHIS angesehen werden.
Methodik: Für die Beantwortung der Forschungsfragen wurde ein mixed-methods Ansatz gewählt, welcher aus einer quantitativen Umfrage, einer Bestimmung der Kritikalität mittels mathematischer Formel und der qualitativen Umsetzung einer exemplarischen Risikoanalyse bestand. Dabei lag der Schwerpunkt auf der Anwendung der Methodik. Für die Umfrage wurden insgesamt 32 Pflegestationen des Arbeiter-Samariter-Bundes in Nordrhein-Westfalen befragt, wie sie die Auswirkungen des Ausfalles von insgesamt sieben vorgegebenen Prozessen und Anlagen bewerten. Die Ergebnisse wurden statistisch ausgewertet und die Daten in einer Formel modelliert und priorisiert. Die quantitativen Daten bildeten das Fundament für eine qualitative Durchführung der Risikoanalyse, welche anhand einer Literaturanalyse durchgeführt wurde. Die Literaturanalyse wurde anhand der Preferred reporting items for systematic reviews and meta-analyses (PRISMA) und der Erweiterung PRISMA-S durchgeführt.
Ergebnisse: Anhand der Literatur wurden zunächst strategische Schutzziele definiert, auf denen die Risikoanalyse aufbaute. Anschließend wurden die Ergebnisse der Umfrage betrachtet. Die Antwortrate der Umfrage lag bei 34,38 %. Der Ausfall der Prozesse und Anlagen wurden hinsichtlich der Schwere und des Umfangs, als auch ihrer Ersetzbarkeit bewertet. Nach erfolgter mathematischer Priorisierung konnten folgende Kritikalitäten berechnet werden: Ausfall des Zugangs zu den Kund*innen und Ausfall der Pflegestation mit einer Kritikalität >7,5 (von 10) nach 4 Stunden; Dokumentation, Medikation, Kraftstoffversorgung und Ausfall des Fuhrparks lagen nach 4 Stunden bei einer Kritikalität von <2,5.
Der Ausfall eines Großteils des Personals lag bei einer Kritikalität von 2,6 (4h). Die Kritikalität entwickelte sich in Abhängigkeit der Zeit und zeigte ab 24 Stunden eine deutliche Eskalation.
Für die weitere Betrachtung wurde von einem Überflutungsszenario nach Starkregen ausgegangen, wobei Intensität, Ausmaß und Sekundäreffekte berücksichtigt wurden. Die Verwundbarkeit resultierte dabei aus der Kritikalität in Kombination mit den zu erwarten-den Beeinträchtigungen. Das Risiko konnte nicht abschließend bestimmt werden, da Parameter wie die Exposition nicht konkret benannt werden konnten. Es erfolgte daher eine Abschätzung. Die Visualisierung des zu erwartenden Risikos wurde in einer Risikomatrix umgesetzt. Abschließend wurde beispielhaft anhand der ermittelten Daten das operationalisierte Schutzziel für Leben und Gesundheit formuliert. Es wurde außerdem festgestellt, dass das KRITIS-Dachgesetz wahrscheinlich keine Anwendung in der ambulanten Pflege finden wird. Die NIS-2-Richtlinie jedoch schon.
Diskussion: Der verwendete mixed-methods-Ansatz hat sich in seiner Anwendung bewährt und überzeugte durch die hohe Flexibilität bei gleichzeitig festem Rahmen. Aufgrund des Umfangs konnten jedoch nicht alle Bereiche ausreichend detailliert analysiert werden, sodass eine lokale Vertiefung in einzelne Bereiche stattfinden sollte. So ist es erforderlich, die erhobenen Daten aus der Umfrage durch Expert*innen-Interviews zu überprüfen und zu validieren. Auch im Bereich der Quantifizierung zeigte sich die Me-thodik zwar als wirksam, jedoch nicht ausreichend trennscharf. Inhaltlich muss zukünftig der qualitative Teil der Risikoanalyse mehr in den Fokus genommen werden – u.a. durch eine engere Eingrenzung des Betrachtungsraumes auf eine einzelne Pflegestation. Denkbar ist auch ein semi-quantitativer Ansatz zur Bestimmung des Risikos. Auch die Betrachtung von mehreren Szenarien und deren Vergleich ist für zukünftige Risikoanaly-sen zielführend und bietet einen Mehrwert hinsichtlich der Datenqualität.
Schlussfolgerungen: Schlussendlich konnten zehn Aspekte aus den Ergebnissen der Thesis herausgefiltert werden, welche die Steigerung der Resilienz in der ambulanten Pflege in Zukunft unterstützen können. (1) Die Anwendbarkeit des Leitfadens zur Risikoanalyse des BMI, 2011 hat sich bewährt und kann kontinuierlich mit verschiedenen Methoden kombiniert werden. (2) Als kritischste Komponenten der ambulanten Pflege konnten der Zugang zum/zur Kund*in und die eigene Pflegestation identifiziert werden. Kraftstoffversorgung und Dokumentation fielen hingegen deutlich weniger kritisch aus. (3) Resilienz muss als gesamtverbandliche Aufgabe gesehen werden und darf sich nicht nur auf die ambulante Pflege beschränken. Es gilt, Ressourcen effizient zu nutzen. (4) Es müssen gemeinsame Redundanzen und Netzwerke geschaffen werden, Synergieeffekte sollten genutzt werden. (5) Pflegedienste und Kund*innen müssen sich zukünftig auf Schadensereignisse besser vorbereiten. (6) Ambulante Pflege wird sich zukünftig mit Cybersicherheit beschäftigen müssen. Eine Einstufung als KRITIS ist jedoch unwahrscheinlich (7) Die Zusammenarbeit zwischen Pflegediensten und Behörden muss gestärkt werden, um voneinander profitieren zu können. (8) Die angewendete Methodik hat sich bewährt, muss jedoch insbesondere im quantitativen Bereich weiter ausgearbeitet werden. (9) Betrachtungsraum und einzelne Abschnitte müssen jedoch an lokale Gegebenheiten angepasst werden, um ihre volle Wirkung zu erzielen. (10) Es besteht ein weiterer Forschungsbedarf hinsichtlich mathematischer Modellierung und der Berücksichtigung von Kaskaden, Korrelationen und Interdependenzen.
Wasserbasierte Restaurierungsverfahren stehen im Verdacht, die Langzeitstabilität von Papieren, die optische Aufheller (engl. optical brightening agents, kurz OBAs) beinhalten, negativ zu beeinflussen. Grund dafür ist eine Farb- und Fluoreszenzveränderung, die bei Papieren mit OBAs im Bereich einer verso aufgebrachten Montierung auftreten. Es wird die These aufgestellt, dass durch das Eindringen von Wasser OBAs im Papier gelöst werden, wodurch der lichtbedingte Zerfall der Aufhellermoleküle katalysiert wird. Ziel der Masterarbeit ist es, die Eignung von etablierten wasserbasierten Restaurierungsverfahren an Papieren mit OBAs zu untersuchen. Hierfür werden drei wässrige Verfahren auf zwei Papieren mit OBAs angewendet und einer künstlichen Lichtalterung unterzogen. Da die Polarität von Wasser ausschlaggebend für das Schadensbild zu sein scheint, werden in den Testreihen ebenfalls zwei Alkohole geringerer Polarität getestet. Die Auswertung erfolgt optisch sowie quantitativ mittels digitaler Bildanalyse, Farbmessungen und Reflexionsmessungen der Probepapiere. Die Untersuchungen ergaben, dass die Farbstabilität der Papiere nach einer wässrigen Behandlung reduziert wird. Nach der Lichtalterung kommt es zu einer Verschiebung des Farbtons und Verringerung der Fluoreszenz im behandelten Areal. Als Grund dafür wird der beschleunigte Zerfall der OBAs erkannt. Das Schadensphänomen verstärkt sich mit steigender Polarität des Lösemittels und wird in seiner Intensität von der Papierzusammensetzung beeinflusst. Während die verringerte Fluoreszenz der Probepapiere bereits optisch sichtbar ist, lassen sich die Farbveränderungen ausschließlich messtechnisch dokumentieren.
Es wurde untersucht, inwiefern verschiedene wässrige Behandlungen die Dimensionen eines geprägten Reliefs auf Papier verändern. Zu diesem Zweck wurden Testreihen mit Blindprägedrucken durchgeführt. Während ein Teil der dafür angefertigten Probekörper verschiedenen wässrigen Behandlungen unterzogen wurde, blieb ein anderer Teil unbehandelt. Anschließend wurden die Dimensionen der geprägten Reliefs aus beiden Gruppen mit einem 3D-Profilometer vermessen. Bei allen behandelten Probekörpern wurden Dimensionsveränderungen festgestellt, die jedoch ohne Vergleichsbild mit dem bloßen Auge nicht wahrnehmbar sind. Die Wässerungsdauer, Wässerungszusätze, der Einsatz von Bleichmedien sowie die Grammatur des Papiers haben die Dimensionsstabilität der geprägten Reliefs kaum beeinflusst, während der zyklische Wechsel zwischen wässriger Behandlung und Trocknung und die Zusammensetzung des Papiers zu stärkeren Veränderungen führen. Auf Grundlage dieser Ergebnisse wurde eine Risikoeinschätzung und ein Behandlungskonzept für den Prägedruck Hommage à Fontana des Künstlers Günther Uecker erarbeitet.
Vertical indoor farming (VIF) with hydroponics offers a promising perspective for sustainable food production. Intelligent control of VIF system components plays a key role in reducing operating costs and increasing crop yields. Modern machine vision (MV) systems use deep learning (DL) in combination with camera systems for various tasks in agriculture, such as disease and nutrient deficiency detection, and flower and fruit identification and classification for pollination and harvesting. This study presents the applicability of MV technology with DL modelling to detect the growth stages of chilli plants using YOLOv8 networks. The influence of different bird’s-eye view and side view datasets and different YOLOv8 architectures was analysed. To generate the image data for training and testing the YOLO models, chilli plants were grown in a hydroponic environment and imaged throughout their life cycle using four camera systems. The growth stages were divided into growing, flowering, and fruiting classes. All the trained YOLOv8 models showed reliable identification of growth stages with high accuracy. The results indicate that models trained with data from both views show better generalisation. YOLO’s middle architecture achieved the best performance.
In recent times, large language models (LLMs) have made significant strides in generating computer code, blurring the lines between code created by humans and code produced by artificial intelligence (AI). As these technologies evolve rapidly, it is crucial to explore how they influence code generation, especially given the risk of misuse in areas such as higher education. The present paper explores this issue by using advanced classification techniques to differentiate between code written by humans and code generated by ChatGPT, a type of LLM. We employ a new approach that combines powerful embedding features (black-box) with supervised learning algorithms including Deep Neural Networks, Random Forests, and Extreme Gradient Boosting to achieve this differentiation with an impressive accuracy of 98%. For the successful combinations, we also examine their model calibration, showing that some of the models are extremely well calibrated. Additionally, we present white-box features and an interpretable Bayes classifier to elucidate critical differences between the code sources, enhancing the explainability and transparency of our approach. Both approaches work well, but provide at most 85–88% accuracy. Tests on a small sample of untrained humans suggest that humans do not solve the task much better than random guessing. This study is crucial in understanding and mitigating the potential risks associated with using AI in code generation, particularly in the context of higher education, software development, and competitive programming.
Purpose: To evaluate the differences between two extended depth-of-focus intraocular lenses, the Alcon IQ Vivity and the Bausch & Lomb LuxSmart and to compare them with a simple monofocal lens, the Alcon IQ, using a simulation-based approach.
Methods: A mathematical lens model was created for each lens type based on a measured surface geometry. The lens model was then used in a raytracer to calculate a refractive power map of the lens and a ray propagation image for the focal zone.
Results: The simulations confirm the enhanced depth of focus of these two lenses. There are apparent differences between the models. For the Vivity, more light is directed into the far focus in low light conditions, whereas the LuxSmart behaves more pupil independent and prioritizes intermediate vision.
Conclusions: The simulation-based approach was effective in evaluating and comparing the design aspects of these lenses. It can be positioned as a valuable third tool for lens characterization, complementing in vivo studies and in vitro measurements.
Translational Relevance: With this approach not only focusing on the resulting optical performance, but the underlying functional mechanisms, it paves the way forward for a better adaptation to the individual needs and preferences of patients.
Räumliche Expositionsanalyse von Denkmälern gegenüber Hochwassergefahren am Beispiel der Stadt Köln
(2024)
Der Schutz von Kulturgütern ist für die Bewahrung der kulturellen Identität einer Bevölkerung zu jeder Zeit unerlässlich. Auch während oder nach einer Krise infolge einer Naturgefahr ist der Kulturgutschutz somit als ein essentieller Teil der Katastrophenbewältigung anzusehen. Die vorliegende Arbeit untersucht im Rahmen einer Geoinformationssystem (GIS)-Analyse die Exposition von Denkmälern gegenüber Hochwassergefahren am Beispiel der Stadt Köln, Deutschland. Dabei werden drei potenzielle Hochwasserszenarien mit unterschiedlichen Widerkehrwahrscheinlichkeiten angenommen: HQ10-50, HQ100 und HQ500 Hochwasserereignisse. Die Art der untersuchten Denkmäler wird auf bauliche, nicht bewohn- oder begehbare Denkmäler eingegrenzt. Die Ergebnisse der Arbeit zeigen, dass im extremsten Szenario rund ein Drittel der untersuchten Denkmäler von der Hochwassergefahr betroffen sind und dabei vereinzelt bis zu 6m tief überflutet werden. Durch die gewichtete Überlagerung von Daten zur Bevölkerungsdichte und georeferenzierten Fotos der Social-Media Plattform Flickr kann die lokale Relevanz der Denkmäler in Köln als relativer Wert angegeben werden. Eine anschließende Priorisierung der Denkmäler basierend auf dem ermittelten Relevanzwert und der jeweiligen Überflutungstiefe verdeutlicht, dass auch eine Vielzahl an Denkmälern abseits der Kölner Innenstadt eine detaillierte Verwundbarkeitsanalyse in Bezug auf Hochwassergefahren und zu erwartende Schäden bedürfen. Die Erkenntnisse dieser Arbeit können sowohl für die Denkmalschutzbeauftragten der Stadt Köln, als auch für die lokalen Gefahrenabwehrbehörden von Interesse sein.
Virtualization fundamentally changes how social relations form, but its effect on network structure in collaborative teams is poorly understood. This paper compares team networks from nine government-funded projects that were conducted virtually because of the COVID-19 pandemic with 15 prepandemic projects from the same funding program. Results of our comparative analysis of 2,746 dyadic ties in 24 teams showed lower levels of network density, clustering, and structural cohesion in virtualized projects, indicating fragmented virtual teams. Furthermore, expressive networks, defined by the sharing of personal information, were affected more than instrumental networks, which revolve around the sharing of expert knowledge.
There is an urgent need to develop sustainable agricultural land use schemes. Intensive crop production has induced increased greenhouse gas emissions and enhanced nutrient and pesticide leaching to groundwater and streams. Climate change is also expected to increase drought risk as well as the frequency of extreme precipitation events in many regions. Consequently, sustainable management schemes require sound knowledge of site-specific soil water processes that explicitly take into account the interplay between soil heterogeneities and crops. In this study, we applied a principal component analysis to a set of 64 soil moisture time series from a diversified cropping field featuring seven distinct crops and two weeding management strategies. Results showed that about 97 % of the spatial and temporal variance of the data set was explained by the first five principal components. Meteorological drivers accounted for 72.3 % of the variance and 17.0 % was attributed to different seasonal behaviour of different crops. While the third (4.1 %) and fourth (2.2 %) principal components were interpreted as effects of soil texture and cropping schemes on soil moisture variance, respectively, the effect of soil depth was represented by the fifth component (1.7 %). However, neither topography nor weed control had a significant effect on soil moisture variance. Contrary to common expectations, soil and rooting pattern heterogeneity seemed not to play a major role. Findings of this study highly depend on local conditions. However, we consider the presented approach generally applicable to a large range of site conditions.
HIV Gag virus-like particles (HIV Gag VLPs) are promising HIV vaccine candidates. In the literature, they are often described as shear-sensitive particles, and authors usually recommend the operation of tangential flow filtration (TFF) gently at shear rates below 4,000 s −1 to 6,000 s −1 . This in turn poses a severe limitation to the performance of TFF-mediated concentration of VLPs, which would be substantially enhanced by working at higher shear rates. To our knowledge, studies examining the shear sensitivity of HIV Gag VLPs and providing detailed information and evidence for the fragility of these particles have not been conducted yet. Thus, we investigated the effect of high shear rates on the colloidal stability of mosaic VLPs (Mos-VLPs) as relevant examples for HIV Gag VLPs. For this purpose, Mos-VLPs were exposed to different shear rates ranging from 3,395 s −1 to 22, 365 s −1 for 2 h. The average hydrodynamic diameter (AHD) and the polydispersity index (PDI) of the associated particle size distribution were used as stability indicators and measured after the treatment and during storage through dynamic light scattering. At high shear rates, we observed an increase in both AHD and PDI during the storage of HIV Mos1.Gag VLPs (bVLP—without envelope proteins) and Mos1.Gag + Mos2S.Env VLPs (eVLP—with envelope proteins). eVLPs exhibited higher colloidal stability than bVLPs, and we discuss the potential stabilizing role of envelope proteins. We finally demonstrated that the dispersion medium also has a considerable impact on the stability of Mos-VLPs.
Angesichts der wachsenden Bedeutung verteilter Systeme, der vielfältigen Nutzung von Multimedia-Inhalten auf unterschiedlichen Geräten und der fortlaufenden Weiterentwicklung von Browsern wird die Relevanz deutlich, das Potenzial von geräteübergreifenden Browserspielen zu untersuchen. Das Ziel dieser Arbeit besteht darin, den im vorangegangenen Praxisprojekt entwickelten Prototyp des Spiels "Finalblockdown" durch einen partizipativen Prozess weiterzuentwickeln und schließlich als Open-Source-Software zu veröffentlichen. Das direkte Einbeziehen ausgewählter Testnutzer in die Weiterentwicklung des Spiels zielt darauf ab, das Spielerlebnis, die technische Leistung sowie die Benutzerfreundlichkeit umfassend und nutzerorientiert zu verbessern.
Zur Durchführung des partizipativen Prozesses wurden mehrere Fokusgruppen gebildet, die während der gesamten Entwicklung aktiv mitgewirkt und jede Iteration eingehend getestet sowie evaluiert haben. Die Testläufe waren eine Kombination aus Play-Testing und Gruppeninterviews, die zur Auswertung mitgeschnitten wurden.
Basierend auf dem dokumentierten, zusammengetragenen und eingestuften Feedback aller Gruppen wurde ein Entwicklungsplan für die jeweilige Iteration erstellt.
Der partizipative Prozess brachte signifikante Vorteile, insbesondere im Hinblick auf die Gestaltung der Benutzeroberfläche, Spielmechaniken und des Testens. Limitationen durch begrenzte Zeit und Ressourcen zeigen jedoch, dass der partizipative Ansatz zeitintensiv ist, was in der Planung berücksichtigt werden muss. Durch den Prozess wurde ein visuell und spielerisch überzeugendes Spiel entwickelt, das komplexe Programmierkonzepte wie Websockets, WebGL-Grafiken und Spatial Hashing in Vanilla JavaScript umgesetzt hat und durch eigenes Hosting veröffentlicht wurde. Trotzdem hat das System noch umfangreiches Optimierungs- und Entwicklungspotenzial, weswegen es sich gut als Open-Source-Software eignet und so über den Projektrahmen hinaus weiterentwickelt werden wird. Weiterführende Forschungen könnten sich sowohl auf prozessbezogene als auch auf technische Aspekte konzentrieren. In der Weiterentwicklung des partizipativen Prozesses könnte man analysieren, wie die Einbindung von Testnutzern in komplexe Bereiche der Entwicklung, einschließlich Systemarchitektur und Leistung, die Demokratisierung des Designs verstärken könnte. Technische Untersuchungen könnten sich darauf konzentrieren, wie Optimierungen in den Bereichen Hosting, Websockets und Kollisionserkennung zur Leistungssteigerung des Systems beitragen können.
In the contemporary era, many organizations and companies are confronted with a signif-icant surge in data volumes. This has led to the challenge of capturing, storing, managing, and analyzing terabytes of data, which are stored in diverse formats and originate from numerous internal and external sources. Furthermore, the emergence of novel applica-tions, such as trading, and artificial intelligence, has made the processing of vast amounts of data in real time an absolute necessity. These requirements exceed the processing ca-pacity of traditional on-disk database management systems, which are ill-equipped to manage this data and to provide real-time results. Therefore, data management requires new solutions to cope with the challenges of data volumes and processing data in real time. An in-memory database system (IMDB- or IMD system) is a database management system that is emerging as a solution to these challenges, with the support of other tech-nologies. IMDBs are capable of processing massive data distinctly faster than traditional database management systems. This work examines the approach of IMDBs, with a par-ticular focus on SAP HANA, and compares it with other IMDBs.
The city of Barcelona has developed the transversal project of Superblocks which combines traffic pacification with the installation of urban green and urban furniture in order to counteract rising problems of threatening air quality, noise levels, insufficient urban green and lacking public spaces. The implementation of the Superblock in Sant Antoni has revealed a reduction of motorized transport in the whole neighbourhood. This thesis aims at understanding sociological dimensions of behaviour changes and modal shifts, as well as contextualizing the transformation in the light of an ongoing paradigm shift in urban mobility. Quantitative data of traffic volumes shows the measured reduction of motorized transport in Sant Antoni. A quantitative questionnaire casts a light on modal shifts and attitudes of residents in the intervention zone. Further qualitative interviews create an in-depth understanding of individual residents and their modal changes, mobility behaviour and attitudes towards the changes. Finally, expert interviews in the field of transport planning and city administration substantiate the ongoing paradigm shift towards a more ecological, socially connected, and sustainable city.
Keywords: urban planning, urban mobility, sustainable mobility transition, evaporating transport, modal shift, behaviour change, social practice
The cleaning of aged silk fibers poses a common challenge in the conservation of textiles, since traditional cleaning techniques often yield unsatisfactory results or even harm objects. In this regard, cleaning objects with laser radiation is a promising addition to the range of available methods. Due to it being contactless, even brittle and touch-sensitive objects with disfiguring or harmful soiling could potentially be cleaned and therefore made accessible for research and presentation. Examples of treatment have sometimes shown spectacular results. Still there is some skepticism concerning the safety of this treatment for textile materials, which has been strengthened through previous 532 nm wavelength nanosecond laser cleaning studies on silk fibers. Taking these published results into account, the range of examined laser parameters has been extended in this study, from 532 nm nanosecond laser to 1064 nm nanosecond and even 800 nm femtosecond laser, reevaluating the effect of this treatment on the fibers. The physicochemical processes taking place on the silk fibers when cleaning with lasers are complex and still not fully understood. The aim of this project was therefore to bring more clarification about potential effects of those processes on the condition of silk samples treated with a set of different parameters for wavelength, pulse duration, energy density and number of pulses per spot. It also looks at the influence of the presence of soiling on the results. The analysis of potential effects was then carried out using statistical methods and advanced analytics. Scanning electron microscopy, Fourier-transform infrared spectroscopy and colorimetry technology provided the required insights to better assess the effects. Results show that laser cleaning of silk fibers, like most other conventional cleaning techniques, is not completely without risk, but knowing what the possible effects are helps making decisions on whether the benefits of the technique used justify these risks.
The focus of this paper was Jouguet detonation in an ideal gas flow in a magnetic field. A modified Hugoniot detonation equation has been obtained, taking into account the influence of the magnetic field on the detonation process and the parameters of the detonation wave. It was shown that, under the influence of a magnetic field, combustion products move away from the detonation front at supersonic speed. As the magnetic field strength increases, the speed of the detonation products also increases. A dependence has been obtained that allows us to evaluate the influence of heat release on detonation parameters.
There is a wide variety of drought indices, yet a consensus on suitable indices and temporal scales for monitoring streamflow drought remains elusive across diverse hydrological settings. Considering the growing interest in spatially distributed indices for ungauged areas, this study addresses the following questions: (i) What temporal scales of precipitation-based indices are most suitable to assess streamflow drought in catchments with different hydrological regimes? (ii) Do soil moisture indices outperform meteorological indices as proxies for streamflow drought? (iii) Are snow indices more effective than meteorological indices for assessing streamflow drought in snow-influenced catchments? To answer these questions, we examined 100 near-natural catchments in Chile with four hydrological regimes, using the standardised precipitation index (SPI), standardised precipitation evapotranspiration index (SPEI), empirical standardised soil moisture index (ESSMI), and standardised snow water equivalent index (SWEI), aggregated across various temporal scales. Cross-correlation and event coincidence analysis were applied between these indices and the standardised streamflow index at a temporal scale of 1 month (SSI-1), as representative of streamflow drought events. Our results underscore that there is not a single drought index and temporal scale best suited to characterise all streamflow droughts in Chile, and their suitability largely depends on catchment memory. Specifically, in snowmelt-driven catchments characterised by a slow streamflow response to precipitation, the SPI at accumulation periods of 12–24 months serves as the best proxy for characterising streamflow droughts, with median correlation and coincidence rates of approximately 0.70–0.75 and 0.58–0.75, respectively. In contrast, the SPI at a 3-month accumulation period is the best proxy over faster-response rainfall-driven catchments, with median coincidence rates of around 0.55. Despite soil moisture and snowpack being key variables that modulate the propagation of meteorological deficits into hydrological ones, meteorological indices are better proxies for streamflow drought. Finally, to exclude the influence of non-drought periods, we recommend using the event coincidence analysis, a method that helps assessing the suitability of meteorological, soil moisture, and/or snow drought indices as proxies for streamflow drought events.
After 50 years, there is still an ongoing debate about the Limits to Growth (LtG) study. This paper recalibrates the 2005 World3‐03 model. The input parameters are changed to better match empirical data on world development. An iterative method is used to compute and optimize different parameter sets. This improved parameter set results in a World3 simulation that shows the same overshoot and collapse mode in the coming decade as the original business as usual scenario of the LtG standard run. The main effect of the recalibration update is to raise the peaks of most variables and move them a few years into the future. The parameters with the largest relative changes are those related to industrial capital lifetime, pollution transmission delay, and urban‐industrial land development time.
Water serves for the production of pharmaceutical ingredients, intermediates and final products. Accordingly, the quality requirements are particularly high. Next to quality, sustainability of the production and climate change mitigation will play an increasingly important role. For instance, in 2015, the total global emissions of the pharma sector was significantly higher than the CO<sub>2</sub> emissions generated by the automotive sector. Thus, efforts must be made at all stages of production of pharmaceuticals to reduce the environmental impact.