Refine
Year of publication
Document Type
- Master's Thesis (323) (remove)
Has Fulltext
- yes (323) (remove)
Keywords
- Deutschland (15)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Semantic Web (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- Data-Warehouse-Konzept (5)
Faculty
- Fakultät 10 / Institut für Informatik (98)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (50)
- Fakultät 07 / Institut für Medien- und Phototechnik (39)
- Fakultät 10 / Advanced Media Institute (22)
- Fakultät 07 / Institut für Nachrichtentechnik (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Digitale Medien sind fester Bestandteil der Lebenswelten von Kindern und Jugendlichen. Sie wachsen in eine Medienwelt hinein, in der digitale Technologien allgegenwärtig und selbstverständlich sind. Junge Menschen gelten daher als Digital Natives („Digitale Einge-borene“). Dennoch brauchen sie pädagogische Unterstützung, um souverän mit Medien umgehen zu können. Denn die informell erworbenen Fähigkeiten sind oft nicht ausrei-chend, um als kompetentes Medienhandeln gelten zu können. Dabei lässt sich gerade für die Adressat*innen der stationären Erziehungshilfe ein deutlicher Mehrbedarf in der Ausbil-dung von Medienkompetenz ausmachen, da für sie keine angemessene Medienerziehung in der Herkunftsfamilie vorausgesetzt werden darf. Doch in der stationären Kinder- und Jugendhilfe sind digitale Medien und Medienerziehung bisher eher vernachlässigte Themen.
Mithilfe einer quantitativen Befragung von knapp 200 Fachkräften zur Praxis der Medien-ziehung in Einrichtungen der stationären Erziehungshilfe in Deutschland wird dieses bisher wenig erforschte Feld genauer beleuchtet. Im Fokus stehen dabei die eigene Medienkom-petenz, medienbezogene Einstellungen, Qualifikation und Fortbildungsengagement der Fachkräfte sowie die Rahmenbedingungen der Einrichtung und medienerzieherischen Tä-tigkeiten im Arbeitsalltag. Wie die Analyse zeigt, erkennen die meisten Fachkräfte die Be-deutung der Medienerziehung in stationären Hilfen durchaus an, es besteht jedoch ein ho-her Informations- und Fortbildungsbedarf der Fachkräfte rund um medienpädagogische Themen. Denn nur etwa die Hälfte der Befragten hat im Rahmen ihrer beruflichen Ausbil-dung medienpädagogisches Wissen erworben; ein Großteil hat zudem keine entsprechen-den Fortbildungen absolviert. Fehlende medienpädagogische Konzepte sowie die häufig mangelhafte und veraltete technische Ausstattung in den Einrichtungen erschweren die medienerzieherische Praxis der Fachkräfte zusätzlich.
Illegal Gold mining and water quality. A case study of River Offin in the Central Region of Ghana
(2018)
Ghana as a country in the west of Africa is naturally endowed with many rich natural resources some of which includes; Gold, diamond, bauxite, manganese, cocoa, etc. Currently, it’s the second leading producer of gold production in Africa after South Africa. Gold production has produced a lot of benefits to the nation but at the same time contributed to many negativities ranging from pollution (water and air), land degradation, ethnic conflicts and deforestation. Industrial gold mining itself was never a big issue that caused any panic in the country till illegal gold miners “Galamseyers” also commenced operating. The sole objectives of this research were to determine the level of some specific heavy metal (Mercury, Lead, Arsenic and Zinc) concentrations within the Offin River in Dunkwa-on-Offin, Buabenso, Ayanfuri and Nkotumso. Results after the research revealed that, Ayanfuri recorded the highest level of concentrations. Nkotumso followed in that order before Buabenso with Dunkwa-on-Offin recording the least concentrations. It also became clear later that, even though the degree of intensiveness of the illegal mining “Galamsey” operations could have been a main factor for the increased concentrations, another finding was that, towns or communities that recorded higher concentrations throughout the study also showed to be towns that made use of inorganic fertilizers on its farms. The Minerals and mining Act 2006 of Ghana was then analyzed and conclusion was that, though the country has very strong policies regarding illegal mining termed “Galamsey”, there seemed to be institutional loop holes that have not been strong enough to combat illegal mining in the country. In recommending policy directives to improve the river quality, six (6) institutions including the Ministry of Lands and Natural Resources, Ministry of Environment, Science and Technology(MEST), Minerals Commission of Ghana, Environmental Protection Agency, Forestry Commission and the water Resources Commission were identified with detailed recommended roles clearly spelt out for each institution.
Ghana’s timber industries have traditionally focussed on certifying international demand (exports) to the detriment of domestic wood consumption. The legal wood supply to the domestic market has become insufficient to satisfy the growing needs of the local population. This research aims at gaining greater insight into the sources of wood supply to Ghana’s domestic wood markets focusing on the contribution of legal wood by the mainstream timber companies.
The study used random and purposive sampling techniques for selecting the respondents in the domestic wood market, wood producers as well as consumers. Additionally, the views of the respondents were sought through well semi-structured questionnaires. On the other hand, views from key informants, mostly experts, and regulators in Ghana’s wood industry were solicited through interviews.
The result indicates that the formal timber processors supply 73% of their processed lumber to the export market and 27% to the domestic market. The destination of the 27% is both the domestic market and other lumber demanded sectors especially large scale construction and furniture companies. The carving industry on other hand obtains wood directly from the farmers and not necessary from the domestic wood market. At the domestic timber market, dealers receive lumber supply from both formal (16. 7%) and informal (83.3%) sources.
The domestic wood sector provides livelihood support to both wood dealers, consumers as well as artisans. About 70% of respondents (wood dealers) used in the survey have no other source of livelihood for existence except wood business.
Owing to the immense contribution of the domestic wood market to the country’s economy and developmental agenda, a calls for policy review especially 20% supply of formal processed lumber to the domestic market is timely. Additionally, looking at the various interventions to curtail illegal chain saw and the continued market demand, the study believes more regulated measures will better help the nation to grasped huge revenue lost as a result of illegalities to embark on vigorous afforestation programs to sustain the domestic wood market.
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Die vorliegende Diplomarbeit beschäftigt sich mit Senioren in Öffentlichen Bibliotheken und liefert Konzepte für eine zielgruppenspezifische Bibliotheksarbeit. Dabei werden zunächst Begrifflichkeiten geklärt und die physischen und gesellschaftlichen Besonderheiten der Zielgruppe sowie die daraus resultierenden Voraussetzungen für Bibliotheken untersucht. Anschließend werden Empfehlungen für den Bestandsaufbau gegeben und verschiedene Veranstaltungsformen und Aktionen speziell für Senioren vorgestellt. Außerdem wird sowohl auf die aktive Medienvermittlung an heim- oder hausgebundene ältere Menschen eingegangen als auch auf effektive Möglichkeiten der Öffentlichkeitsarbeit und Werbung. Ferner werden Senioren als freiwillige Mitarbeiter in Bibliotheken berücksichtigt. Am Beispiel der Stadtbibliothek Eisenach wird dann die Umsetzung unterschiedlicher Angebote für die besagte Zielgruppe und die Resonanz der Benutzer darauf dargestellt. Abschließend wird ein Ausblick auf die Entwicklung der Zielgruppenorientierung auf Senioren gegeben.
Zusammenfassung
Ansatz der vorliegenden Arbeit ist es, mit Blick auf den in einer großen Variationsbreite existierenden Brauprozess in Brauereien mit unterschiedlichster jährlicher Produktionsmenge und technologischem Stand, die wesentlichen charakteristischen Teilprozessschritte hinsichtlich Ihrer Bedarfe an den thermischen Energieformen Wärme und Kälte, unter Berücksichtigung der jeweils in den Teilprozessen herrschenden Temperaturniveaus, darzustellen. Dies ist in Kapitel 2 sowohl für die in Trocknungsprozessen vorbehandelten feststofflichen Braukomponente Gerstenmalz und Hopfen, sowie für die mit dem Beginn der Erwärmung von frischem Brauwasser startenden Prozesse des Einmaischens, Läuterns, Kochens, Gärens bis hin zur Reifung des Jungbieres, erfolgt. Zunächst wurde das jeweilige Temperaturniveau der einzelnen Phasen des Brauvorgangs, trotz seiner unterschiedlichen verfahrenstechnischen Realisierung, abgesteckt. In Kapitel 5 wird der rein für den Prozess notwendige Wärme- und Kältebedarf, auf der Basis der wesentlichen Zustandsänderungen des entstehenden Produktes, bestimmt. Dabei liegt bei jedem Prozessschritt entweder ein Wärme- oder ein Kältebedarf vor. Die Teilprozesse bilden eine zeitliche Abfolge innerhalb des Brauprozesses, welche die Vorstufen des Bieres nacheinander durchläuft. Die in den Kapiteln 3 zum Thema Kälte und in Kapitel 4 zum Thema Wärme dargestellten Grundlagen, liefern die Grundlagen für das Verständnis, des Verhaltens eines Systems im Umfeld von thermischer Energie und bilden die thermodynamischen Kenntnisse, die für die Beurteilung des Transportes, der Erzeugung und der Speicherung von Wärme und Kälte ergeben. Die Wärme und Kältebedarfe in ihrer zeitlichen Abfolge ermöglichen uns unabhängig von gängigen technischen Realisierungen in der Praxis noch einmal in Kapitel 6 die Frage zu stellen, in wie weit zunächst für jeden einzelnen Teilprozess Energieeffizienzverbesserungen durch Eingriff in den Prozess möglich sind. Die Frage der Heranführung der Wärme bei Wärmebedarf des Produktes an das Produkt hat in der Entwicklung der Brauereitechnologie sehr verschiedenen konstruktiven Ausführungen der Maischgefäße und der Gefäße für die Würzebehandlung geführt. An dieser Stelle ist der Einfluss von Veränderungen, welche den Transport von Wärme verbessern könnten, auch auf das Produkt zu hinterfragen. Die modernen Ausführungen der Maisch- und Würzepfannen sind auf ein produktschonendes Verfahren ausgelegt. Änderungen im Anlagenpark erfordern von jeder Brauerei einen langerprobten Umgang, um trotz der Veränderungen an diesen Prozesshilfsmitteln, dennoch die geschmackliche Qualität des Bieres nicht unerwünscht zu beeinflussen. Die Rückführung der Verdampfungswärme beim Kochen und teilweise Verdampfen der Würze in der Pfanne, in den Prozess, unter Beibehaltung des höchstmöglichen Temperaturniveaus dieser Wärme, ist ein Beispiel aus Kapitel 6 für die Effizienzsteigerung des Teilprozesses. Stärker in den produktbeeinflussenden Teilprozess des Maischens greift die Wahl zwischen den zwei etablierten Wärmezufuhrverfahren, dem traditionellen Dekoktionsverfahren und dem in letzter Zeit deutlich überwiegenden Infusionsverfahren. Hier liegt mit der Wahl des letzteren Verfahrens, innerhalb des Teilprozesses Maischen ein Effizienzsteigerungspotential in der Praxis.
Die teilprozessübergreifende Kopplung der einzelnen Verfahrensschritte erlaubt den Transport von Wärme und Kälte, zwischen diesen Teilprozessen, unter Berücksichtigung der zeitlichen Versetzung der einzelnen Teilprozesse. Damit lassen sich Wärme- und Kältebedarfe untereinander bedienen, wenn eine Speichervorrichtung für Wärme auf den jeweiligen Temperaturniveaus vorhanden ist. Das Temperaturniveau der thermischen Energien ist, wie bereits in der Theorie in den Kapitel 3 und 4 gesehen, wo großer Bedeutung. Denn es geht bei der Steigerung der Energieeffizienz des Gesamtprozesses um die Erhaltung des Potentials der Wärme und Kälte trotz naturbedingter Einbußen, welche die Übertragung der Wärme aufgrund eines notwendigen Temperaturgefälles mit sich bringt. Die Kopplung der Teilprozesse entlang des Brauprozesses führt nach der Analyse in Kapitel 6 dazu, dass Energiezufuhr von außen am heißesten Ort entlang der Prozesskette erforderlich ist, da an dieser Stelle des Würzekochens und Verdampfens innerhalb des Gesamtprozesses keine Wärme auf diesem Temperaturniveau „ausgeliehen“ werden kann. Als Resultat erhält man, das eine Dampferzeugung zur Wärmebereitstellung mit einer Temperatur oberhalb der Siedetemperatur von 100°C erforderlich ist, sowie Kältebereitstellung für die kühlen Prozessschritte Gären und Reifen, bei denen die Aufrechterhaltung einer Temperatur bei knapp 0°C gegenüber der wärmeren Umgebung über eine längere Zeitdauer erforderlich ist.
Hiermit kommt man zu der zweiten Fragestellung aus der Einleitung, welche Szenarien der Bereitstellung der Energie, ggf. in Form einer Selbstversorgung der Brauerei sinnvoll ist.
Energetisch ist die Erzeugung von Wärme auf einem vergleichsweise moderaten Temperaturniveau von benötigten 120 bis 140°C durch die Verbrennung des Primärenergieträgers Erdgas im Dampferzeuger nicht optimal. Es bietet sich an, das Gas bei der Verbrennung einen guten Teil seiner Exergie in Reinform zur Verfügung stellen zu können, in dem es z.B. in einem Gasmotor mechanische Arbeit leisten darf, die über einen Generator zu elektrischem Strom veredelt wird, und die Wärmebedarfe in der Brauerei aus dem Abgas und dem Kühlwasser des Motors gedeckt werden. Diese Form des gasbetriebenen Blockheizkraftwerkes (BHKW) ist in der Industrie seit einiger Zeit weit verbreitet. Der Strom deckt Bedarfe durch Elektromotorenantriebe, Kälteerzeugung mit Kompressions-Kältemaschinen, Lüftungsventilatoren, Pumpen und Beleuchtung. Überschüssiger Strom kann ggf. an den Stromversorger verkauft werden.
Der Wärmebedarf für den Brauprozess, sowie für die Wärme im Flaschen- und Fassreinigungsprozess, sowie zur Pasteurisierung des Bier (bei Rückgewinnung eines Teils der Wärme auf leicht niedrigerem Temperaturniveau) wird durch eine Wärmebedarfsauslegung des BHKW weitestgehend gedeckt. In der Ausführung des BHKW sollte berücksichtigt sein, dass die Wärme in ausreichender Menge bei höherer Temperatur durch optimale Nutzung des heißen Abgases entnommen wird, um auf jeden Fall den Dampfbedarf in der Würzepfanne zu decken.
Aim: European cities are facing heighten hydrological risks as a result of climate change at the same time as ecological degradation has reduced the environmental capacity to absorb and regulate such fluctuations. Climate forecasts predict more intense convective rainfall and winter flood events in the Wupper Basin in Germany, against a background trend of reduced mean rainfall during the summer months. On 14 July 2021 intense convective rainfall fell at points across Western Germany and led to flash floods in the Wupper Basin, many sites were inundated and the Wupper and Dhünn rivers rose to new record highs. Green-blue infrastructure offers strategies to reduce the impacts of hazards at the same time as providing a range of co-benefits. A study was undertaken to find which green-blue interventions will be most effective at reducing the impacts of hydrometeorological hazards for a study area in the west of the Wupper basin. Furthermore, as landscape features are highly influential in hydrology, the study sought to establish which sites within the landscape can provide maximum results from green-blue interventions, with a minimum of change to current land uses.
Region: Europe, peri-urban and rural, undulating, low mountainous landscapes
Methods: Literature findings on observed and projected climate data are summarised and long-term rainfall data from the study area is analysed to confirm rainfall trends. A state-of-the-art review is conducted and summarised to form a toolbox of potential interventions. The most recent hazardous hydrometeorological event is analysed to inform the locational priorities of potential interventions. Landscape features that have the most influence on basin hydrology are identified from the literature. These sites are paired with green-blue interventions that are shown to have the highest potential impact on interception, infiltration, runoff and flooding. A series of spatial analyses are carried out to produce maps detailing location and intervention with high potential to reduce the impact of hydrometeorological hazards in the study area. All of the evidence gathered from the literature analysis is combined in an implementation guide for green-blue interventions in the Wupper Basin.
Results: The hazards caused by the hydrometeorological extremes of flooding and drought are addressed or minimised through the green-blue interventions that increase interception and infiltration and reduce runoff and flooding. Priority locations are identified as the riparian zone with slope ≤15%, hilltop, lower slope and toe slope, all locations with a slope ≥30% and areas with a high topographic wetness index (TWI). A series of spatial analyses were carried out and suggestions made including potential locations for retention or detention areas and ponds, sites for revegetation and potential locations for implementation of shelterbelts/hedgerows, buffer strips, conservation tillage or strip tillage, reduced mowing intensity or frequency and biochar additions. An implementation guide is created that provides a summary of the highest potential green-blue interventions and landscape locations, and a description of the mechanisms involved in addressing the hydrometeorological hazards.
Keywords: Green-blue interventions, hydrometeorological hazard reduction, Wupper Basin hydrology
Policy measures are essential tools for the transition from fossil fuels to renewable energy sources in the electricity generation. Feed-in tariffs (FITs) are the most used policy for support of renewable technologies globally. Nevertheless, Ecuador phased-out FITs in 2016 and adopted auctions in 2015. Ecuador’s implementation of auctions reflects an approach with little relation to practices in other countries and without a technology-specific design. On the other hand, Germany demonstrates a long trajectory in policy-making with vast experience in FITs. Moreover, in 2017 Germany adopted auctions as the official policy to support renewable projects with a scope larger than 750 kW. However, FITs are still in use and complement auctions.
This thesis analyses and compares the country-specific contexts where these policies are implemented through the lens of a multi-level perspective framework. As a result, the most important success factors in Germany have been identified: long-term planning, institutional continuity, legislative stability and principally an actively participating society, which is environmentally aware. Obstacles for the transition in Ecuador are institutional discontinuity, legislative inconsistency, the lack of long-term planning and absence of society as actors of the transition. Due to Germany’s pioneering role plus the successful growth of renewable sources during the last twenty years, their policy implementations appear desirable to adopt in other contexts. Therefore, a prospective transferability of the auction policy from Germany to Ecuador is additionally analyzed.
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Die zweischichtige Organisationsform mit einer zentralen Hochschulbibliothek und vielen finanziell und personell unabhängigen Institutsbibliotheken war die vorherrschende Struktur an traditionsreichen deutschen Universitäten bis in die 1960er Jahre. Heutzutage müssen Bibliotheken aufgrund der aktuellen Finanzkrise im öffentlichen Sektor jedoch mit immer knapperen Ressourcen und weniger Personal ein immer umfangreicheres Dienstleistungsspektrum für eine ständig wachsende Benutzerzahl bewältigen. Vor dieser Entwicklung zeichnet sich nun deutlich das Strukturdefizit zweischichtiger Bibliothekssysteme ab: statt auf nutzerorientierte Informations- und Kompetenzzentren stößt man auf ineffektiven Ressourceneinsatz, ein beziehungsloses Nebeneinander der Geschäftsprozesse von Zentrale und dezentralen Einheiten und eine ungenügende Literatur- und Informationsversorgung. Da die geforderten Dienstleistungen angesichts der finanziellen Restriktion nur noch eingeschränkt erbracht werden können, wird die Wettbewerbsfähigkeit zweischichtiger Bibliothekssysteme blockiert. Zweischichtige Bibliothekssysteme können durchaus modern und leistungsfähig sein, wenn sie im Sinne einer funktionalen Einschichtigkeit die Literaturversorgung kooperativ betreiben. Die Hauptkriterien für funktional einschichtige Systeme sind die organisatorische und räumliche Fusion von kleineren Institutsbibliotheken zu größeren Einheiten, die Kooperation und Koordination bei der Literaturerwebung sowie die Dokumentation des Bestands in einem universitären Gesamtkatalog. Die Strategien für eine Umsetzung der Strukturreform sind dabei jedoch polymorph. Divergierende Interessen in der Hochschullandschaft, bibliothekspolitische Gesichtspunkte sowie hochschulrechtliche Rahmenbedingungen erschweren und individualisieren den Entwicklungsprozess jeweils. Im Vergleich zu den Erfahrungen aus den zweischichtigen Hochschulbibliothekssystemen in Marburg und Freiburg mit der Strukturreform wird in dieser Master´s Thesis eine Bestandsaufnahmen der aktuellen Gegebenheiten und Entwicklungen an der Universitäts- und Stadtbibliothek Köln (USB Köln) auf dem Weg zur funktionalen Einschichtigkeit skizziert.
"Wie motiviere ich meine Mitarbeiter?" (Hatzius, 1996, S. 45) lautet die häufige Frage von Bibliothekaren in leitenden Positionen. "Gibt es eine spezifische bibliothekarische Personalführung?" (Krompholz, 1987, S.353) ist ein weiterer Aspekt, denn zum einen gelten auch in Bibliotheken die Grundelemente betrieblicher Arbeit, zum anderen gehören Bibliotheken meist dem öffentlichen Dienst an und sind zudem Dienstleistungsbetriebe. Aus dieser etwas schwierig zu definierenden Position ergibt sich unter anderem die Frage, ob das komplexe Thema der Mitarbeitermotivation, wie auch viele andere Elemente der Betriebswirtschaftslehre, derzeit ausreichende Bedeutung in Bibliotheken und in bibliothekarischen Ausbildungsstätten erfährt. Weiterhin soll im Rahmen dieser Arbeit betrachtet werden, ob eine leistungsbezogene Vergütung innerhalb des BAT bzw. des Beamtenrechtes, dem die meisten Bibliotheken angeschlossen sind, als Motivator überhaupt herangezogen werden kann.
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
Informationsversorgung ist zu einem zentralen Thema geworden. Das gilt längst nicht mehr nur für die Wirtschaft. Auch für Privatpersonen wird die Beschaffung von umfassenden und aktuellen Informationen zu alltagspraktischen Fragestellungen immer wichtiger, um am gesellschaftlichen Leben teilzunehmen. Informationen dienen als Basis für richtige Entscheidungen, so daß die Nachfrage nach Informationen stetig ansteigt. Den Öffentlichen Bibliotheken bietet sich in dieser veränderten Gesellschaft die Chance, ihren Standpunkt neu zu definieren, denn sowohl der Informationsbedarf als auch das Informationsangebot steigen weiterhin zunehmend an. Mit konventionellen Mitteln alleine läßt sich diese Aufgabe für die Bibliothek aber nicht mehr länger bewältigen. Zu viele Informationen sind auf herkömmlichem Wege kaum noch erreichbar. Viele sonst schwer zugängliche Informationen bietet mit Sicherheit das Internet, welches von vielen Bibliotheken auch schon genutzt wird. Doch aufgrund der Strukturlosigkeit des Internets ist es oft schon ein Zufall, das zu finden, was man sucht. Auch die Korrektheit des Gefundenen ist im Internet nicht gewährleistet (vgl. Lipka, 1998, S. 107). Durch die Nutzung von Online-Datenbanken könnte die Informationsversorgungspflicht durch die Bibliotheken noch besser wahrgenommen werden. Durch Online-Datenbanken sind ständig aktuelle Informationen aus allen Wissensbereichen verfügbar. Hier werden Informationen angeboten, die auf herkömmlichen Wegen sonst oft kaum zu beschaffen sind. Aufgrund der Eignung von Bibliotheken als Standort für Online-Datenbanken war das Ziel dieser Untersuchung herauszufinden, wie verbreitet die Nutzung von Online-Datenbanken in Öffentlichen Bibliotheken in Deutschland tatsächlich ist, ob in Öffentliche Bibliotheken ein Markt für Online-Datenbanken vorhanden ist und ob durch Bibliotheken die potentiellen Kunden der Datenbankanbieter (Hosts) erreicht werden können.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
The present thesis research was focused on the assessment of hydrological drought in the Tempisque-Bebedero catchment system in Costa Rica as part of the TropiSeca project framework. The study area is in the province of Guanacaste and has an extension of 5449.94 Km2, the region is characterized by a defined wet and dry season resulting in a marked seasonality in precipitation and streamflow regime which provokes frequent periods of water deficits considered as drought.
The main objective of this research is to conduct an analysis on hydrological drought in the study area through the understanding of the behavior of hydrological cycle and its implications for the rice sector by applying different drought indices such as Standardized Precipitation Index (SPI) and Streamflow Drought Index (SDI). From the values obtained in the calculation of drought indices were studied the temporal distribution and spatial distribution based on the characterization of drought periods in terms of frequency, severity, duration, and seasonality.
For the characterization of meteorological drought in the study area an approach based on area average precipitation was implemented to calculate a regional representative SPI for each sub-basin, in contrast, hydrological drought was assessed using only two streamflow gauges data provided by the ICE from 1973 until 2003.
As result, Tempisque showed longer drought periods in comparison with Bebedero whose mean duration was lower but the number of drought events were more frequent. In terms of spatial distribution, it could be found that the upper basin experienced extreme meteorological drought periods at high time scales tied to a severe streamflow deficit probably justified by its low permeability due to geological characteristics that allow a slow movement of groundwater.
Additionally, one of the aims of this thesis was to analyze the existence of correlation between precipitation and streamflow anomalies with rice yield and, to determine the influence of ENSO in climate variability using Sea Surface Temperature indices; in this phase of the research was found that climate patterns in the catchment system exhibited a significant influence by ENSO events with a significance level of 99% (r > 0.7) showing an important dependence of meteorological drought periods presented during the period 1980-2016.
In terms of temporal behavior of rice yield anomalies was revealed moderate correlation coefficients (r < 0.4) in both watersheds due to in most of the cases the response of water deficit did not have significant impact in terms of magnitude as expected; in some periods in which drought period was present categorized as mild-drought, rice yield had a considerable decreasing compared with those in which was categorized as extreme event; these differences can be justified mostly because crop yield depends not only on weather, but also on variety of seed used and its coping capacity to periods of water scarcity, fertilizers, soil moisture, farming techniques, sowing date, temperature, irrigation, use of pesticides etc.
The results of this thesis can be used to motivate future researches in the elaboration of crop models to predict yields based on physiological processes during plant development considering water requirement to take enough measures to mitigate the effects of drought periods. Furthermore, it should be considered to implement a drought monitor system in the area as an important tool of early warning system and as an indicator for the efficient water resources management.
In dieser Arbeit wird der Frage nachgegangen, inwieweit eine systematische Personalentwicklung auch im Management Öffentlicher Bibliotheken Beachtung findet. Bestehen im deutschen Bibliothekswesen überhaupt ausreichende Kenntnisse über Personalentwicklung? Stehen die Strukturen des öffentlichen Dienstes einer Personalentwicklung, wie sie in der freien Wirtschaft betrieben wird, nicht im Wege? Gerade im Dienstleistungssektor - zu dem Öffentliche Bibliotheken auch zu zählen sind - sind Qualifikation, Motivation und Leistungsbereitschaft des Personals von großer Bedeutung. Wird im Rahmen von Verwaltungsreformen die Chance ergriffen, im Bereich der Personalführung auch Maßnahmen der Personalentwicklung anzuwenden? Und welche Maßnahmen werden in den Bibliotheken tatsächlich umgesetzt?
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.
Im Titel der vorliegenden Arbeit wird bereits herausgestellt, dass eine Architektur von der Konzeption über die prototypische Implementierung bis hin zu einer ersten Validierung betrachtet wird. Dabei soll die Architektur dienstorientiert aufgebaut sein und sich für die Realisierung von Multimediaanwendungen eignen. In dieser Arbeit wird dazu zunächst allgemein in die Thematik der Dienstorientierung eingeführt und die jeweiligen Besonderheiten im Zusammenhang mit Multimediaanwen- dungen dargelegt. Im weiteren Verlauf wird die Architektur prototypisch umgesetzt und auf Grund der Implementierung eines Anwendungsszenarios validiert.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Soft Skills, zu deutsch "weiche Fähigkeiten", sind die Kompetenzen, die über fachliche Qualifikationen hinausgehen, wie beispielsweise Teamfähigkeit, Kommunikationstalent und Durchsetzungsvermögen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Soft Skills in der Praxis bibliothekarischer Arbeit Beachtung finden. Über welche Persönlichkeitsmerkmale sollten Bibliothekare verfügen? Wie sieht der Berufsalltag in Bibliotheken heute aus? Welche Tätigkeiten werden vorwiegend ausgeübt? Wie ist Stand der technischen Ausstattung? Finden auch Maßnahmen der Personalentwicklung und Mitarbeitermotivation statt? Ergänzend dazu soll festgestellt werden, ob es Unterschiede in der Bewertung je nach Bibliotheksgröße und -typ gibt. Dieser Band behandelt die verschiedenen Formen von Kompetenzen, Fähigkeiten und Kenntnissen sowie ihre Bedeutung für den Alltag bibliothekarischer Arbeit und beschäftigt sich mit den Themen Personalentwicklung und Mitarbeitermotivation, die zunehmend an Bedeutung gewinnen. Die theoretische Darstellung beruht auf Vorarbeiten aus Bibliothekswesen, Betriebswirtschaftslehre und Organisationspsychologie. Um den derzeitigen Stellenwert der Soft Skills im bibliothekarischen Alltag bewerten zu können, beinhaltet die Studie die Ergebnisse einer Umfrage, die unter rund 100 Bibliotheken durchgeführt wurde (Rücklaufquote der Fragebogen: 82%). Das Gesamtergebnis befindet sich in Form von Diagrammen und Tabellen im Anhang. Überdies wird eine Verbindung zwischen Theorie und Praxis hergestellt.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
As the number and intensity of environmental challenges increase, more faiths have initiated religiously motivated change within their communities or have been involved in cooperation projects with NGOs or GOs dedicated to conservation. Even though a lot of quantitative research had been done on the correlation of religiosity and concern for the environment, no scientific study dealt about the argumentation lines that drive or discourage believers to get involved in environmental conversation. As a basis for the research the Theory of Planned Behavior of Ajzen was modified into a model. By the means of Semi-Standardized Interview guidelines 15 members and leaders of different church communities in Amman were interrogated to retrieve meaning of and cause-effect-chains between the different components of the model. Their answers were coded and analyzed with cross tables to identify interconnections and their tendencies.
The results show that interviewees’ religious convictions about God and the world were the strongest influencer, whereas the community and leaders rarely gave a reason for people to adapt water saving measures. External factors such as governmental, societal, political or economic mostly discouraged people to adapt environmentfriendly behaviors. Approaches by the GIZ have already started catering to those challenges and potentials, however the range of impact did not reach until most of the interviewees.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Jordan is deemed as one of the least water-endowed regions in the world. The acute water shortage, accompanied with changing climatic conditions have necessitated the increasing use of treated wastewater (TWW), predominantly in irrigated agriculture sector. This is especially true with the upper Zarqa River. The ample supply of TWW resources can be found there; paradoxically, the practical implementation of TWW reuse is hindered by the enforcement of irrigation water quality standard, compounding pressure on the dwindling groundwater resources. In light of the large potential source of TWW, this study aims to supply knowledge on maximizing the safe reuse of TWW while minimizing the environmental impacts within the local environment of the upper Zarqa River. A SWOT analysis was conducted to identify the strengths, weaknesses, opportunities, and threats of TWW reuse for agriculture in the local context. In recognition of the projected growth in the treated effluent to more than 135 MCM in the coming ten years, and how it would affect the water use on the study region, several plausible development scenarios were proposed based on expected developments on the ground. Considering the vital role of TWW in sustaining multiple ecosystem services, this study addresses the need to review current standard, encourages managed aquifer recharge with TWW, recommends crops type modification, and enhances knowledge on suitable practices at farm level. Each of these factors is needed in order to deliver a range of ecosystem services to sustain the local rural communities and to advance them in the face of profound challenges, thereby leading to its stability and increased productivity.
When it comes to web applications and their dynamic content, one seemingly common trouble area is that of layouts. Frequently, web designers resort to frameworks or JavaScript-based solutions to achieve various layouts where the capabilities of Cascading Style Sheets (CSS) fall short. Although the World Wide Web Consortium (W3C) is attempting to address the demand for more robust and concise layout solutions to handle dynamic content with the recent and upcoming specifications, a generic approach to creating layouts using constraint syntax has been proposed and implementations have been created. Yet, the introduction of constraint syntax would change the CSS paradigm in a fundamental way, demanding further analysis to determine the viability of its inclusion in core web standards. This thesis focuses on one particular aspect of the introduction of constraint syntax: how intuitive constraint syntax will be for designers. To this end, an experiment is performed involving participants thinking aloud while reading code snippets. Also, cursor movements are recorded as a proxy for eye movement over the code snippets. The results indicate that, upon first-impression, constraint syntax within CSS is not intuitive for designers.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
Located in the Urubamba mountain range, the Chicón glacier is the third highest tropical glacier of this area and the source of water for the Chicón watershed. Moreover, from this watershed four communities obtain water for human consumption and agriculture, which is their main economic activity. In the last years glacier retreat is evident in the area and threatens the livelihoods of the people because it affects the availability of fresh water.
The general objective of this research is to analyse the perception of people living in this watershed to climate change, disaster risk, and ecosystem-based solutions. The specific objectives are to identify natural hazards and climate change effects in the community, to recognise potential ecosystem services suitable for Ecosystem-based Adaptation (EbA) and Ecosystem-based Disaster Risk Reduction (Eco-DRR), and to assess to which climate change effects and disasters the communities are vulnerable based on their own perception. The methodological steps are based on literature review, expert interviews, questionnaires to the community, a workshop and field observations.
The results show that people perceive changes in the climate such as increase in temperature, less precipitation and shifts of the rainy and the dry season. The climate-related disasters that were identified are Glacier Lake Outburst Flood (GLOF), droughts, frosts and hailstorms. However, GLOFs are not frequent in the area and drought is the hazard that people consider will be more frequent. Additionally, pests were identified as biological hazards. Several ecosystems services can be obtained for EbA and Eco-DRR from forests, especially if native trees such as Qiwiña (Polylepis spp.), Chachacoma (Escallonia resinosa) and Aliso (Alnus jorullensis) are used in ecosystem management. Finally, the hypothesis was partially accepted since people in the study area are to some extent aware of climate change impacts, but only partially understand causes and effects. Further, they recognize most of the ecosystem services that forests provide. Therefore they are starting to implement ecosystem-based solutions in the watershed with the support of external institutions.
Based on the idea of sustainable development, the BioTrade principles and criteria (P&C), based on the idea of sustainable development, have been the essential core guiding the implementation of BioTrade activities since their inception by UNCTAD in 2007. However, after identifying that BioTrade of medicinal plants causes negative impacts on the traditional knowledge related to these plants, the P&C were evaluated in light of the most relevant international agreements that contribute to the safeguarding of this knowledge. The result obtained from the assessment showed that the P&C present many gaps that prevent evaluating the real impact of trade on the traditional knowledge of medicinal plants in Indigenous and local communities. Therefore, in the same framework of the current P&C, the main recommendations contained in the international agreements and the suggestions of specialists in the field have been gathered to create a BioTrade standard that contributes to safeguarding traditional medicinal plant knowledge within a commercial context in any BioTrade initiative where the commercialized product is a sacred or native plant with traditional and cultural value for a community.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Die vorliegende Diplomarbeit behandelt die Umsetzung der Datenbankgestützten Web-Applikation IMMOMENT, mit dem Ziel primär anhand der Softwaretechnik aufzuzeigen, in welchen Schritten IMMOMENT nach Anfertigung des Pflichtenheftes umgesetzt wurde. IMMOMENT wurde von der Firma IMMO-DATA AG (Bochum) für die Firma IMMO-CHECK GmbH (Bochum) entwickelt. Ziel war es Sachbearbeitern (z.B. einer Bank) die Möglichkeit zu verschaffen, über ein Immobilien-Objekt schnell und umfassend Informationen in Text und Bild zu bekommen.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Observational studies and clinical trials have become increasingly important over recent years and play an essential role in advancing medical knowledge. In today’s world of clinical research, it is not possible to imagine trials without the founda-tion of a well-established it-infrastructure. Electronic capture and usage of data is pervasive.
In practice, medical progress requires the ability to integrate data from different systems. An essential factor in enabling different actors, such as institutions and hospitals, to have their systems exchange structured data and make use of the information is the interoperability of the data and systems.
FHIR (Fast Healthcare Interoperable Resources) is a free and easily customizable HL7 platform standard, based on 30 years of experience of HL7. It is focused on providing health-related information and defines a set of capabilities used in the health care process.
This thesis will provide a conceptual approach for working with FHIR, as well as concrete approaches for working with FHIR profiles and for customizing the standard for particular use cases. It will be carried out in cooperation with the Medical Systems R&D, which is a service provider within the University Hospital of Cologne.
The guiding request approach will focus on the evaluation of requirements for clini-cal trials and how clinical research protocols can be represented in an interoperable and machine-parsable format using FHIR.
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
Der Ausbruch der COVID-19-Pandemie und die zur Bekämpfung des Virus erlassenen Coronaschutzverordnungen verschärfen die Lebenslagen geflüchteter und flüchtender Menschen und erschweren die Arbeit von sozialen Bewegungsakteuren und Organisationen der Sozialen Arbeit, die auf Missstände im Kontext von Flucht und Asyl aufmerksam machen und sich für deren Verbesserung einsetzen. In dieser Arbeit wurde daher der Frage nachgegangen, wie sich zivilgesellschaftliche und sozialarbeiterische Organisationen seit der Pandemie für geflüchtete Menschen und Menschen auf der Flucht einsetzen. Mithilfe von sieben leitfadengestützten Interviews mit Personen aus Lokalgruppen von Seenotrettungsorganisationen, Willkommensinitiativen und Organisationen der Sozialen Arbeit wurde rekonstruiert, wie die befragten Akteure ihre Situationen erleben und auf welche Weise sie sich zu diesen wahrgenommenen Gegebenheiten verhalten und auf sie einwirken. Dabei wurden sowohl fallübergreifende Kategorien identifiziert, wie innerorganisationale Gestaltungsprozesse, die Bedeutung von Vernetzung und Engagementbereitschaft sowie die Wahrnehmung von gesellschaftlichem Klima und politischen bzw. medialen Entwicklungen, als auch fallspezifische Bedingungen und Bewältigungsmuster der jeweiligen Organisationen herausgearbeitet. Ein besonderes Augenmerk wurde schließlich auf das Verhältnis zwischen Fachkräften der Sozialen Arbeit und Aktivist:innen bzw. Engagierten gelegt, da die Beziehung von sozialen Bewegungen und der Sozialen Arbeit insgesamt bisher empirisch unterbelichtet ist
Ziel dieser Arbeit ist es, herauszufinden, ob der Parameter der fraktalen Dimension in Zukunft nützlich sein könnte für die computergestützte Auswertung von Mammographien. Dies gilt insbesondere für die Detektion architektonischer Störungen im Brustparenchym, die zuweilen durch den Radiologen schwer ausfindig zu machen sind. Die fraktale Dimension ist deshalb als Parameter so interessant, weil sie auf der Eigenschaft der Selbstähnlichkeit beruht. Eine Selbstähnlichkeit in der Struktur könnte auch das Brustgewebe haben, da Gewebewachstum ein fortlaufender Prozess ist, bei dem sich wiederholend die gleichen Formen herausbilden. Kommt es hier zu pathologischen Veränderungen, so ist dieser Ablauf unterbrochen und die Strukturen verändern sich.
Serpil Ertik erkundet am Beispiel geflüchteter Menschen mit Behinderung, inwieweit die sozialen Kategorien „Migration“ und „Behinderung“ wechselseitig Einfluss auf den Zugang zu zentralen Lebensbereichen nehmen und welche Barrieren und Herausforderungen sich daraus ergeben. Nach einer Erläuterung der wesentlichen theoretischen Konzepte werden im Kern der Arbeit qualitative Interview mit Fachkräften aus der Geflüchteten- und der Behindertenarbeit und zwei Asylbewerber*innen mit einer Behinderung zur Beantwortung der Ausgangsfrage ausgewertet und auch intersektional analysiert.
Die Untersuchungsergebnisse zeigen deutlich, dass der rechtliche Status der Geflüchteten die Zugangsmöglichkeiten zu zentralen Lebensbereichen deutlich erschwert. Prekäre Lebenssituationen in den Gemeinschaftsunterkünften, fehlende Gesundheitsversorgung, Ausschluss aus Integrationskursen und in der Folge soziale Ausgrenzungen sind die Konsequenz der asylrechtlichen Regelungen. Durch diese strukturellen Diskriminierungen wird ein Behinderungsprozess reproduziert. Sprache und Zuschreibungen der aus der Mehrheitskultur stammenden Mitarbeiter*innen konstituieren weitere Machtverhältnisse und Ausschlüsse von Geflüchteten mit Behinderung. Als Konsequenz führen diese Bedingungen zu einem von Fremdbestimmung und Abhängigkeit geprägten Leben, das in deutlichem Widerspruch zu den Anforderungen der UN-BRK steht.
Elaeis guineensis Jacq. or oil palm is a native species of West Africa. Its oils, extracted from the fruit mesocarp and the kernel are widely used in the food industry, industrial applications, and bioenergy production. Due to its versatility, profitability and growing demand, the global oil palm agroindustry raises concerns regarding deforestation, effects in biodiversity, contamination and related to social issues such as labor conditions, poverty, and social conflicts. In Mexico, the establishment and subsequent growth of the oil palm industry was promoted by past government policies and financial support. In Chiapas the current main producer of the country, the expansion can be also attributed to oil palm resilience to floods, hurricanes, and the economic profitability.
The objective of this study is to evaluate the sustainability status of the oil palm production system within Acapetahua and Villa Comaltitlán Municipalities by analyzing the indicators of sustainability. To achieve this, the Evaluation Framework for Natural Resource Management Systems (MESMIS), was adapted to measure the attributes status of productivity, stability, reliability, resilience, self-management, equity, and adaptability, of the different dimensions of sustainability (environmental, social, political, and economic).
It was identified that MESMIS is an appropriate framework to study oil palm system in Acapetahua and Villa Comaltitlán municipalities. The methodology allowed the identification of critical points, and relevant indicators that include land use and vegetation cover changes, oil palm cashflow, good agricultural practices, farmers´ training, level of participation and farmers´ well-being. As a result, it was identified that vegetation and land use changes were principally from pastures land and previous oil palm plantations, and a positive profitability in the last two years. Soil and water conservation practices are implemented, and farmers have received different trainings principally from social mills, but other good agricultural practices and awareness of social problems should be improved, while the social participation evaluation showed a weak status of the political dimension.
In Sierra Leone, at the moment 10 out of the total 14 districts are faced with the problem of large-scale land investments for industrial agriculture (oil palm, sugarcane…). The production is mainly for the local, regional and world market. There are quite many of these investments in the planning stage, while some are extending their operations by taking more land from communities or are already at the production stage. Studies and media reports have claimed a number of negative impacts felt in communities hosting these companies, ranging from loss of land, food insecurity, increase in poverty to loss of livelihoods, environmental degradation as well as social and cultural problems. The goal of this thesis is to examine the impacts of the operations of “Socfin Agriculture Company” on food security of local communities in Malen Chiefdom, Pujehun District of Sierra Leone.
Both quantitative and qualitative research methods are used for data collection, analyses, and interpretation of results. The research uses household income and expenditure to compare household food security before and after the start of the company’s operations. It examines consequences of community’s loss of land to support household food production versus casual wage earn from employment created by the company to meet household food security.
The results show a loss of household’s income sources and a significant decrease in households’ income. Households’ food crop production has reduced accompanied by a complete loss of cash crop farming. Households affected by the operations of the company have lost access to land and other natural resources that support food production. Furthermore, the company employs very few people in comparison to the total population of affected communities. Calculation of total wage earn from employment by the company cannot meet the staple food (rice) needs of the households. Also, households claimed a host of unfilled promises made by the company and national government at the onset of the operations of the company.
In conclusion, household food production is the most significant determinant for household food security, with regards to food availability, accessibility, utilization and stability of supply. Therefore, national government should carefully study and develop a framework that addresses food security of households impacted by the operations of the rapidly growing large-scale land investment companies and ensure a fair share of the local community in the economic development of the country and suggesting ways of improving access rights in the context of tenure.
Soils are complex, evolving systems that simultaneously shape and are shaped by numerous biotic and abiotic factors in a vast web of interactions that creates the conditions for the propagation of life and the maintenance of human societies. Yet, land use and land use change (LULUC) and anthropogenic climate change (CC) are forcing substantial and rapid alterations into soil’s properties and processes, thus affecting the functions and services derived from it. The resulting land degradation (LD) is now spread, according to recent estimates, over nearly 30 % of the world’s total land, mostly on the population dense and impoverished tropics, a zone predicted to withstand the worst impacts of CC. The Atlantic Forest in Brazil is a particularly vulnerable environment, and the unusual drought of 2014-2017 that hit its Southeastern region is likely the harbinger of a progressively drier future.
The way the prelude of what might be an increasingly frequent hazard affected farmers’ livelihoods and natural resources, and the manner in which they reacted to those impacts can thus reveal points of strength and fragility that could be respectively harnessed or addressed to develop a more sustainable agriculture and climate resilience. This master thesis focused on characterizing those impacts and reactions on distinct dairy production systems in two municipalities in Northwestern Rio de Janeiro: Santo Antônio de Pádua and Cambuci. Through interviews and in loci observations, the researcher collected data concerning environmental services (erosion prevention, soil cover and water provision), production variables (inputs and outputs), socio-economic information, farm system management and farmers’ future perspectives. The results show that dairy production systems in the region are heterogeneous and, although they may share common characteristics, drought outcomes were closely tied to the specificities of each farm. Ultimately, outcomes originated from differences in water supply, water demand, and feed availability, their subsequent change by the drought and farmers’ reaction to those changes at each property.
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
Die Gebrauchstauglichkeit eines Produktes hat sich zu einem entscheidenden Qualitätskriterium in der Softwareentwicklung entwickelt. Neben den Nutzern erkennen auch immer mehr Organisationen den Mehrwert von gebrauchstauglichen Produkten, insbesondere die steigende Produktivität, die verbesserte Qualität und den damit verbunden Profit. In Praxis und Wissenschaft wird daher derzeit dem Wunsch nachgegangen, Usability Engineering und Software Engineering zu integrieren. In dieser Arbeit werden Standards der beiden Disziplinen in Bezug auf Aktivitäten und Artefakte analysiert, welche in einem ganzheitlichen Modell zur Integration von Usability Engineering und Software Engineering abgebildet werden sollen. So sollen mögliche Anknüpfungspunkte zwischen Aktivitäten und Artefakten aufgezeigt werden. Ziel ist die Evaluation dieses Modells anhand von Konformitäts- und Rahmenanforderungen, sowie durch eine Expertenbefragung.
Blogging has established itself as an important and influential part of the
modern online media. At the dawn of the blogosphere people were publishing
their diaries and life journals. Nowadays, some bloggers operate blogs that are
hardly any different from online newspapers and magazines. On the one hand
professional blogging is broadly accepted in the society, but on the other hand
it is poorly understood. The purpose of this explorative study is to broaden
the understanding of blogging as a professional activity. In particular, this
study explores the aspects of professional blogging and the interplay between
credibility, authenticity and monetisation in blogs.
To understand blogging as a professional activity an extensive literature
research is conducted. First, main concepts of blogging as a social activity
are discussed. Then, the changes that come together with the transformation
of a social activity into a professional activity of blogging are discussed. To
look at the activity of blogging from an unusual perspective, a comprehensive
qualitative survey is conducted with blog readers. The survey examines
not only readers’ perception of blogging as a professional activity, but also
motivations for reading blogs and attitude to monetising practices and labelling
of monetised content in blogs. Information received from the survey is used to
draw some conclusions about the state of the art of blogging as a professional
activity, and challenges and opportunities blogging industry faces nowadays.
This project was done in collaboration with CERN and is part of the detector control system of the ATLAS experiment. The primary goal foresaw the development and testing of the FPGA card for the MOPS-HUB crate with the focus on radiation tolerance. This was accomplished with the approach of designing two different PCBs. The first PCB was created as a fast prototype with the use of a commercial SOM-board. This was also beneficial for confirming that the chosen FPGA is suitable for the MOPS-HUB application. After the successful assembly and test, a second, more complex and foremost radiation tolerant PCB was designed. This was achieved by solely using components of the CERN radiation database.
The second part of this thesis focuses on increasing the distance of TMR registers with a Python script. A method was created for extracting and later parsing a design’s placement
information from Vivado. Furthermore, were system designed and implemented to recognize TMR cells, to find and validate free cells and to finally create a new placement for import into Vivado. These algorithms were tested with a multitude of configurations and the quality, based on the maximum possible frequency of a design, determined.
Zu entwickeln ist eine graphische Simulation von LEGO® Mindstorms™ Robotern. Die Simulation soll die Möglichkeit bieten, ein virtuelles Robotergrundmodell mit verschiedenen Sensorausstattungen so zu programmieren, wie es auch bei einem echten Modell der Fall wäre. Das real zu erwartende Verhalten dieses Roboters bei Programmausführung soll auf dem Bildschirm in Echtzeit verfolgt werden können, wobei die Bedienung des virtuellen Roboters der des realen Robotermodells nachempfunden sein soll.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Das steigende Angebot an Datenbanken im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBV-Suchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
Die Einführung des Neuen Steuerungsmodells (NSM) ist Thema in vielen Gemeinden. Die theoretischen Grundlagen der Verwaltungsreform, die hauptsächlich von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) erstellt werden, sind einfach vermittelt. Die Umsetzung der Theorie in die Praxis bringt allerdings für die meisten Gemeinden und ihre Ämter Komplikationen mit sich. Aus diesem Grund ist es sinnvoll, daß bereits neu gesteuerte Ämter ihre Erfahrungen austauschen und "Neueinsteigern" zugänglich machen. Durch das Deutsche Bibliotheksinstitut (DBI) und verschiedene bibliothekarische Fachzeitschriften findet bereits seit mehreren Jahren ein reger Austausch zwischen Bibliotheken statt. Dabei werden individuelle Erfahrungen wiedergegeben, die allerdings ohne vorher definierte Untersuchungsgegenstände und -methoden erstellt worden sind. Gegenstand dieser Arbeit ist die Entwicklung eines Untersuchungsschemas, das auf den Analyse-Instrumenten und Erkenntnissen der empirischen Strategieforschung basiert.
The Highland Plateau region, in San Luis Potosí, involves particular dynamics and needs from those presented within the rest of the state; its culture, vocation, mineral resources and territory, converge to give rise to a unique and particular region. The connectivity within the region has been decisive for its development, since two of the largest and most important national roads in go through this territory.
Despite comprehending about a half of the state's territory, this region has not managed to truly influence the state statistics neither economically nor socially; on the contrary, the employment rate has significantly decreased significantly, and also its population number.
Accordingly, this research aims to analyze the connectivity system within this region to strengthen and complement the development tools of these communities in a sustainable manner and, in this way, increase the welfare of the Highland Plateau population.
Throughout this investigation, it will be possible to understand how the location of this physical network, as well as for the use of resources for the satisfaction of the inhabitants, has been reflected in the communities within this region. Likewise, the statements made by state directors in charge of the economy, road network and social development within the region, will be studied. These statements will also be combined with a “functional grid analysis”, the connectivity between communities and their basic needs.
Desarrollo de Competencias para la Sustentabilidad, a través del Aprendizaje Basado en Escenarios
(2018)
La sustentabilidad, planteada como concepto y solución estratégica frente a la crisis contemporánea, supone diversos retos para la humanidad entre los que se encuentra la formación de individuos capaces de afrontar la complejidad de la problemática ambiental, así como de visualizar y desarrollar una sociedad libre, justa y en equilibrio.
Con el propósito de coadyuvar a dicho cambio, el presente trabajo se propuso investigar la contribución del Aprendizaje Basado en Escenarios al desarrollo de competencias para la sustentabilidad, tanto desde el punto de vista conceptual como práctico, diseñando un recurso educativo y realizando una prueba piloto en estudiantes de la Universidad Autónoma de San Luis Potosí. Los objetivos específicos fueron: (1) Identificar, seleccionar y formular el análisis sistémico de dos casos, uno en México y otro en Alemania, para mostrar la complejidad de la relación entre dimensiones de la sustentabilidad y los desafíos a los que se enfrentan los actores en la gestión de esta y, (2) Diseñar y probar un recurso educativo en torno a su contribución al desarrollo de las competencias de pensamiento crítico y pensamiento sistémico.
La prueba piloto del recurso educativo se realizó con un grupo multidisciplinario, integrando estudiantes de las licenciaturas: Ciencias de la Comunicación, Ciencias Ambientales y Salud, Ingeniería Agroindustrial, Psicología y Psicopedagogía.
Con base en entrevistas de valoración se llegó a la conclusión de que el aprendizaje basado en escenarios si permitió contribuir al desarrollo de competencias para la sustentabilidad. Los dos casos seleccionados: Río Rin y Río Verde resultaron eficaces al evidenciar la complejidad, así mismo, advirtieron los desafíos que resultan de la gestión de la sustentabilidad de ambos, mostrándose análogos. Por último, cabe mencionar que el desarrollo de la competencia interpersonal (diálogo y colaboración principalmente) que no estaba dentro de los objetivos de la tesis, se evidenció a partir de las entrevistas la valoración.
There is a dramatic shift in credit card fraud from the offline to the online world. Large online retailers have tried to establish countermeasures and transaction data analysis technologies to lower the rate of fraudulent transactions to a manageable amount. But as retailers will always have to make a trade-off between the performance of the transaction processing, the usability of the web shop, and the overall security of it, one can assume that e-commerce fraud will still happen in the future. Thus, retailers have to collaborate with relevant business partners on the incident to find a common ground and take coordinated (legal) actions against it.
Trying to combine the information from different stakeholders will face issues due to different wordings and data formats, competing incentives of the stakeholders to participate on information sharing, as well as possible sharing restrictions that prevent them from making the information available to a larger audience. Moreover, as some of the information might be confidential or business-critical to at least one of the parties involved, a centralized system (e.g. a service in the public cloud) can not be used.
This Master Thesis is therefore analysing how far a computer supported collaborative work system based on peer-to-peer communication and Semantic Web technologies can improve the efficiency and effectivity of e-commerce fraud investigations within an inter-institutional team.
The increase in greenhouse gas emissions, mainly due to the burning of fossil fuels and land use change, has led to changes in the global climate. Agriculture is one of the economic sectors most vulnerable to the impacts generated by climate change. For this reason, the challenge facing humanity today is to develop innovative solutions to address the complexity of agricultural sustainability.
On the other hand, sugarcane is one of the crops that emits the most pollutants into the atmosphere, mainly due to the burning of sugarcane before and after harvesting. Most of these atmospheric pollutants are precursors of climate change and have an impact on the health and quality of life of communities. Moreover, this agricultural practice causes the gradual deterioration of the soil, directly affecting sugarcane production. Consequently, several sugarcane-producing countries have established regulations or dispositions to eliminate this agricultural practice, and one option to eliminate it is the mechanization of harvesting. However, its implementation implies social, environmental, and economic impacts that must be analyzed systemically to avoid potential failures during the technological transition process. It is for this reason that this research, through the MICMAC method, focused on identifying the variables associated with the reduction of sugarcane burning in Campos dos Goytacazes and Tamasopo, to subsequently analyze their direct and indirect interrelationship, and, thus, determine the opportunities and limitations of each locality for the reduction of sugarcane burning.
Through this analysis, it became evident that although the technological transition is an imminent step for the sustainability of sugarcane cultivation, certain factors such as legislation, technological innovation, and the perception of the stakeholders regarding the consequences of sugarcane burning, is what defines in the study sites the speed and subsequent success of this process of change towards green harvesting.
Die vorliegende Diplomarbeit vergleicht drei didaktisch-methodische Modelle von Präsenzveranstaltungen zur Vermittlung von Informationskompetenz an Hochschulbibliotheken. Neben den etablierten Konzepten Benutzerschulung und Teaching Library analysiert sie das von der Universitätsbibliothek Kassel entwickelte innovative Modell Learning Library. Die Arbeit untersucht jeweils die lerntheoretischen Grundlagen, das Verständnis von Informationskompetenz, Ziele und Inhalte, didaktische Prinzipien und Methoden. Abschließend bewertet sie, welches Modell hinsichtlich der Förderung des Lebenslangen Lernens zukunftsträchtig ist.
Digital competences are describing a set of skills, which are necessary to use digital devices and tools with an adequate degree of self-determination. With the ubiquitous digitization of our lives and our society it is important for every citizen to have digital competences. Therefor, it is necessary to educate those competences in schools. As one cannot assume teachers to have enough digital competences to well educate the children of todays classes, this master thesis tries to find out: How to shape the process of teaching digital competences to adolescents in German schools, focusing on including multiple parties from diverse backgrounds into the process? At first, the current situation of teaching digital competences in German schools is analyzed by means of a literature review. After the identification of the challenges within the German system, international best practices are examined. Therefor, four countries, which have reached high scores in the International Computer and Information Literacy Study are selected. Australia, the Czech Republic, Denmark and the Republic of Korea are compared and possible chances for Germany identified. As the next step, expert interviews with divers parties, which have direct or indirect relation to the German education system, are held. The goal of the interviews is to generate ideas on how to support the education system by external help. At the end of the thesis the recommended approach of Motivating External People is presented. Several measures, such as teaching or mentoring students in a guest lecturer model; providing IT support for the hard- and software of the schools or creating Open Educational Resources as education material for the teachers are presented and possible third parties are named. As it is not possible to support the education system from the outside without education system internal persons, it is presented, what needs to change within the system to get the approach working. Therefor, not a complex and system changing approach is presented, but a combined top-down and bottom-up process to motivate external people to support.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Speedrunning in general means to go fast in a video game. This simple concept has an immense impact on the ways players engage with games. The inherent aspect of optimization within this esports niche makes it a good application field of optimization methods. This work gives an overview of speedrunning as an esports discipline. Prior works on this subject are discussed and assessed and relevant nomenclature is introduced. Using this information, routing --- the procedure of planning a speedrun --- is picked up as a graph optimization problem.
Nintendo's iconic game The Legend of Zelda: Ocarina of Time from 1998 is used as a working example to assess previous works and to explore more of this mainly uncharted field of research.To do so, the process of speedrun modeling is conducted as exhaustive as possible within the limits of a work like this. All relevant steps to obtain a faithful model are lined out. This procedure yields a partial game graph with 6764 nodes and approx. 321,022 edges --- some uncertainty included. Current pathfinding techniques are discussed and assessed regarding their applicability to the presented speedrun routing problem. The resulting graph model and algorithmic approaches present a good reference to identify the most promising points of improvement. Challenges, flaws and possible solutions to still standing problems are discussed and assumptions from prior works are assessed. Finally, further tracks of scholarly and community work in this area are suggested and possible extensions to the approach are lined out.
It is shown that speedrun routing is not a trivial shortest path problem that can be solved with conventional methods. Furthermore, it is made clear that different games can have vastly differing routing circumstances. Assumptions of other works have been assessed using a working example and many interesting challenges and fields of further study and research in the field of speedrunning have been identified. Some probabilistic pathfinding methods and current works on AI agents for games pose interesting approaches which can be extended on by utilizing the findings of the presented work. Specialized modeling and optimization techniques have to be employed in order to have a positive effect on the speedrunning community.
Interaktive Systeme können ihre Nutzer bei der Erledigung alltäglicher Aufgaben, sowie beim Lernen unterstützen oder dienen der Unterhaltung. Sie können den Nutzer jedoch auch bei der Lösung eines bestimmten Problems unterstützen, wobei es sich hierbei häufig um sehr komplexe Probleme handelt. Diese lassen sich oftmals nicht klar definieren oder werden erst im Laufe der Entwicklung eindeutig identifiziert. Bei der Untersuchung der Probleme muss aufgrund ihrer Komplexität häufig multiperspektivisch vorgegangen werden, um möglichst alle Dimensionen potentieller Lösungen zu berücksichtigen. Eine Entwicklung in multidisziplinären Teams unter Einbeziehung der Kunden und zukünftiger Nutzer ist daher ratsam. Durch die multidisziplinäre Zusammensetzung von Entwicklungsteams können Kommunikations- und Verstädigungsschwierigkeiten auftreten, die sich aus der spezifischen Fachsprache der Domäne und individuellen Denkmustern ergeben. In dieser Arbeit wurde unter Berüksichtigung prozeduraler und kognitionspsychologischer Aspekte ein Ansatz entwickelt, um den Prozess der Problemlösung im Entwicklungsprozess zu unterstützen. Es wurde untersucht, inwieweit die Verwendung von Kreativitätstechniken in einem frühen Stadium des Entwicklungsprozesses zur Verbesserung des Verständnisses über die Aufgabe, sowie der Kommunikation zwischen den beteiligten Personen geeignet ist.
Plants have certain characteristics which allow them to respond to various environmental conditions, like changes in climate, water loss in the soil, lack of minerals; among others. In some of these so-called traits, the responses to climatic phenomena such as drought can be evidenced through morphological adaptations (spines, succulent tissues, trichomes, among others) or physiological adaptations (regulation of water potential at the cellular level, the concentration of nutrients, etc.)
In certain areas of Brazil such as the Mata Atlântica biome, drought events are increasingly occurring and affecting human activities and the environment, and it is required to understand if tree species with traits adapted to dry conditions are occurring in drought-prone areas. For this reason, it is intended to find out the potential of using morphological functional traits of woody species as indicators of dry conditions in the transition zone of the Atlantic Forest. RJ Brazil.
Therefore, this work was carried out considering a field phase in a drought-prone area known as “Mata de Tabuleiros” or Semideciduous Seasonal Lowland Forest that belongs to the domain of the Mata Atlântica, there were selected morphological traits in order to know which of them can give a hint as drought tolerant traits. On the other side, there was searched in the Rio de Janeiro Botanical Garden JABOT database for species with recorded characteristics related to drought adaptations. For the traits in the field, and the selected species from the database was elaborated a Species Distribution Model SDM in order to know how some climatic variables allow the distribution of species and morphological traits.
As main result there was elaborated a set of trait indicators that can be considered for further analysis in the region; and also the results of the SDM obtained at large scale for the Mata Atlântica for the species selected from the database, and the SDM for the traits analyzed in the field in the Mata de Tabuleiros. Besides that, the consultations with experts in the subject were an important input that allowed to carry out this research. The use of morphological and functional traits is important to understand the interactions between organisms and their environment, in this case, to cope and tolerate a climate phenomenon like drought.
Keywords: Mata de Tabuleiros, Drought tolerance, Morphological traits, Species Distribution Modeling
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
Chagas disease is a parasitic infection endemic to America, caused by the protozoan Trypanosoma cruzi and mainly transmitted to humans by contact with insect species of the Triatominae subfamily (Hemiptera). The disease is known to affect disproportionally rural impoverished human communities where it is known to cause premature death and is considered a social and economic burden. The Mexican government has made important progress into the detection, surveillance, treatment, and prevention of the disease in the last decades, however, Chagas disease has also been reported in areas where it had not been previously reported, and there are still barriers for access to treatment. In the state of San Luis Potosi, the disease is more studied in the east, nevertheless, it has been estimated that the reported cases of the entire state have been underestimated. New approaches to detect Chagas risk areas could help prioritize locations for Chagas disease education and prevention programs, detect cases of the disease in a timely manner, and provide access to the necessary treatments. The objective of this study was to identify risk areas for the transmission of Chagas disease in San Luis Potosí using species distribution modelling to estimate vectors and reservoirs’ distributions. To do this, firstly, important vectors and one reservoir species of T. cruzi were identified by reviewing their reported infection rates in literature and the number of times reported in Mexico. Next, species distribution models were calculated for the chosen vector and reservoir species present in the state. The models were done using the Maxent algorithm. Lastly, the resulting distribution models were combined into a risk map by thresholding the model outputs to produce binary predictions and then performing an overlap spatial analysis. Vector species were found to have suitable areas in 36.08% of the state’s territory while areas suitable for both vectors and reservoir were 7.4% of the state’s total area. While this figure may look small at first glance, the analysis suggests that 30% of the rural population and 52% of the urban population of the state are living in an area suitable for vectors and reservoir and therefore at risk. Species distribution modelling can be a powerful tool for identifying human populations at risk of contracting Chagas disease. In the future, including different species of reservoirs into the analysis could help to discover new risk areas in the state.
While global food production greatly exceeds dietary energy demand, undernutrition remains, and diets largely fail to ensure the health of the population. Agricultural biodiversity is crucial for the world’s food security, but genetic diversity has been degraded. In Mexico, the dietary transition towards processed foods has contributed to malnutrition and a rise of diet-related chronic diseases. Mexico’s indigenous people are conserving and creating valuable plant genetic resources in their swidden milpas and traditional agroforestry systems but remain the country’s most vulnerable population group. The Teenek (or Huastec), an indigenous group that habitat the Huasteca Potosina, a region in north-eastern Mexico cultivate a high diversity of edible plants in their home gardens (solar), milpas, and agroforestry systems (te’lom, or finca). However, migration has been leading to the abandonment of traditional farming in the region.
The objective of this study was to analyse if the managed agricultural biodiversity of the different traditional land use systems contributes to the food security of the farming households in the community of Jol Mom. Food availability and access were investigated. In total, 40 households were surveyed. Dietary patterns were identified through principal component analysis. Informal interviews, semi-structured interviews and participant observation allowed to account for the people’s own perceptions and provided additional insights. Findings showed that traditional Teenek farming systems are the source of a variety of nutritious foods and resulted to be the most important provider of fruits and vegetables. The average production diversity was 34 out of 56 crops, farmers cultivating more than one or two farming systems showed an increase of four and 11 produced species respectively. Production diversity was strongly correlated with food variety in a household’s diet, with an increment of one per 0.85 produced crop. Two main diverging dietary patterns were revealed, a westernized diet relying largely on purchased foods, to which the younger generation was more inclined, and a traditional diet characterized by a high consumption of cultivated products, mostly observed in the older households.
In conclusion, farming households in Jol Mom profit from the agricultural diversity of their production systems, either through the consumption of nutritious foods or by the sale of agricultural products. However, a tendency towards nutrient-poor diets was observed. Increasing agricultural diversity and consumption of locally produced foods might help to fight this trend but would require a valorisation of traditional foods and an appreciation of the contribution of indigenous people’s traditional agriculture to food security.
In der Masterthesis „Sentiment Analyse von informellen Kurztexten im Unternehmenskontext“ werden Ansätze und Methoden aufgezeigt hat mit denen Unternehmen in der Lage sind die Daten aus sozialen Netzwerken zu speichern, zu verarbeiten und schließlich zu analysieren. Praktisch wurde dies anhand des Beispiels mit Amazons Kundendienst auf Twitter mit Hilfe einer Sentiment Analyse aufgezeigt. Die aus der Theorie und den praktischen Ergebnissen gewonnenen Erkenntnisse über Herausforderungen, Nutzen, sowie Methoden zur Umsetzung sind universell in vielen Unternehmen einsetzbar und können wie aufgezeigt unter anderem zu einer Verbesserung der Kundenzufriedenheit führen. Dabei wurde ein lexikonbasietre Ansatz zur Sentimentanalyse benutzt.
Durch den hohen Bedienkomfort und die übersichtliche Darstellungsweise sind berührungsempfindliche Bildschirme eines der wichtigsten Eingabegeräte geworden. Neben den technischen Aspekten wie der Bildwiedergabetechnik, der Touchscreen-Technologie und der Mediensteuerung, wird in dieser Arbeit die Mensch-Computer-Interaktion beschrieben. Ziel der vorliegenden Diplomarbeit ist die Gestaltung einer intuitiven ouchpaneloberfläche zur Steuerung medientechnischer Anlagen, welches am Beispiel eines Videokonferenzraumes beschrieben wird.
Die Idee, Präsentationsstrategien des Einzelhandels bezüglich ihrer Übertragbarkeit auf die Öffentliche Bibliothek zu untersuchen, stammt aus Vergleichen der verschiedenen Darbietungstechniken der Verfasserin. Zudem zeigen Beobachtungen und Gespräche während der Praktika in Bibliotheken, daß sich Benutzer häufig von der Präsentation im Buch- und Fachhandel anregen lassen und die Bibliothek daraufhin mit gezielten Medienwünschen besuchen. Diese Tatsache läßt -neben anderen Faktoren- vermuten, daß die Präsentation im Einzelhandel den Kunden stärker anspricht als die Bestandsdarbietung in der Öffentlichen Bibliothek. Die Gliederung dieser Arbeit orientiert sich an den Kriterien und Begriffen der Präsentationstechniken im Einzelhandel. Dabei wird der Bibliotheksbenutzer oftmals als Kunde bezeichnet, was sich einerseits aus dem thematischen Zusammenhang und andererseits aus dem zunehmenden Dienstleistungsgedanken der Öffentlichen Bibliothek ergibt. Die Verfasserin beabsichtigt mit dieser Formulierung jedoch nicht, den Bibliotheksbenutzer und den Konsumenten im Einzelhandel auf die gleiche Ebene zu stellen. Die bisherigen bibliothekarischen Präsentationskonzepte, insbesondere die Dreigeteilte Bibliothek und die Kabinettstruktur können im folgenden nur bezüglich ihrer Schnittstellen mit den Strategien des Visual Merchandising untersucht werden. Eine ausführliche Darstellung der verschiedenen Konzeptionen würde den Rahmen dieser Arbeit sprengen. Ähnliches gilt für die besonderen Präsentationsanforderungen in der Kinder- und Jugendbibliothek. Deren Bedürfnisse können aufgrund ihres Umfangs im folgenden nur bei einzelnen Aspekten berücksichtigt werden.
In dieser Arbeit wurde die Slow Feature Analysis (SFA) auf ihre Einsatzmöglichkeiten zur Gestenerkennung zu untersuchen. SFA ist ein Lernalgorithmus, der aus den Neurowissenschaften stammt und aus sich schnell verändernden Signalen, die langsamsten Merkmale herausfiltert. Als Gesten werden in diesem Fall beschleunigungsbasierte dreidimensionale Signale des Wii-Controllers von Nintendo betrachtet. Für die Untersuchungen wurden fünf unterschiedliche Gesten von zehn Probanden verwendet. Diese Gesten liegen in Form von mehrdimensionalen Zeitreihen vor, die die Messwerte der Beschleunigungssensoren des Wii-Controllers enthalten. Die Gestendaten wurden mit einer Java-Anwendung aufgezeichnet, mit der die Wiimote über Bluetooth verbunden ist. Für die Untersuchungen wurde eine Implementierung des SFA-Toolkits (MATLAB, SFA-TK) verwendet und die Ergebnisse mit denen anderer gängiger Verfahren verglichen. Untersucht wurde hierzu sowohl die Klassifizierung von Gesten, als auch Ansätze zur Segmentierung, dem Erkennen von Anfang und Ende einer Geste.
Der Einsatz von Gebärden scheitert häufig daran, dass bisher kaum bedarfsgerechte Lernangebote für Eltern mit einem unterstützt kommunizierenden Kind zur Verfügung stehen und das obwohl die digitalen Entwicklungen ein großes Spektrum an medienbasierten Lernarrangements eröffnen. Audiovisuelle Lernvideos könnten hier hilfreich sein, denn sie bieten - ähnlich wie die Gebärdensprachkommunikation - eine simultane Darstellung von auditiven und visuellen Informationen. Des Weiteren sind sie heutzutage in jedem Familienalltag durch mobile Endgeräte präsent und halten für Kinder eine Vielzahl von affektiv-sozialen Erlebnissen bereit, die das Lernen unterstützen.