Refine
Year of publication
Document Type
- Master's Thesis (323) (remove)
Has Fulltext
- yes (323)
Keywords
- Deutschland (15)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Semantic Web (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- Data-Warehouse-Konzept (5)
Faculty
- Fakultät 10 / Institut für Informatik (98)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (50)
- Fakultät 07 / Institut für Medien- und Phototechnik (39)
- Fakultät 10 / Advanced Media Institute (22)
- Fakultät 07 / Institut für Nachrichtentechnik (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Digitale Medien sind fester Bestandteil der Lebenswelten von Kindern und Jugendlichen. Sie wachsen in eine Medienwelt hinein, in der digitale Technologien allgegenwärtig und selbstverständlich sind. Junge Menschen gelten daher als Digital Natives („Digitale Einge-borene“). Dennoch brauchen sie pädagogische Unterstützung, um souverän mit Medien umgehen zu können. Denn die informell erworbenen Fähigkeiten sind oft nicht ausrei-chend, um als kompetentes Medienhandeln gelten zu können. Dabei lässt sich gerade für die Adressat*innen der stationären Erziehungshilfe ein deutlicher Mehrbedarf in der Ausbil-dung von Medienkompetenz ausmachen, da für sie keine angemessene Medienerziehung in der Herkunftsfamilie vorausgesetzt werden darf. Doch in der stationären Kinder- und Jugendhilfe sind digitale Medien und Medienerziehung bisher eher vernachlässigte Themen.
Mithilfe einer quantitativen Befragung von knapp 200 Fachkräften zur Praxis der Medien-ziehung in Einrichtungen der stationären Erziehungshilfe in Deutschland wird dieses bisher wenig erforschte Feld genauer beleuchtet. Im Fokus stehen dabei die eigene Medienkom-petenz, medienbezogene Einstellungen, Qualifikation und Fortbildungsengagement der Fachkräfte sowie die Rahmenbedingungen der Einrichtung und medienerzieherischen Tä-tigkeiten im Arbeitsalltag. Wie die Analyse zeigt, erkennen die meisten Fachkräfte die Be-deutung der Medienerziehung in stationären Hilfen durchaus an, es besteht jedoch ein ho-her Informations- und Fortbildungsbedarf der Fachkräfte rund um medienpädagogische Themen. Denn nur etwa die Hälfte der Befragten hat im Rahmen ihrer beruflichen Ausbil-dung medienpädagogisches Wissen erworben; ein Großteil hat zudem keine entsprechen-den Fortbildungen absolviert. Fehlende medienpädagogische Konzepte sowie die häufig mangelhafte und veraltete technische Ausstattung in den Einrichtungen erschweren die medienerzieherische Praxis der Fachkräfte zusätzlich.
Illegal Gold mining and water quality. A case study of River Offin in the Central Region of Ghana
(2018)
Ghana as a country in the west of Africa is naturally endowed with many rich natural resources some of which includes; Gold, diamond, bauxite, manganese, cocoa, etc. Currently, it’s the second leading producer of gold production in Africa after South Africa. Gold production has produced a lot of benefits to the nation but at the same time contributed to many negativities ranging from pollution (water and air), land degradation, ethnic conflicts and deforestation. Industrial gold mining itself was never a big issue that caused any panic in the country till illegal gold miners “Galamseyers” also commenced operating. The sole objectives of this research were to determine the level of some specific heavy metal (Mercury, Lead, Arsenic and Zinc) concentrations within the Offin River in Dunkwa-on-Offin, Buabenso, Ayanfuri and Nkotumso. Results after the research revealed that, Ayanfuri recorded the highest level of concentrations. Nkotumso followed in that order before Buabenso with Dunkwa-on-Offin recording the least concentrations. It also became clear later that, even though the degree of intensiveness of the illegal mining “Galamsey” operations could have been a main factor for the increased concentrations, another finding was that, towns or communities that recorded higher concentrations throughout the study also showed to be towns that made use of inorganic fertilizers on its farms. The Minerals and mining Act 2006 of Ghana was then analyzed and conclusion was that, though the country has very strong policies regarding illegal mining termed “Galamsey”, there seemed to be institutional loop holes that have not been strong enough to combat illegal mining in the country. In recommending policy directives to improve the river quality, six (6) institutions including the Ministry of Lands and Natural Resources, Ministry of Environment, Science and Technology(MEST), Minerals Commission of Ghana, Environmental Protection Agency, Forestry Commission and the water Resources Commission were identified with detailed recommended roles clearly spelt out for each institution.
Ghana’s timber industries have traditionally focussed on certifying international demand (exports) to the detriment of domestic wood consumption. The legal wood supply to the domestic market has become insufficient to satisfy the growing needs of the local population. This research aims at gaining greater insight into the sources of wood supply to Ghana’s domestic wood markets focusing on the contribution of legal wood by the mainstream timber companies.
The study used random and purposive sampling techniques for selecting the respondents in the domestic wood market, wood producers as well as consumers. Additionally, the views of the respondents were sought through well semi-structured questionnaires. On the other hand, views from key informants, mostly experts, and regulators in Ghana’s wood industry were solicited through interviews.
The result indicates that the formal timber processors supply 73% of their processed lumber to the export market and 27% to the domestic market. The destination of the 27% is both the domestic market and other lumber demanded sectors especially large scale construction and furniture companies. The carving industry on other hand obtains wood directly from the farmers and not necessary from the domestic wood market. At the domestic timber market, dealers receive lumber supply from both formal (16. 7%) and informal (83.3%) sources.
The domestic wood sector provides livelihood support to both wood dealers, consumers as well as artisans. About 70% of respondents (wood dealers) used in the survey have no other source of livelihood for existence except wood business.
Owing to the immense contribution of the domestic wood market to the country’s economy and developmental agenda, a calls for policy review especially 20% supply of formal processed lumber to the domestic market is timely. Additionally, looking at the various interventions to curtail illegal chain saw and the continued market demand, the study believes more regulated measures will better help the nation to grasped huge revenue lost as a result of illegalities to embark on vigorous afforestation programs to sustain the domestic wood market.
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Die vorliegende Diplomarbeit beschäftigt sich mit Senioren in Öffentlichen Bibliotheken und liefert Konzepte für eine zielgruppenspezifische Bibliotheksarbeit. Dabei werden zunächst Begrifflichkeiten geklärt und die physischen und gesellschaftlichen Besonderheiten der Zielgruppe sowie die daraus resultierenden Voraussetzungen für Bibliotheken untersucht. Anschließend werden Empfehlungen für den Bestandsaufbau gegeben und verschiedene Veranstaltungsformen und Aktionen speziell für Senioren vorgestellt. Außerdem wird sowohl auf die aktive Medienvermittlung an heim- oder hausgebundene ältere Menschen eingegangen als auch auf effektive Möglichkeiten der Öffentlichkeitsarbeit und Werbung. Ferner werden Senioren als freiwillige Mitarbeiter in Bibliotheken berücksichtigt. Am Beispiel der Stadtbibliothek Eisenach wird dann die Umsetzung unterschiedlicher Angebote für die besagte Zielgruppe und die Resonanz der Benutzer darauf dargestellt. Abschließend wird ein Ausblick auf die Entwicklung der Zielgruppenorientierung auf Senioren gegeben.
Zusammenfassung
Ansatz der vorliegenden Arbeit ist es, mit Blick auf den in einer großen Variationsbreite existierenden Brauprozess in Brauereien mit unterschiedlichster jährlicher Produktionsmenge und technologischem Stand, die wesentlichen charakteristischen Teilprozessschritte hinsichtlich Ihrer Bedarfe an den thermischen Energieformen Wärme und Kälte, unter Berücksichtigung der jeweils in den Teilprozessen herrschenden Temperaturniveaus, darzustellen. Dies ist in Kapitel 2 sowohl für die in Trocknungsprozessen vorbehandelten feststofflichen Braukomponente Gerstenmalz und Hopfen, sowie für die mit dem Beginn der Erwärmung von frischem Brauwasser startenden Prozesse des Einmaischens, Läuterns, Kochens, Gärens bis hin zur Reifung des Jungbieres, erfolgt. Zunächst wurde das jeweilige Temperaturniveau der einzelnen Phasen des Brauvorgangs, trotz seiner unterschiedlichen verfahrenstechnischen Realisierung, abgesteckt. In Kapitel 5 wird der rein für den Prozess notwendige Wärme- und Kältebedarf, auf der Basis der wesentlichen Zustandsänderungen des entstehenden Produktes, bestimmt. Dabei liegt bei jedem Prozessschritt entweder ein Wärme- oder ein Kältebedarf vor. Die Teilprozesse bilden eine zeitliche Abfolge innerhalb des Brauprozesses, welche die Vorstufen des Bieres nacheinander durchläuft. Die in den Kapiteln 3 zum Thema Kälte und in Kapitel 4 zum Thema Wärme dargestellten Grundlagen, liefern die Grundlagen für das Verständnis, des Verhaltens eines Systems im Umfeld von thermischer Energie und bilden die thermodynamischen Kenntnisse, die für die Beurteilung des Transportes, der Erzeugung und der Speicherung von Wärme und Kälte ergeben. Die Wärme und Kältebedarfe in ihrer zeitlichen Abfolge ermöglichen uns unabhängig von gängigen technischen Realisierungen in der Praxis noch einmal in Kapitel 6 die Frage zu stellen, in wie weit zunächst für jeden einzelnen Teilprozess Energieeffizienzverbesserungen durch Eingriff in den Prozess möglich sind. Die Frage der Heranführung der Wärme bei Wärmebedarf des Produktes an das Produkt hat in der Entwicklung der Brauereitechnologie sehr verschiedenen konstruktiven Ausführungen der Maischgefäße und der Gefäße für die Würzebehandlung geführt. An dieser Stelle ist der Einfluss von Veränderungen, welche den Transport von Wärme verbessern könnten, auch auf das Produkt zu hinterfragen. Die modernen Ausführungen der Maisch- und Würzepfannen sind auf ein produktschonendes Verfahren ausgelegt. Änderungen im Anlagenpark erfordern von jeder Brauerei einen langerprobten Umgang, um trotz der Veränderungen an diesen Prozesshilfsmitteln, dennoch die geschmackliche Qualität des Bieres nicht unerwünscht zu beeinflussen. Die Rückführung der Verdampfungswärme beim Kochen und teilweise Verdampfen der Würze in der Pfanne, in den Prozess, unter Beibehaltung des höchstmöglichen Temperaturniveaus dieser Wärme, ist ein Beispiel aus Kapitel 6 für die Effizienzsteigerung des Teilprozesses. Stärker in den produktbeeinflussenden Teilprozess des Maischens greift die Wahl zwischen den zwei etablierten Wärmezufuhrverfahren, dem traditionellen Dekoktionsverfahren und dem in letzter Zeit deutlich überwiegenden Infusionsverfahren. Hier liegt mit der Wahl des letzteren Verfahrens, innerhalb des Teilprozesses Maischen ein Effizienzsteigerungspotential in der Praxis.
Die teilprozessübergreifende Kopplung der einzelnen Verfahrensschritte erlaubt den Transport von Wärme und Kälte, zwischen diesen Teilprozessen, unter Berücksichtigung der zeitlichen Versetzung der einzelnen Teilprozesse. Damit lassen sich Wärme- und Kältebedarfe untereinander bedienen, wenn eine Speichervorrichtung für Wärme auf den jeweiligen Temperaturniveaus vorhanden ist. Das Temperaturniveau der thermischen Energien ist, wie bereits in der Theorie in den Kapitel 3 und 4 gesehen, wo großer Bedeutung. Denn es geht bei der Steigerung der Energieeffizienz des Gesamtprozesses um die Erhaltung des Potentials der Wärme und Kälte trotz naturbedingter Einbußen, welche die Übertragung der Wärme aufgrund eines notwendigen Temperaturgefälles mit sich bringt. Die Kopplung der Teilprozesse entlang des Brauprozesses führt nach der Analyse in Kapitel 6 dazu, dass Energiezufuhr von außen am heißesten Ort entlang der Prozesskette erforderlich ist, da an dieser Stelle des Würzekochens und Verdampfens innerhalb des Gesamtprozesses keine Wärme auf diesem Temperaturniveau „ausgeliehen“ werden kann. Als Resultat erhält man, das eine Dampferzeugung zur Wärmebereitstellung mit einer Temperatur oberhalb der Siedetemperatur von 100°C erforderlich ist, sowie Kältebereitstellung für die kühlen Prozessschritte Gären und Reifen, bei denen die Aufrechterhaltung einer Temperatur bei knapp 0°C gegenüber der wärmeren Umgebung über eine längere Zeitdauer erforderlich ist.
Hiermit kommt man zu der zweiten Fragestellung aus der Einleitung, welche Szenarien der Bereitstellung der Energie, ggf. in Form einer Selbstversorgung der Brauerei sinnvoll ist.
Energetisch ist die Erzeugung von Wärme auf einem vergleichsweise moderaten Temperaturniveau von benötigten 120 bis 140°C durch die Verbrennung des Primärenergieträgers Erdgas im Dampferzeuger nicht optimal. Es bietet sich an, das Gas bei der Verbrennung einen guten Teil seiner Exergie in Reinform zur Verfügung stellen zu können, in dem es z.B. in einem Gasmotor mechanische Arbeit leisten darf, die über einen Generator zu elektrischem Strom veredelt wird, und die Wärmebedarfe in der Brauerei aus dem Abgas und dem Kühlwasser des Motors gedeckt werden. Diese Form des gasbetriebenen Blockheizkraftwerkes (BHKW) ist in der Industrie seit einiger Zeit weit verbreitet. Der Strom deckt Bedarfe durch Elektromotorenantriebe, Kälteerzeugung mit Kompressions-Kältemaschinen, Lüftungsventilatoren, Pumpen und Beleuchtung. Überschüssiger Strom kann ggf. an den Stromversorger verkauft werden.
Der Wärmebedarf für den Brauprozess, sowie für die Wärme im Flaschen- und Fassreinigungsprozess, sowie zur Pasteurisierung des Bier (bei Rückgewinnung eines Teils der Wärme auf leicht niedrigerem Temperaturniveau) wird durch eine Wärmebedarfsauslegung des BHKW weitestgehend gedeckt. In der Ausführung des BHKW sollte berücksichtigt sein, dass die Wärme in ausreichender Menge bei höherer Temperatur durch optimale Nutzung des heißen Abgases entnommen wird, um auf jeden Fall den Dampfbedarf in der Würzepfanne zu decken.
Aim: European cities are facing heighten hydrological risks as a result of climate change at the same time as ecological degradation has reduced the environmental capacity to absorb and regulate such fluctuations. Climate forecasts predict more intense convective rainfall and winter flood events in the Wupper Basin in Germany, against a background trend of reduced mean rainfall during the summer months. On 14 July 2021 intense convective rainfall fell at points across Western Germany and led to flash floods in the Wupper Basin, many sites were inundated and the Wupper and Dhünn rivers rose to new record highs. Green-blue infrastructure offers strategies to reduce the impacts of hazards at the same time as providing a range of co-benefits. A study was undertaken to find which green-blue interventions will be most effective at reducing the impacts of hydrometeorological hazards for a study area in the west of the Wupper basin. Furthermore, as landscape features are highly influential in hydrology, the study sought to establish which sites within the landscape can provide maximum results from green-blue interventions, with a minimum of change to current land uses.
Region: Europe, peri-urban and rural, undulating, low mountainous landscapes
Methods: Literature findings on observed and projected climate data are summarised and long-term rainfall data from the study area is analysed to confirm rainfall trends. A state-of-the-art review is conducted and summarised to form a toolbox of potential interventions. The most recent hazardous hydrometeorological event is analysed to inform the locational priorities of potential interventions. Landscape features that have the most influence on basin hydrology are identified from the literature. These sites are paired with green-blue interventions that are shown to have the highest potential impact on interception, infiltration, runoff and flooding. A series of spatial analyses are carried out to produce maps detailing location and intervention with high potential to reduce the impact of hydrometeorological hazards in the study area. All of the evidence gathered from the literature analysis is combined in an implementation guide for green-blue interventions in the Wupper Basin.
Results: The hazards caused by the hydrometeorological extremes of flooding and drought are addressed or minimised through the green-blue interventions that increase interception and infiltration and reduce runoff and flooding. Priority locations are identified as the riparian zone with slope ≤15%, hilltop, lower slope and toe slope, all locations with a slope ≥30% and areas with a high topographic wetness index (TWI). A series of spatial analyses were carried out and suggestions made including potential locations for retention or detention areas and ponds, sites for revegetation and potential locations for implementation of shelterbelts/hedgerows, buffer strips, conservation tillage or strip tillage, reduced mowing intensity or frequency and biochar additions. An implementation guide is created that provides a summary of the highest potential green-blue interventions and landscape locations, and a description of the mechanisms involved in addressing the hydrometeorological hazards.
Keywords: Green-blue interventions, hydrometeorological hazard reduction, Wupper Basin hydrology
Policy measures are essential tools for the transition from fossil fuels to renewable energy sources in the electricity generation. Feed-in tariffs (FITs) are the most used policy for support of renewable technologies globally. Nevertheless, Ecuador phased-out FITs in 2016 and adopted auctions in 2015. Ecuador’s implementation of auctions reflects an approach with little relation to practices in other countries and without a technology-specific design. On the other hand, Germany demonstrates a long trajectory in policy-making with vast experience in FITs. Moreover, in 2017 Germany adopted auctions as the official policy to support renewable projects with a scope larger than 750 kW. However, FITs are still in use and complement auctions.
This thesis analyses and compares the country-specific contexts where these policies are implemented through the lens of a multi-level perspective framework. As a result, the most important success factors in Germany have been identified: long-term planning, institutional continuity, legislative stability and principally an actively participating society, which is environmentally aware. Obstacles for the transition in Ecuador are institutional discontinuity, legislative inconsistency, the lack of long-term planning and absence of society as actors of the transition. Due to Germany’s pioneering role plus the successful growth of renewable sources during the last twenty years, their policy implementations appear desirable to adopt in other contexts. Therefore, a prospective transferability of the auction policy from Germany to Ecuador is additionally analyzed.
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Die zweischichtige Organisationsform mit einer zentralen Hochschulbibliothek und vielen finanziell und personell unabhängigen Institutsbibliotheken war die vorherrschende Struktur an traditionsreichen deutschen Universitäten bis in die 1960er Jahre. Heutzutage müssen Bibliotheken aufgrund der aktuellen Finanzkrise im öffentlichen Sektor jedoch mit immer knapperen Ressourcen und weniger Personal ein immer umfangreicheres Dienstleistungsspektrum für eine ständig wachsende Benutzerzahl bewältigen. Vor dieser Entwicklung zeichnet sich nun deutlich das Strukturdefizit zweischichtiger Bibliothekssysteme ab: statt auf nutzerorientierte Informations- und Kompetenzzentren stößt man auf ineffektiven Ressourceneinsatz, ein beziehungsloses Nebeneinander der Geschäftsprozesse von Zentrale und dezentralen Einheiten und eine ungenügende Literatur- und Informationsversorgung. Da die geforderten Dienstleistungen angesichts der finanziellen Restriktion nur noch eingeschränkt erbracht werden können, wird die Wettbewerbsfähigkeit zweischichtiger Bibliothekssysteme blockiert. Zweischichtige Bibliothekssysteme können durchaus modern und leistungsfähig sein, wenn sie im Sinne einer funktionalen Einschichtigkeit die Literaturversorgung kooperativ betreiben. Die Hauptkriterien für funktional einschichtige Systeme sind die organisatorische und räumliche Fusion von kleineren Institutsbibliotheken zu größeren Einheiten, die Kooperation und Koordination bei der Literaturerwebung sowie die Dokumentation des Bestands in einem universitären Gesamtkatalog. Die Strategien für eine Umsetzung der Strukturreform sind dabei jedoch polymorph. Divergierende Interessen in der Hochschullandschaft, bibliothekspolitische Gesichtspunkte sowie hochschulrechtliche Rahmenbedingungen erschweren und individualisieren den Entwicklungsprozess jeweils. Im Vergleich zu den Erfahrungen aus den zweischichtigen Hochschulbibliothekssystemen in Marburg und Freiburg mit der Strukturreform wird in dieser Master´s Thesis eine Bestandsaufnahmen der aktuellen Gegebenheiten und Entwicklungen an der Universitäts- und Stadtbibliothek Köln (USB Köln) auf dem Weg zur funktionalen Einschichtigkeit skizziert.
"Wie motiviere ich meine Mitarbeiter?" (Hatzius, 1996, S. 45) lautet die häufige Frage von Bibliothekaren in leitenden Positionen. "Gibt es eine spezifische bibliothekarische Personalführung?" (Krompholz, 1987, S.353) ist ein weiterer Aspekt, denn zum einen gelten auch in Bibliotheken die Grundelemente betrieblicher Arbeit, zum anderen gehören Bibliotheken meist dem öffentlichen Dienst an und sind zudem Dienstleistungsbetriebe. Aus dieser etwas schwierig zu definierenden Position ergibt sich unter anderem die Frage, ob das komplexe Thema der Mitarbeitermotivation, wie auch viele andere Elemente der Betriebswirtschaftslehre, derzeit ausreichende Bedeutung in Bibliotheken und in bibliothekarischen Ausbildungsstätten erfährt. Weiterhin soll im Rahmen dieser Arbeit betrachtet werden, ob eine leistungsbezogene Vergütung innerhalb des BAT bzw. des Beamtenrechtes, dem die meisten Bibliotheken angeschlossen sind, als Motivator überhaupt herangezogen werden kann.
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.