Refine
Year of publication
Document Type
- Master's Thesis (323) (remove)
Has Fulltext
- yes (323)
Keywords
- Deutschland (15)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Semantic Web (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- Data-Warehouse-Konzept (5)
Faculty
- Fakultät 10 / Institut für Informatik (98)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (50)
- Fakultät 07 / Institut für Medien- und Phototechnik (39)
- Fakultät 10 / Advanced Media Institute (22)
- Fakultät 07 / Institut für Nachrichtentechnik (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Die zweischichtige Organisationsform mit einer zentralen Hochschulbibliothek und vielen finanziell und personell unabhängigen Institutsbibliotheken war die vorherrschende Struktur an traditionsreichen deutschen Universitäten bis in die 1960er Jahre. Heutzutage müssen Bibliotheken aufgrund der aktuellen Finanzkrise im öffentlichen Sektor jedoch mit immer knapperen Ressourcen und weniger Personal ein immer umfangreicheres Dienstleistungsspektrum für eine ständig wachsende Benutzerzahl bewältigen. Vor dieser Entwicklung zeichnet sich nun deutlich das Strukturdefizit zweischichtiger Bibliothekssysteme ab: statt auf nutzerorientierte Informations- und Kompetenzzentren stößt man auf ineffektiven Ressourceneinsatz, ein beziehungsloses Nebeneinander der Geschäftsprozesse von Zentrale und dezentralen Einheiten und eine ungenügende Literatur- und Informationsversorgung. Da die geforderten Dienstleistungen angesichts der finanziellen Restriktion nur noch eingeschränkt erbracht werden können, wird die Wettbewerbsfähigkeit zweischichtiger Bibliothekssysteme blockiert. Zweischichtige Bibliothekssysteme können durchaus modern und leistungsfähig sein, wenn sie im Sinne einer funktionalen Einschichtigkeit die Literaturversorgung kooperativ betreiben. Die Hauptkriterien für funktional einschichtige Systeme sind die organisatorische und räumliche Fusion von kleineren Institutsbibliotheken zu größeren Einheiten, die Kooperation und Koordination bei der Literaturerwebung sowie die Dokumentation des Bestands in einem universitären Gesamtkatalog. Die Strategien für eine Umsetzung der Strukturreform sind dabei jedoch polymorph. Divergierende Interessen in der Hochschullandschaft, bibliothekspolitische Gesichtspunkte sowie hochschulrechtliche Rahmenbedingungen erschweren und individualisieren den Entwicklungsprozess jeweils. Im Vergleich zu den Erfahrungen aus den zweischichtigen Hochschulbibliothekssystemen in Marburg und Freiburg mit der Strukturreform wird in dieser Master´s Thesis eine Bestandsaufnahmen der aktuellen Gegebenheiten und Entwicklungen an der Universitäts- und Stadtbibliothek Köln (USB Köln) auf dem Weg zur funktionalen Einschichtigkeit skizziert.
"Wie motiviere ich meine Mitarbeiter?" (Hatzius, 1996, S. 45) lautet die häufige Frage von Bibliothekaren in leitenden Positionen. "Gibt es eine spezifische bibliothekarische Personalführung?" (Krompholz, 1987, S.353) ist ein weiterer Aspekt, denn zum einen gelten auch in Bibliotheken die Grundelemente betrieblicher Arbeit, zum anderen gehören Bibliotheken meist dem öffentlichen Dienst an und sind zudem Dienstleistungsbetriebe. Aus dieser etwas schwierig zu definierenden Position ergibt sich unter anderem die Frage, ob das komplexe Thema der Mitarbeitermotivation, wie auch viele andere Elemente der Betriebswirtschaftslehre, derzeit ausreichende Bedeutung in Bibliotheken und in bibliothekarischen Ausbildungsstätten erfährt. Weiterhin soll im Rahmen dieser Arbeit betrachtet werden, ob eine leistungsbezogene Vergütung innerhalb des BAT bzw. des Beamtenrechtes, dem die meisten Bibliotheken angeschlossen sind, als Motivator überhaupt herangezogen werden kann.
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.