Refine
Year of publication
- 2014 (18) (remove)
Document Type
- Part of a Book (9)
- Master's Thesis (5)
- Bachelor Thesis (3)
- Contribution to a Periodical (1)
Language
- German (18) (remove)
Has Fulltext
- yes (18)
Keywords
- Biogas (2)
- Kläranlage (2)
- Lagerung (2)
- Abbauprozesse (1)
- Acrylsäure (1)
- Aerob (1)
- Akute Toxizität (1)
- Artefakt (1)
- Autofokus (1)
- Automatisierung (1)
Faculty
- Angewandte Naturwissenschaften (F11) (5)
- Fakultät 10 / Institut für Informatik (4)
- Fakultät 10 / :metabolon Institut (3)
- Fakultät 07 / Institut für Medien- und Phototechnik (2)
- Fakultät 02 / Cologne Institute of Conservation Sciences (1)
- Fakultät 10 / Advanced Media Institute (1)
- Fakultät 10 / Institut für Automation & Industrial IT (1)
- Zentrum für Lehrentwicklung (1)
Der vorliegende Bericht ist ein ökonomischer Vergleich
verschiedener Varianten der Überschussschlamm
(ÜSS)-Verwertung der Sickerwasseranlage
auf der Deponie des Entsorgungszentrums Leppe
mit dem aktuellen Entsorgungsweg. Als Vergleichsparameter
werden die Jahresvollkosten herangezogen.
Der derzeitige Entsorgungsweg über die kommunale
Kläranlage wird hierbei als Basisvariante
betrachtet und mit alternativen Behandlungs- und
Verwertungsmöglichkeiten verglichen. Hierbei werden
verschiedene Varianten mit unterschiedlichen
Ausführungen der Komponenten Lagerung, Entwässerung,
Trocknung, Transport und Verbrennung
gegenübergestellt.
In der vorliegenden Arbeit wurde eine HPLC-Methode mit der dazugehörigen Probenvorbereitung entwickelt, welche es ermöglicht Essigsäure und Acrylsäure in komplexen Matrizes wie Deponiesickerwasser zu bestimmen. Hauptaugenmerk lag dabei auf der Matrixreduzierung, die bei 96 % lag. Die Wiederfindung der Analyten Essigsäure und Acrylsäure liegt bei der beschriebenen Methode bei ca. 100 %.
Biogas, mit geringen Konzentrationen an Methan, entsteht unter anderem bei verschiedenen industriellen Prozessen. Wegen der Umweltschädlichkeit des Methans gilt es dessen Eintrag in die Umwelt zu vermeiden.
Das Ziel des vorgestellten Projektes war die Überprüfung eines umweltfreundlichen Verfahrens zur Reduzierung des Methans durch methanotrophe Bakterien. Die einzelnen Batchversuche liefen über 15 Stunden und zeigten eine starke Reduzierung des Methans von 18 auf 1 Vol.-%.
Messverfahren zur Erfassung der potenziellen Ökotoxizität in anaeroben und aeroben Abbauprozessen
(2014)
In der vorliegenden Ausarbeitung werden die etablierten Verfahren zur Bestimmung der Ökotoxizität erläutert, mit dem Ziel weitere Bioaktivitätsparameter zur Charakterisierung der biologischen Prozesse bei der Forschungsgemeinschaft :metabolon zu integrieren.
Die Erfassung der Toxizität beruht bei den vorgestellten Methoden auf der Messung der Lumineszenz, der Sauerstoffverbrauchsrate oder der Zellzahl. In Abhängigkeit von den Eigenschaften der Schadstoffe sowie der biologischen Betriebsbedingungen der Behandlungsstufen ist die Auswahl der bestmöglichen Methode erforderlich.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
Für einen aktiven Gewässerschutz ist es sinnvoll,
Immissionen aus Kläranlagen und Kanalsystemen
in einem Gesamtkonzept zu betrachten und somit
das Abwasserabflusssystem ganzheitlich zu bewirtschaften.
Schließlich belasten diese Einleitungen
die Gewässer sowohl in hydraulischer wie auch in
stofflicher Hinsicht.
Die gewonnenen Erfahrungen aus fünfjähriger Forschungsarbeit
stellen die Grundlage für einen erfolgreichen
Technologietransfer auf weitere Kanal und
Kläranlagen-Systeme dar. Dies ist ein wesentliches
Ziel des wissenschaftlichen Netzwerkes, das
im Rahmen von :metabolon aufgebaut wird.
Die Messung des Chemischen Sauerstoffbedarfs (CSB) im Zulauf von Kläranlagen ist von zentraler Bedeutung für die Optimierung und Regelung der Abbauprozesse der Nitrifikation und Denitrifikation. Allerdings ist die Messung des CSB bislang sehr zeitaufwändig und kostenintensiv, da 24-Stunden Mischproben im Labor nasschemisch analysiert werden müssen.
Online-Messtechnik in Form von spektroskopischen Messgeräten (10.000 ̶ 20.000 €) oder nass-chemischen Online-Analysatoren (> = 50.000 €) sind insbesondere für kleine und mittlere Kläranlagen aus Kostengründen keine Alternative.
Eine extrem kostengünstige Alternative ist der im Folgenden beschriebene Softsensor für CSB im Kläranlagenzulauf, der auf Basis von Standardmesstechnik im Zulauf von kleinen und mittleren kommunalen Kläranlagen sowie mit zusätzlicher Online-Messtechnik für Trübung sowie Ammonium- und Nitratstickstoff (NH4-N und NO3-N) die aktuelle CSB-Konzentration bestimmt. Zur Entwicklung des Softsensors werden Regressionsmethoden aus dem Bereich des Machine Learning eingesetzt. Die Ergebnisse einer Entwicklungs- und Testphase an der Kläranlage Rospe in Gummersbach zeigen, dass die Werte des Softsensors sehr gut mit den Originaldaten übereinstimmen. Die Korrelationswerte beim Vergleich mit CSB-Messungen liegen bei der Regression mit Support Vector Regression bei 0,98 mit einem RSME von 2,45 mg/l.
Die Regelung heutiger, industriell genutzter Biomasse-Feuerungsanlagen erfolgt meistens über fest eingestellte Parameter. Bei Veränderungen des Brennstoffs dienen visuelle Beobachtungen der Mitarbeiter als Basis der Neueinstellung dieser Parameter. Das Ziel der Forschung besteht in der Optimierung solcher Regelungen durch den Einsatz von Kamerasystemen in Kombination mit einer automatisierten Regelung, die auf Basis von Flammenbild-Analysen funktioniert. Ein solches System wäre auch unabhängig von der Art des Brennstoffs.
Mit Hilfe der Inline-ATR-FTIR-Spektroskopie im mittelinfraroten (MIR) Spektralbereich lassen sich gleich mehrere Prozessparameter für Biogasanlagen in Echtzeit und ohne Probenahme verfolgen. Die gemessenen Absorptionsspektren geben simultan Aufschluss über den Gehalt an flüchtigen organischen Säuren (FOS), die alkalische Pufferkapazität (TAC) und die Ammoniumstickstoff-Konzentration (NH4-N).
Dabei können unter Verwendung intelligenter Datenanalyseverfahren, wie z.B. Partial Least Squares (PLS), Regression oder Support Vector Regression (SVR) sowie in kontrollierter Laborumgebung, Vorhersagefehler (RMSECV) von 0.372 g/l (FOS: R2=0.971), 0.336 g/l (TAC: R2=0.996) und 0.171 g/l (NH4-N: R2=0.992) im Falle der PLS, bzw. 0.386, 0.259 und 0.110 g/l für die SVR erreicht werden.
Erste Inline-Messungen in einer Biomüllvergärungsanlage zeigen, dass die erwarteten Absorptionsbanden auch im Prozessbetrieb wiedergefunden werden können. Sie unterliegen jedoch einem ausgeprägten Temperatureinfluss, der bei der Quantifizierung dieser Prozessdaten berücksichtigt werden muss. Weiterführende Untersuchungen sind notwendig, um die Inline-Tauglichkeit des Messsystems unter Beweis zu stellen.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
Vorlesungsnotizen, Präsentationen, To-do-Listen – und vielleicht auch der eine oder andere Schmierzettel: Wie Studierende lernen, bleibt Dozenten oft verborgen. In Lernportfolios sammeln Studierende solche Dokumente dagegen systematisch. Davon können auch Lehrende profitieren – wenn sie ihre Kursteilnehmer gut anleiten.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.