Refine
Year of publication
Document Type
- Master's Thesis (296)
- Bachelor Thesis (127)
- Study Thesis (30)
- Article (7)
- Working Paper (6)
- Conference Proceeding (3)
- Part of a Book (2)
- Report (2)
- Book (1)
- Other (1)
Keywords
- Sozialarbeit (18)
- Germany (17)
- Deutschland (15)
- Öffentliche Bibliothek (15)
- USA (14)
- Bibliothek (13)
- Informationskompetenz (12)
- Soziale Arbeit (12)
- Market Research (11)
- XML (11)
- Datenbank (10)
- E-Learning (9)
- Export Opportunities (9)
- EOS (8)
- ImageJ (7)
- Informatik (7)
- Internet (7)
- Semantic Web (7)
- Benutzerfreundlichkeit (6)
- Geschlecht (6)
- Information Retrieval (6)
- Usability (6)
- Visualisierung (6)
- Agile Softwareentwicklung (5)
- Data-Warehouse-Konzept (5)
- Electronic Commerce (5)
- Java (5)
- Kooperation (5)
- Marketing (5)
- Migration (5)
- Softwareentwicklung (5)
- Umfrage (5)
- World Wide Web 2.0 (5)
- Android (4)
- Big Data (4)
- Bildqualität (4)
- Bildverarbeitung (4)
- Data Mining (4)
- Framework <Informatik> (4)
- Hochschulbibliothek (4)
- Image Processing (4)
- Neue Medien (4)
- Partizipation (4)
- Portal <Internet> (4)
- Probekörper <Werkstoffprüfung> (4)
- Suchmaschine (4)
- Sustainability (4)
- Auskunftsdienst (3)
- Behinderung (3)
- Benutzerschulung (3)
- Bibliothek 2.0 (3)
- Bibliothekssystem (3)
- Cloud Computing (3)
- Data Ware House (3)
- Datenbanksystem (3)
- Datenverarbeitung (3)
- Detektion (3)
- Ecosystem services (3)
- Elektronische Bibliothek (3)
- Erweiterte Realität <Informatik> (3)
- Evaluation (3)
- Flucht (3)
- Frau (3)
- GIS (3)
- Gamification (3)
- Gefahrenabwehr (3)
- Hadoop (3)
- Handy (3)
- Kind (3)
- Künstliche Intelligenz (3)
- Medienpädagogik (3)
- Medizinische Informatik (3)
- Mensch-Maschine-Kommunikation (3)
- Modulationsübertragungsfunktion (3)
- Multimedia (3)
- MySQL (3)
- Nachhaltigkeit (3)
- Neuronale Netze (3)
- NoSQL-Datenbanksystem (3)
- ORACLE <Datenbanksystem> (3)
- Online-Katalog (3)
- Online-Tutorial (3)
- Ontologie <Wissensverarbeitung> (3)
- Pandemie (3)
- Photographie (3)
- Projekt (3)
- Qualitätsmanagement (3)
- REST <Informatik> (3)
- Requirements engineering (3)
- Rio de Janeiro (3)
- Semantische Relation (3)
- Smartphone (3)
- Social Software (3)
- Software Engineering (3)
- Tone Mapping (3)
- Trinkwasser (3)
- Verwaltung (3)
- Ökosystem (3)
- 3D (2)
- API (2)
- Algorithmus (2)
- Android <Systemplattform> (2)
- App <Programm> (2)
- Assessment (2)
- Augmented Reality (2)
- Automatische Indexierung (2)
- Autonomer Roboter (2)
- Benutzeroberfläche (2)
- Bibliothekar (2)
- Bibliothekspolitik (2)
- Bild (2)
- Business Intelligence (2)
- Business-to-Business-Marketing (2)
- COVID-19 (2)
- Cloud (2)
- Comic (2)
- Computer Supported Cooperative Work (2)
- Design (2)
- Dienstgüte (2)
- Digitalkamera (2)
- Dojo (2)
- EJB (2)
- Ecuador (2)
- Elektronisches Publizieren (2)
- Empirische Sozialforschung (2)
- Enterprise JavaBeans (2)
- Erneuerbare Energien (2)
- Estland (2)
- European Union (2)
- Europäische Union (2)
- Export Opportunity Survey (2)
- Export opportunity survey (2)
- Extraktion (2)
- FHIR (2)
- FPGA (2)
- Fair Trade (2)
- Feuerwehr (2)
- Field programmable gate array (2)
- Flüchtling (2)
- Food security (2)
- Foucault (2)
- Frauen (2)
- Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung (2)
- Gender (2)
- Geoinformationssystem (2)
- Geschichte (2)
- Gesundheitstelematik (2)
- Graphdatenbank (2)
- Großbritannien (2)
- HDR (2)
- HTTP (2)
- Health Care (2)
- Hough-Transformation (2)
- Hypertext (2)
- IT-Compliance (2)
- Informationsmanagement (2)
- Informationssystem (2)
- Integration (2)
- Interkulturalität (2)
- Internationalität (2)
- Internet der Dinge (2)
- IoT (2)
- Java <Programmiersprache> (2)
- Java Server Faces (2)
- Java Server Pages (2)
- JavaScript (2)
- Jordan (2)
- Jugend (2)
- Jugendarbeit (2)
- Kalibrieren <Messtechnik> (2)
- Katastrophenschutz (2)
- Kindeswohl (2)
- Kleinkind (2)
- Kommunikation (2)
- Konstanzprüfung (2)
- Kontext (2)
- Konzeption (2)
- Kostenschätzung (2)
- Kundenmanagement (2)
- LINUX (2)
- Lebensbewältigung (2)
- Lebensversicherung (2)
- Lernmanagementsystem (2)
- Lernplattform (2)
- Lernprogramm (2)
- Leseförderung (2)
- Lichtfarbe (2)
- MTF (2)
- Mammographie (2)
- Market Study (2)
- Market research (2)
- Market study (2)
- Medienkompetenz (2)
- Menschenrecht (2)
- Mobile Applikation (2)
- Mobile Computing (2)
- Mobile Telekommunikation (2)
- Modellierung (2)
- Neuronales Netz (2)
- Nichtstaatliche Organisation (2)
- NoSQL (2)
- Norm (2)
- Nutzung (2)
- ORACLE 8.0 (2)
- Obdachlosigkeit (2)
- Ontologie (2)
- Ontology (2)
- Open Source (2)
- Oracle (2)
- Oracle 12c (2)
- Oracle Applications (2)
- PAS 1054 (2)
- PHP (2)
- Peacebuilding (2)
- Polarisation (2)
- Problemlösen (2)
- Process Management (2)
- Professionalität (2)
- Prüfkörper (2)
- Python (2)
- Python <Programmiersprache> (2)
- Qualität (2)
- REST (2)
- RTLIL (2)
- Radiologie (2)
- Rauschunterdrückung (2)
- Rechnernetz (2)
- Relationale Datenbank (2)
- Relationales Datenbanksystem (2)
- Renewable energy (2)
- Resilienz (2)
- Restaurierung (2)
- Rettungswesen (2)
- Rückversicherung (2)
- SAP (2)
- SAP HANA (2)
- SAP R/3 (2)
- Schlagwortnormdatei (2)
- Schnittstelle (2)
- Schulbibliothek (2)
- Schule (2)
- Selbstbestimmung (2)
- Semantische Modellierung (2)
- Semantisches Netz (2)
- Sicherheit (2)
- Social Media (2)
- Software (2)
- Softwarearchitektur (2)
- Soziale Software (2)
- Sozialökologie (2)
- Spatial Frequency Response (2)
- Streaming <Kommunikationstechnik> (2)
- Studierende (2)
- Synthese (2)
- Teaching Library (2)
- Text Mining (2)
- Thesaurus (2)
- Torus (2)
- Twitter (2)
- Twitter <Softwareplattform> (2)
- UAV (2)
- Urheberrecht (2)
- Versicherungsmathematik (2)
- Virtuelle Fachbibliothek (2)
- Virtuelle Realität (2)
- Web (2)
- Web Services (2)
- Web log (2)
- Webdesign (2)
- Website (2)
- Weiterbildung (2)
- Weißabgleich (2)
- Wissenschaftliche Bibliothek (2)
- Wohlfahrtsstaat (2)
- Wohnungslosigkeit (2)
- World Wide Web (2)
- Yosys (2)
- constancy test (2)
- digital mammography (2)
- eLearning (2)
- .NET (1)
- 116117 (1)
- 3D reconstruction (1)
- 3D-Character (1)
- 3D-Charakter (1)
- 3D-Rekonstruktion (1)
- 4-dihydroisocoumarin (1)
- 8-Punkt-Algo-rithmus (1)
- 8-point algorithm (1)
- ADT (1)
- AIS (1)
- APNS (1)
- ASP.NET (1)
- AST (1)
- Ablaufanalyse (1)
- Abrechnungs-Datenträger <Kassenärztliche Bundesvereinigung> (1)
- Accesibility (1)
- ActionScript (1)
- Adaptation (1)
- Adobe Flex 3.0 (1)
- Aerial survey (1)
- Aerob (1)
- Agenten (1)
- Agrarökologie (1)
- Agricultural business (1)
- Agrobiodiversity (1)
- Agroecology (1)
- Ajax <Informatik> (1)
- Aktienanalyse (1)
- Algorithm (1)
- Altenheim (1)
- Alter (1)
- Althoff (1)
- Amazon (1)
- Ameisenalgorithmus (1)
- Analyse (1)
- Anforderungsspezifizierung (1)
- Angehörige (1)
- Angenieux (1)
- AngularJS (1)
- Animation (1)
- Anorganischer Kohlenstoff (1)
- Anpassung (1)
- Anthroposophie (1)
- Anwenderbefragung (1)
- Anwenderfreundlichkeit (1)
- Anwendung (1)
- Apache <Programm> (1)
- Apache Struts (1)
- App (1)
- Applications (1)
- Approximation (1)
- Arbeitsablauf / Management (1)
- Arbeitsform (1)
- Arbeitsmotivation (1)
- Arbeitsort (1)
- Arbeitssystem (1)
- Arbeitswelt (1)
- Architektur (1)
- Architektur <Informatik> (1)
- Archivierung (1)
- Argentinien (1)
- Armut (1)
- Arnold-und-Richter-KG München (1)
- Artificial caterpillars (1)
- Arzt (1)
- Arzt / Honorar (1)
- Assistenzsystem (1)
- Atlassian (1)
- Atmospheric emissions (1)
- Auctions (1)
- Audio (1)
- Aufnahmehelfer (1)
- Augenfolgebewegung (1)
- Ausdrucksmittel (1)
- Ausgrenzung (1)
- Auskunftsverbund (1)
- Authenticity (1)
- Authentizität (1)
- Autofokus (1)
- Automatische Kategorisierung (1)
- Automatische Spracherkennung (1)
- Automatische Text-Extraktion (1)
- Autorensystem (1)
- Außerschulische Jugendbildung (1)
- Avatar (1)
- Awareness (1)
- BGB (1)
- BLoC Pattern (1)
- BPEL (1)
- BPMN (1)
- BRDF (1)
- Bachelorarbeit (1)
- Back Projection (1)
- Barockliteratur (1)
- Baskenland (1)
- Baumwolle (1)
- Baumwollgewebe (1)
- Beamer (1)
- Befragungsentwicklung (1)
- Behavioral research (1)
- Behindertenhilfe (1)
- Behindertenrechtskonvention (1)
- Behördenbibliothek (1)
- Beleuchtungsmodelle (1)
- Belichtungsreihe (1)
- Benchmarking (1)
- Bending Words (1)
- Benutzer (1)
- Benutzerforschung (1)
- Benutzerführung (1)
- Benutzerorientierung (1)
- Benutzerrückmeldung (1)
- Benutzerschnittstelle (1)
- Beratung (1)
- Bereitschaftsdienst (1)
- Berufsbild (1)
- Berufsethik (1)
- Beschleunigungsdatenstruktur (1)
- Beschreibungssprache (1)
- Bestandserschließung (1)
- Beteiligung (1)
- Betreuungsrecht (1)
- Betriebssicherheit (1)
- Betriebswirtschaftslehre (1)
- Bewegung (1)
- Bewegungsschätzung (1)
- Bewegungsunschärfe (1)
- Beweisrahmen (1)
- Bewältigung (1)
- BiblioMondo (1)
- Bibliographie (1)
- Bibliometric Analysis (1)
- Bibliotheksbestand (1)
- Bibliothekskatalog (1)
- Bibliothekskooperation (1)
- Bibliothekspersonal (1)
- Bibliotheksverwaltung (1)
- Bidirektionale Reflektanzverteilungsfunktion (1)
- Bilanzierung (1)
- Bilateral Filtering (1)
- Bilddatenbank (1)
- Bilderbuch (1)
- Bildfehler (1)
- Bildgestaltung (1)
- Bildkodierung (1)
- Bildkomposition (1)
- Bildungsarbeit (1)
- Bildwand (1)
- Bildwiedergabesysteme (1)
- BioTrade (1)
- Biodiversity conservation (1)
- Bioethik (1)
- Bioethik-Konvention (1)
- Biographieforschung (1)
- Biological corridor (1)
- Bioluminescence (1)
- Biolumineszenz (1)
- Biomedizin (1)
- Bioreactor (1)
- Blindeninformatik (1)
- Blockchain (1)
- Blog readers (1)
- Blogging (1)
- Blue Carbon Potential Index (1)
- Blue carbon (1)
- Bodeneigenschaften (1)
- Bono orgánico (1)
- Boolesche Algebra (1)
- Bounding Volume Hierarchy (1)
- Brand (1)
- Brasilien (1)
- Brauerei (1)
- Brauereiprozess (1)
- Brazilian Atlantic forest (1)
- Breast cancer resistance protein (1)
- Brennweite (1)
- Bridge <Kommunikationstechnik> (1)
- Brustkrebs (1)
- Burning (1)
- Business Process Execution Language (1)
- Business process analysis (1)
- Bürger (1)
- Bürgerbeteiligung (1)
- C# (1)
- C2DM (1)
- CFD (1)
- CIE L*a*b* (1)
- CORBA (1)
- CRM (1)
- Calibration (1)
- Camera calibration (1)
- Cancer chemotherapy (1)
- Canned Corn (1)
- Captcha (1)
- Carbono inorgánico (1)
- Care (1)
- Care-Arbeit (1)
- Caritas (1)
- Carl Zeiss Jena GmbH (1)
- Caro orgánico (1)
- Cascaded Hough Transform (1)
- Cascading Style Sheets (1)
- Cassandra (1)
- Cg (1)
- CgFx (1)
- Chat-Analyse (1)
- Chat-Analysis (1)
- Chat-Communication (1)
- Chat-Kommunikation (1)
- Chatten <Kommunikation> (1)
- Chemotherapie (1)
- China (1)
- Chitin Deacetylase (1)
- Christians (1)
- Circle recognition (1)
- Clasificación de la cobertura de suelo (1)
- Client-Server-Konzept (1)
- Climate Change (1)
- Climate finance (1)
- Climate resilience, (1)
- Climate-related risks (1)
- Clinical Trials (1)
- Cloudrun (1)
- Clud Computing (1)
- Cluster-Analyse (1)
- Co-Authorship Network (1)
- Cocoon (1)
- Code Review (1)
- Codequalität (1)
- Colombia (1)
- Colour Constancy (1)
- Colour of the Illumination (1)
- Comics (1)
- Communication (1)
- Comprehensive Index for School Resilience (1)
- Compression (1)
- Computer Aided Detection (1)
- Computer Generated Hologram (1)
- Computer generierte Hologramme (1)
- Computeranimation (1)
- Computergestütztes Assistenzsystem (1)
- Computersicherheit (1)
- Computerspiel (1)
- Connectivity (1)
- Connectivity conservation (1)
- Conservación de la conectividad (1)
- Constraint <Künstliche Intelligenz> (1)
- Constraint Satisfaction Problem (1)
- Consumer-Kameras (1)
- Consumo sustentable de alimentos (1)
- Content monetisation (1)
- Context (1)
- Context Adaptation (1)
- Context Framework (1)
- Context Modeling (1)
- Context Reasoning (1)
- Context Service (1)
- Context awareness (1)
- Context-Awareness (1)
- Controlling (1)
- Controlling / Operative Planung (1)
- Cooperation System (1)
- Coping strategies (1)
- Coriolis Massemesser Zweiphasenströmung (1)
- Coriolis mass flow metering (1)
- Coriolis-Durchflussmessgerät (1)
- Coriolis-Kraft (1)
- Corporate social responsibility (1)
- Corredor biológico (1)
- Correlation (1)
- Costa Rica (1)
- Costs of water risks (1)
- Coworking (1)
- Coworking Space (1)
- Creative Commons (1)
- Creative Cooperation (1)
- Credibility (1)
- Crowdsourcing (1)
- Cybernetics (1)
- Cyproconazole (1)
- Código civil (1)
- DGM (1)
- DICOM (1)
- DIMDI (1)
- DIN EN ISO 9001 (1)
- DIN EN ISO 9241 (1)
- DQE (1)
- DRR (1)
- DSC (1)
- DSGVO (1)
- DTD (1)
- DUH (1)
- DVB <Rundfunktechnik> (1)
- Dada (1)
- Dairy systems (1)
- Dark Patterns (1)
- Data Lake (1)
- Data Lakehouse (1)
- Data Mesh (1)
- Data Warehouse (1)
- Data collection (1)
- Data lake (1)
- Data protection (1)
- Database (1)
- Datamining (1)
- Datenbankbetreiber (1)
- Datenbankentwurf (1)
- Datenintegration (1)
- Datenschutz (1)
- Datenschutz-Grundverordnung (1)
- Datenspeicherung (1)
- Datenstruktur (1)
- Datenteleportation (1)
- Datenvisualisierung (1)
- Debevec and Malik (1)
- Deep Learning (1)
- Deepfake (1)
- Definition (1)
- Deforestation and forest degradation (1)
- Deforestationst (1)
- Degradation (1)
- Demanda de comercio justo (1)
- Demanda de comida orgánica (1)
- Demokrataiepädagogik (1)
- Deployment (1)
- Desalination (1)
- Design Process (1)
- Design Thinking (1)
- Design and applied arts index (1)
- Design systems (1)
- Designtheorie (1)
- Desinformation (1)
- Detection (1)
- Deuschland (1)
- Deutsche Unfallhilfe (1)
- Deutsches Sprachgebiet (1)
- Deutschland - Niederlande (1)
- Deutschland / Bundesamt für Strahlenschutz (1)
- Deutschland / Bürgerliches Gesetzbuch (1)
- DevOps (1)
- Deviation (1)
- Dezentralisation (1)
- Dibenzyltoluen (1)
- Didaktik (1)
- Dienstleistungsbetrieb (1)
- Dienstleistungsmarketing (1)
- Dietary patterns (1)
- Digital Still Camera (1)
- Digital competences (1)
- Digital mammography (1)
- Digitale Auskunft (1)
- Digitale Bibliothek (1)
- Digitale Mammographie (1)
- Digitale Photographie (1)
- Digitale Technologien (1)
- Disaster Risk Reduction (1)
- Disease Management (1)
- Diskriminierung (1)
- Diskursanalyse (1)
- Display Techniques (1)
- Distortion (1)
- Distributed Working Situation (1)
- Dojo Toolkit (1)
- Domänenmodell (1)
- Domänenspezifische Programmiersprache (1)
- Dosiergerät (1)
- Drahtloses Sensorsystem (1)
- Dreidimensionale Rekonstruktion (1)
- Drohne <Flugkörper> (1)
- Drone (1)
- Drought (1)
- Drought impacts (1)
- Dubletten (1)
- Dublettensuche (1)
- Due diligence (1)
- Dynamikkompression (1)
- Dürre (1)
- Düsseldorf (1)
- Düsseldorf / Stadtbüchereien Düsseldorf (1)
- E-Business (1)
- E-Government (1)
- E-Health (1)
- E-Mail (1)
- E-Mail-Marketing (1)
- E-Portfolio (1)
- E-Voting (1)
- E-commerce fraud investigation (1)
- EAI (1)
- EDB (1)
- EDIFACT (1)
- EEG (1)
- EIT (1)
- ER-Modell (1)
- ERP (1)
- Ebert (1)
- Echtzeit (1)
- Echtzeitkommunikation (1)
- Eco-DRR (1)
- Eco-labeling experiment (1)
- Ecosystem Services (1)
- Ecosystem goods (1)
- Ecosystem service valuation (1)
- Ecosystem services trade-offs (1)
- Education Continuity (1)
- Egypt (1)
- Ehrenamt (1)
- Eigengesichter (1)
- Einsatzanzahl (1)
- Einsatzdauer (1)
- Einsatzmittel (1)
- Einschichtiges Bibliothekssystem (1)
- Einwanderer (1)
- Electricity prices (1)
- Electricity supply (1)
- Electricity theft (1)
- Electronic Comerce (1)
- Electronic Government (1)
- Elektroantrieb (1)
- Elektronische Wahl (1)
- Elektronischer Datenaustausch (1)
- Eliza (1)
- Elternarbeit (1)
- Elternbildung (1)
- Embedded Matlab (1)
- Emoticons (1)
- Endoskopie (1)
- Energetische Sanierung (1)
- Energieeffizienz (1)
- Energiesprong (1)
- Energieverbrauch (1)
- Energiewende (1)
- Energy transition (1)
- Engagement (1)
- Enterprise Information Portal (1)
- Enterprise-Resource-Planning (1)
- Entsaltzung (1)
- Entwaldung (1)
- Entwicklung (1)
- Entwicklungsevaluation (1)
- Entwurf (1)
- Environmental flow (1)
- Environmental governance (1)
- Environmental monitoring (1)
- Environmental protection (1)
- Environmental risks (1)
- Epipolar Geometry (1)
- Epipolargeometrie (1)
- Equiangular (1)
- Equilateral (1)
- Erfolgsfaktor (1)
- Erkundung (1)
- Ernte (1)
- Eruopäische Union (1)
- Erwartungsmanagement (1)
- Erziehung (1)
- Erziehungshilfe (1)
- Estonia (1)
- Estudio de comportamiento (1)
- Ethiopian (1)
- Ethnische Minderheit (1)
- Ethnographie (1)
- Ethnotourismus (1)
- Etihkkodex (1)
- European Foundation for Quality Management (1)
- Europäische Konföderation der Oberrheinischen Universitäten (1)
- Evakuierung (1)
- Event Information Table (1)
- Experimento con eco-etiquetas (1)
- Expertenbefragung (1)
- Explorative Suche (1)
- Export Opportunity Survey; Germany; Market Research; Market Study; USA; Organic Oats (1)
- Extraction (1)
- Eye-Tracking (1)
- F. oxysporum (1)
- Fachblog (1)
- Fachkräftebefragung (1)
- Fachportal (1)
- Fachreferent (1)
- Fachverband für Strahlenschutz (1)
- Facialislähmung (1)
- Fahrgastinformation (1)
- Fahrgemeinschaft (1)
- Fairer Handel (1)
- Fairtrade demand (1)
- Fake News (1)
- Faktendatenbank (1)
- Falschmeldung (1)
- Familialisierung (1)
- Familienbeziehung (1)
- Farberscheinung (1)
- Farbkorrektur (1)
- Farbmetrik (1)
- Farbraumtransformation (1)
- Farbstoff (1)
- Farbstoffe (1)
- Farbwiedergabe (1)
- Farmers perceptions, (1)
- Favela (1)
- Fazialisparese (1)
- Feasibility (1)
- Feed-in tariff (1)
- Feminismus (1)
- Fernsehsender (1)
- Feuchtgebiet (1)
- Film (1)
- Filmobjektive (1)
- Fixed-Angle (1)
- Flachdetektor (1)
- Flexibilisierung (1)
- Flooding (1)
- Fluchtpunktdetektion (1)
- Flugkörper (1)
- Fluoroscopy (1)
- Fluoroskopie (1)
- Flutter (1)
- Flüssiger Organischer Wasserstoffträger (1)
- Flüssigkristallanzeige (1)
- Fokus (1)
- Forest fragments (1)
- Forest management (1)
- Formale Begriffsanalyse (1)
- Formalerschließung (1)
- Formgebung (1)
- Forschungsstelle Rückversicherung (1)
- Fotopolymer (1)
- Fotoportal (1)
- Fouriertransformation (1)
- Fractal Dimension (1)
- Fragenerstellung (1)
- Fragmentación del hábitat (1)
- Fraktale Dimension (1)
- Framework (1)
- Frauenbewegung (1)
- Frauenhaus (1)
- Freisetzung (1)
- Frequenz (1)
- Frequenzanalyse (1)
- Fresnel Lens (1)
- Fresnellinse (1)
- Freundschaft (1)
- Friedenssicherung (1)
- Friedrich (1)
- Friedrich Adolf (1)
- Frontend (1)
- Frontex (1)
- Frühe Hilfen (1)
- Frühpädagogik (1)
- Fujinon (1)
- Fundamental Matrix (1)
- Fundamental-Matrix (1)
- Funktionssicherheit (1)
- Fähigkeit (1)
- Führung (1)
- Fürsorge (1)
- GDPR (1)
- GUI (1)
- Gaarder (1)
- Gabor wavelets (1)
- Gasbildung (1)
- Gastarbeiter (1)
- Gateway (1)
- Gebrauchstauglichkeit (1)
- Gebärdensprache (1)
- Gebäude (1)
- Gebäudesanierung (1)
- Gebühr (1)
- Gebührenmodell (1)
- Gehörloser (1)
- Geld (1)
- Gemeinwohl (1)
- Genderkompetenz (1)
- Geodaten (1)
- Geografisches Informationssystem (1)
- Geospatial Analysis (1)
- Gerechtigkeit (1)
- German education system (1)
- Geschlechterforschung (1)
- Geschlechternorm (1)
- Geschlechterordnung (1)
- Geschlechterrollen (1)
- Geschäftsfähigkeit (1)
- Gesetz zur Verbesserung der Hospiz- und Palliativversorgung (1)
- Gesichtserkennung (1)
- Gesichtslähmung (1)
- Gestaltung (1)
- Gestenerkennung (1)
- Gewalt (1)
- Gewalt / Sexualverhalten (1)
- Gewebephantom (1)
- Gewerkschaft (1)
- Ghana (1)
- Glanzdetektion (1)
- Glanzkorrektur (1)
- Glasobjekt (1)
- Glaubwürdigkeit (1)
- GmbH (1)
- Gold mining (1)
- Goldabbau (1)
- Goldbergbau (1)
- Google Cloud Firestore (1)
- Google Glass (1)
- Gouvernementalität (1)
- Graph Query Expressiveness (1)
- Graph Theory (1)
- Graphendatenbanken (1)
- Graphik (1)
- Graphische Darstellung (1)
- Great Britain (1)
- Grenze (1)
- Grenzüberschreitende Kooperation (1)
- Grey Scale Display Function (GSDF) (1)
- Grounded theory (1)
- Groupware (1)
- Grundschule (1)
- Gyroskop (1)
- Gärrest (1)
- HCD (1)
- HCI (1)
- HDFS (1)
- HDRI (1)
- HDTV (1)
- HTML (1)
- HTML 5.0 (1)
- HTML5 (1)
- HVAC (1)
- Habitat fragmentation (1)
- Hadoop Distributed File System (1)
- Handel (1)
- Hardwareentwicklung (1)
- Harvest (1)
- Hauptausrüstungsgegenstände (1)
- Hauptkomponentenanalyse (1)
- Hauptspeicher (1)
- Haustechnik (1)
- Hegemoniale Männlichkeit (1)
- Hegemonie (1)
- Heilpflanzen (1)
- Helferpersönlichkeit (1)
- Helfersyndrom (1)
- Herstellung (1)
- Heterogenes System (1)
- Hexad (1)
- Hierarchisches Graph Matching (1)
- High Dynamic Range (1)
- High Dynamic Range Imaging (1)
- Hilfe (1)
- Hispanistik (1)
- Historische Syntax (1)
- Hochschulbibliotheken (1)
- Hochschule (1)
- Hochschulorganisation (1)
- Hofmannsthal (1)
- Holographic Optical Element (1)
- Holographie (1)
- Honnef (1)
- Hospiz (1)
- Hough Transform (1)
- Hugo von (1)
- Human Interaction Proof (1)
- Humanitarian Aid (1)
- Humanitäre Hilfe (1)
- Hybrid (1)
- Hydraulischer Antrieb (1)
- Hydrological modelling (1)
- Hydrologie (1)
- Hymexazol (1)
- Hyperlink (1)
- Hypermedia (1)
- Hörgeschädigter (1)
- IC Library 2.0 (1)
- IIC-Bus (1)
- IKM-Struktur (1)
- IMK (1)
- ISO 13407 (1)
- ISO 9000 (1)
- ISO 9001: 2000 (1)
- ISO-Norm (1)
- Illicit coca crops (1)
- Illumination (1)
- Image Coding (1)
- Image J (1)
- Image Quality (1)
- Image acquisition (1)
- Image processing (1)
- Immobilienmarkt (1)
- Immobilienwirtschaft (1)
- In Memory (1)
- In-Memory-Datenbank (1)
- Index (1)
- Indexsuche (1)
- Indigene Bevölkerung (1)
- Indigenous communities (1)
- Industrial water management (1)
- Informatik> (1)
- Informatikstudium (1)
- Information seeking (1)
- Information und Dokumentation (1)
- Information-Retrieval-System (1)
- Informationsaggregation (1)
- Informationsaustausch (1)
- Informationsdienst (1)
- Informationsgüter (1)
- Informationsintegration (1)
- Informationsqualität (1)
- Informationsverhalten (1)
- Informationsvermittlung (1)
- Informationswirtschaft (1)
- Informationsökonomie (1)
- Infrastruktureinrichtung (1)
- Inhaltsanalyse (1)
- Inhaltserschließung (1)
- Inklusion (1)
- Innovation Coaching (1)
- Innovation Space (1)
- Innovationscoaching (1)
- Innovationscontrolling (1)
- Innovationsraum (1)
- Inorganic carbon (1)
- Installation (1)
- Institut für Medienkommunikation (1)
- Instruktionsdesign (1)
- Integrated Management (1)
- Interactive information retrieval (1)
- Interaktion (1)
- Interaktives Fernsehen (1)
- Interdisziplinarität (1)
- Interessenverband (1)
- Interferenz-Filter (1)
- Interkulturelle Sozialarbeit (1)
- International computer and information literacy study (1)
- Internationale Kommission für Strahlenschutz (1)
- Internationality (1)
- Internet of Things (1)
- Internetwahl (1)
- Interoperability (1)
- Intersektionalität (1)
- Intersexualität (1)
- Invertibility (1)
- Investitionskosten (1)
- JAVA Enterprise (1)
- JAVAEE (1)
- JAX (1)
- JAXP (1)
- JSF (1)
- JSP (1)
- JSR (1)
- Japan (1)
- Java 2 Enterprise Edition (1)
- Java Enterprise (1)
- Java Media Framework API (1)
- Java Message Service (1)
- Java Specification Request (1)
- Java Swing (1)
- Java-JVC/Swing (1)
- Java/JDBC (1)
- JavaDoc (1)
- JavaEE (1)
- Jira (1)
- Jostein / Sofies verden (1)
- Jugendbibliothek (1)
- Jugendbibliothek freestyle (1)
- Jugendhilfe (1)
- Jugendkultur (1)
- Jugendliche (1)
- Jugendmedien (1)
- Jugendmedienschutz (1)
- Jugendzentrum (1)
- Junge (1)
- Jungenarbeit (1)
- Just Sanitation Transition Framework (1)
- Just Transition (1)
- KBV (1)
- KOBV (1)
- KRITIS (1)
- KVDT (1)
- KVK (1)
- Kalibrierung (1)
- Kamerakalibrierung (1)
- Kameraprofile (1)
- Kaskadierte Hough-Transformation (1)
- Kassenärztliche Bundesvereinigung (1)
- Katalanistik (1)
- Katalog (1)
- Katalogisierung (1)
- Katalonien (1)
- Kategorisierung (1)
- Kernkraftwerk (1)
- Kind / Sozialarbeit (1)
- Kinder- und Jugendhilfe (1)
- Kinderbuch (1)
- Kindergarten (1)
- Kinderschutz (1)
- Kindheit (1)
- Kindheitspädagogik (1)
- Kinect (1)
- Kinetic model (1)
- Kirchliches Arbeitsrecht (1)
- Klassifikation (1)
- Klebstoff (1)
- Klebstofftests (1)
- Kleinkindpädagogik (1)
- Kleintierröntgen (1)
- Klima (1)
- Klimakatastrophe (1)
- Klimaänderung (1)
- Knoten (1)
- Kognitionsstile (1)
- Kognitive Psychologie (1)
- Kollaboration (1)
- Kollaboration <Informatik> (1)
- Kolumbien (1)
- Komfort (1)
- Kommunale Verwaltungsreform (1)
- Kommune (1)
- Kommunikationspolitik (1)
- Kommunikationsprotokoll (1)
- Kommunikationssoftware (1)
- Kommunikationsstruktur (1)
- Kommunikationsverhalten (1)
- Kompass (1)
- Komposition (1)
- Kompositionsbetrachtung (1)
- Kompression (1)
- Konfession (1)
- Konfigurationsraum (1)
- Konservierung (1)
- Konsolidierung (1)
- Konsumentenbefragung (1)
- Kontextabhängig (1)
- Kontextadaptiv (1)
- Kontextbezogenes System (1)
- Kontextwahrnehmung (1)
- Kontrast (1)
- Konturgenerierung (1)
- Konzept (1)
- Kooperationsforschung (1)
- Koordinatentransformation (1)
- Koordinierter Bestandsaufbau (1)
- Kostenschätzmethoden (1)
- Kostenstruktur (1)
- Kotlin (1)
- Kotlin <Programmiersprache> (1)
- Krankenhaus (1)
- Krankenversicherung (1)
- Kreativität (1)
- Kreiserkennung (1)
- Kriminalität (1)
- Krise (1)
- Krisenmanagement (1)
- Krisenmangement (1)
- Kritische Infrastrukturen (1)
- Kritische Kriminologie (1)
- Kryptosystem (1)
- Kulturpolitik (1)
- Kultursponsoring (1)
- Kulturvergleich (1)
- Kundenbefragung (1)
- Kundenbindung (1)
- Kältebedarf (1)
- Köln (1)
- Köln / Universitäts- und Stadtbibliothek (1)
- Kölner Forschungsstelle Rückversicherung (1)
- LCD (1)
- LEGO MindStorms (1)
- LHT (1)
- LOHC (1)
- La Picasa Lagoon (1)
- Laboratorium (1)
- Lagerung (1)
- Land cover classification (1)
- Land degradation (1)
- Land grabbing (1)
- Land use and land cover change (1)
- Landnahme (1)
- Landnutzung (1)
- Landtag (1)
- Landwirt (1)
- Langton’s ant (1)
- Laplace-Pyramide (1)
- Laplacian-Pyramid (1)
- Lapped Transform (1)
- Laser assisted (1)
- Layered Architecture (1)
- Lebensbedingungen (1)
- Lebenslanges Lernen (1)
- Lebensmittelhandel (1)
- Lebensstil (1)
- Lebensversicherungmathematik (1)
- Lebensweltorientierung (1)
- Lebenswirklichkeit (1)
- Leica (1)
- Leihverkehr (1)
- Leistungsbewertung (1)
- Leitfadeninterview (1)
- Leitungsverluste (1)
- Lernort (1)
- Lernschwierigkeit (1)
- Lerntechnik (1)
- Lernvideo (1)
- Leseinteresse (1)
- Lesekompetenz (1)
- Lesemotivation (1)
- Lesen (1)
- Leseverhalten (1)
- Level-Set-Methoden (1)
- Library and Information Science (1)
- Linguistik (1)
- Linguistische Analyse (1)
- Linkage Descriptor (1)
- Linked Data (1)
- Linked Open Data (1)
- Live-Streaming (1)
- Lizenz (1)
- Log -Daten-Analyse (1)
- Logit-Modell (1)
- Lokales Wissen (1)
- Lotus Notes (1)
- Lotus Notes 5.0 (1)
- Lullismus (1)
- Luxemburg (1)
- MANET-Projekt (1)
- MATLAB (1)
- MCI (1)
- MESMIS (1)
- MIZAR (1)
- MIttelmeer (1)
- MPEG 2 (1)
- MPEG2 (1)
- MPEG2-Elementarstrom (1)
- Machbarkeitsstudie (1)
- Machrressourcen (1)
- Machtanalyse (1)
- Machtressourcenansatz (1)
- Magnet-Resonanz-Tomographie (1)
- Mailing-Liste (1)
- Mammography (1)
- Management (1)
- Mangrove (1)
- Mapping (1)
- MariaDB (1)
- Marker recognition (1)
- Marker-Erkennung (1)
- Marketing / Strategisches Management (1)
- Marketing-Mix (1)
- Marktübersicht (1)
- Martin (1)
- Maske (1)
- Mass transfer (1)
- Massendaten (1)
- Masterstudium (1)
- Matina (1)
- Maya Forest (1)
- Meat market, Germany (1)
- Mediatisierung (1)
- Mediator (1)
- Medical Knowledge (1)
- Medicinal plants (1)
- Mediendidaktik (1)
- Medienerziehung (1)
- Mediensteuerung (1)
- Medizinische Anwendungen (1)
- Medizinische Datenbank (1)
- Medizinische Fachinformation (1)
- Medpilot (1)
- Mehragentensystem (1)
- Mehrfamilienhaus (1)
- Mensch-Computer Interaktion (1)
- Menschenwürde (1)
- Merchandising (1)
- Metadaten (1)
- Methan (1)
- Methode (1)
- Methode 2M (1)
- Micro frontends (1)
- Micro-hydroforming (1)
- Micro-tube drawing (1)
- Micro-tube testing (1)
- Micro-tubes (1)
- MicroStrategy (1)
- Mikrosystemtechnik (1)
- Milcherzeuger (1)
- Minderjährige (1)
- Minderjährigkeit (1)
- Minors (1)
- Mischgewebe (1)
- Mitigation (1)
- Mobile (1)
- Mobile Augmented Reality (1)
- Mobile Endgeräte (1)
- Mobile Verfahren (1)
- Mobile Web (1)
- Mobiler Roboter (1)
- Mobiles Lernen (1)
- Mobility (1)
- Mobilität (1)
- Mobilkommunikation (1)
- Mobiltelefon (1)
- Model (1)
- Models (1)
- Modernisierung (1)
- Modulation Transfer Function (1)
- Monochromator (1)
- Motioncontroller (1)
- Movement (1)
- Multiagent (1)
- Multidimensional (1)
- Multidisciplinarity (1)
- Multidrug resistance (1)
- Multidrug-Resistenz (1)
- Multiple Exposures (1)
- Museumsbibliothek (1)
- Music (1)
- Musik (1)
- Muster <Struktur> (1)
- Musteranlage (1)
- Mädchen (1)
- Männlicher Blick (1)
- Männlicher Habitus (1)
- NDCs (1)
- NGOs (1)
- NMMO (1)
- NMR-Tomographie (1)
- NPS (1)
- NRW (1)
- Nahverkehr (1)
- Naproche (1)
- Narzissmus (1)
- Nationale Minderheit (1)
- Nelder-Mead Method (1)
- Nelder-Mead-Verfahren (1)
- Neo4j (1)
- Netzbiographie (1)
- Netzwerk (1)
- Neues Steuerungsmodell (1)
- Newsletter (1)
- Nichtlineare Diffusion (1)
- Nichtverbale Kommunikation (1)
- Niederlande (1)
- Nikolaj Zinkin (1)
- Nil (1)
- Nile river (1)
- Node.js (1)
- NodeJS (1)
- Noise (1)
- Noise Reduction (1)
- Noisereduction (1)
- Nonlinear Diffusion (1)
- Nordrhein-Westfalen (1)
- Normalisierung (1)
- Northwest Rio de Janeiro (1)
- Notation <Klassifikation> (1)
- Notfall (1)
- Notfallvorsorgeplanung (1)
- Notruf (1)
- Notrufnummer (1)
- Notvorsorge (1)
- Nutzungseignung (1)
- OASIS (1)
- OCR (1)
- OFDM (1)
- OPAC (1)
- OR-Mapper (1)
- ORACLE Web Application Server (1)
- ORMOCER-G (1)
- ORSA (1)
- OSI (1)
- OWL <Informatik> (1)
- Obdachlosenhilfe (1)
- Object Triple Mapping (1)
- Objektivcharakterisierung (1)
- Objektivparameter (1)
- Objektorientierung (1)
- Offene Kinder- und Jugendarbeit (1)
- Offline-Schnitt (1)
- Online Spiele (1)
- Online training (1)
- Online trust (1)
- Online-Recherche (1)
- Online-Schulung (1)
- Open Data (1)
- Open Innovation (1)
- Open Resource Planning (1)
- Operations Management (1)
- Optical Character Recognition (1)
- Optical Imaging (1)
- Optical motion capture (1)
- Optimierung (1)
- Optische Bildgebung (1)
- Optische Zeichenerkennung (1)
- Optisches Motion Capture (1)
- Oracle Corporation (1)
- Oracle Portal 3.0 (1)
- Organic Black Tea (1)
- Organic Chickpeas (1)
- Organic Coconut Oil (1)
- Organic Coffee (1)
- Organic Tofu (1)
- Organic carbon (1)
- Organic cotton (1)
- Organic demand (1)
- Organic rye (1)
- Organisation (1)
- Organisationsstruktur (1)
- Organischer Kohlenstoff (1)
- Orthomosaic (1)
- Ortsauflösung (1)
- Outsourcing (1)
- P-Glykoprotein (1)
- P-glycoprotein (1)
- P. Infestans (1)
- PAS (1)
- PET (1)
- PL/SQL (1)
- PMD (1)
- PV (1)
- PVS (1)
- PaaS <Systemplattform> (1)
- Palliativversorgung (1)
- Pandemieschutzmaske (1)
- Papierrestaurierung (1)
- Parallaxe (1)
- Parser (1)
- Pattern (1)
- Pdr5 (1)
- Peasant family farming, (1)
- Pedro Carbo (1)
- Peer-Kultur (1)
- Peer-to-Peer (1)
- People (1)
- Performance (1)
- Perl <Programmiersprache> (1)
- Perl/TK (1)
- Personalauswahl (1)
- Personaleinsatz (1)
- Personalentwicklung (1)
- Personnel (1)
- Persuasive Technology (1)
- Persuation (1)
- Persönlichkeit (1)
- Persönlichkeitsstruktur (1)
- Pest control (1)
- Pflegedienstleistung (1)
- Pflegeheim (1)
- Phantom (1)
- Phasen (1)
- Philosophie (1)
- Photoakustische Spektrometrie (1)
- Photogrammetry (1)
- Photostudio (1)
- Phrase (1)
- Phraseographie (1)
- Phraseologie (1)
- Physical Facilities (1)
- Pisa <Test> (1)
- Pixelträgheit (1)
- Plastische Deformation (1)
- Platform-as-a-Service (PaaS) (1)
- Platzierung (1)
- Podcasting (1)
- Polarization (1)
- Policy Comparison (1)
- Politische Bildung (1)
- Politische Talkshow (1)
- Polizei (1)
- Polyethylenterephthalate (1)
- Polygonal Chain (1)
- Polygonzug (1)
- Polynomial cancellation coding (1)
- Portfolio <Pädagogik> (1)
- Porträtphotographie (1)
- Postgres (1)
- Pragmatik (1)
- Prediction (1)
- Preispolitik (1)
- Privacy (1)
- Privatrecht (1)
- Privatsphäre (1)
- Produktmarketing (1)
- Produktplatzierung (1)
- Produktpolitik (1)
- Professionsverständnis (1)
- Prognose (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programmierung (1)
- Programminformation (1)
- Projection Screen (1)
- Projektmanagement (1)
- Promotion (1)
- Propiedades de suelo (1)
- Prostitution (1)
- Proteine (1)
- Protestbewegung (1)
- Protocol (1)
- Protokoll (1)
- Prototyp (1)
- Prototyping (1)
- Provenienzstempel (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozesskette (1)
- Prozessmanagement (1)
- Prozessoptimierung (1)
- Prozessorganisation (1)
- Präsentation (1)
- Präsenzveranstaltung (1)
- Pseudo-randomness (1)
- Psychosocial problems (1)
- Psychosoziale Belastung (1)
- Psychosoziale Probleme (1)
- Psychosoziale Versorgung (1)
- Public Health Game (1)
- Public Relations (1)
- Publish-Subscribe-System (1)
- Pull-Prinzip (1)
- Pure Data (1)
- Push-Prinzip (1)
- Pädagogik (1)
- QoS (1)
- Quad-Baum (1)
- Quadtree (1)
- Qualitative Forschung (1)
- Quality of Service (1)
- Qualitätskriterien (1)
- Qualitätsmanagementsystem (1)
- Qualitätsmaß (1)
- Qualitätsstandard (1)
- Quantencomputer (1)
- Quantenphysik (1)
- Quantentechnologie (1)
- Quantenteleportation (1)
- Quantenverschränkung (1)
- Quantification of noise (1)
- Quantum Annealing (1)
- Quantum Computing (1)
- Quichua (1)
- Quiz (1)
- Q’eqchi’ Maya (1)
- R <Programm> (1)
- RDBMS (1)
- RDBS (1)
- RED Epic (1)
- RESTful (1)
- RFID (1)
- ROLAP (1)
- Radioaktive Strahlung (1)
- Radiographie (1)
- Radiological Display-Devices (1)
- Radiological Guide (1)
- Radiologische Bildwiedergabesysteme (1)
- Rappid Application Developments (RAD) (1)
- Rassismus (1)
- Raumauflösung (1)
- Raumdaten (1)
- Raumwinkel (1)
- Rauschquantifizierung (1)
- Rauschreduktion (1)
- Raytracing (1)
- Real-Time Communication (1)
- Real-time rendering (1)
- Realtime (1)
- Recherchekompetenz (1)
- Rechercheportfolio (1)
- Rechercheverhalten (1)
- Rechnernetz / Betriebssystem (1)
- Rechnungslegung (1)
- Rechtsform (1)
- Rechtsfähigkeit (1)
- Rechtsradikalismus (1)
- Rechtsvergleich (1)
- Recruiting (1)
- Recycling (1)
- Redaktionssystem (1)
- Reference Service Policy Statement (1)
- Reflexion <Physik> (1)
- Reflexive Interkulturalität (1)
- Reformpädagogik (1)
- Regional development (1)
- Registration (1)
- Regressionsanalyse (1)
- Religion (1)
- Remote sensing (1)
- Rendering (1)
- Reorganisation (1)
- Research Protocols (1)
- Researchers Corner (1)
- Resilience (1)
- Resilience assessment (1)
- Resources (1)
- Resozialisierung (1)
- Responsive Web Design (1)
- Responsive Webdesign (1)
- Rettungsdienst (1)
- Rettungsingenieurwesen (1)
- Rhein-Sieg-Kreis (1)
- Rice yield (1)
- Rich Internet Application (1)
- Risikoanalyse (1)
- Risikomanagement (1)
- Riss (1)
- Rissverklebung (1)
- Roberta (1)
- Roboter (1)
- Rohr (1)
- Router (1)
- Rufnummernpräferenz (1)
- Rundfunk (1)
- Rundfunkbegriff (1)
- Rural Sanitation Approaches (1)
- Russische Avantgarde (1)
- Räumliche Frequenzantwort (1)
- Räumliches Sehen (1)
- Rückprojektion (1)
- S/4HANA (1)
- SAP/R3 (1)
- SDG7 (1)
- SDI (1)
- SEO (1)
- SFR_Edge (1)
- SFR_Siemens (1)
- SIMULINK (1)
- SOAP (1)
- SOAP <Programmiersprache> (1)
- SPI (1)
- SQL (1)
- STM (1)
- SWD (1)
- SWL (1)
- Sacred plants (1)
- Sanfter Tourismus (1)
- Sanierung <Bauwesen> (1)
- Schatten (1)
- Scheme <Programmiersprache> (1)
- Schlagwortkettensuche (1)
- Schlagwortregister (1)
- Schleichwerbung (1)
- Schlichtungsgespräch (1)
- Schneider-Kreuznach (1)
- Schnittliste (1)
- Scholarly Communication (1)
- School Resilience (1)
- School WaSH (1)
- Schrettinger (1)
- Schulung (1)
- Schutzmaske (1)
- Schwarmintelligenz (1)
- Schweden (1)
- Schwerhöriger (1)
- Screencast (1)
- Scrum <Vorgehensmodell> (1)
- Segmentierung (1)
- Selva Maya (1)
- Semantik (1)
- Semantik-Web (1)
- Semantisches Datenmodell (1)
- Semesterapparat (1)
- Semistrukturiert (1)
- Senioren (1)
- Sensemaking (1)
- Sensibilisierungstrainings (1)
- Sentiment-Analyse (1)
- Sentimentanalyse (1)
- Sequenz (1)
- Serbia (1)
- Serbien (1)
- Serielles Sanieren (1)
- Serious game (1)
- Server (1)
- Service-Engineering (1)
- Serviceorientierte Architektur (1)
- Session Beans (1)
- Severe plastic deformation (1)
- Sexarbeit (1)
- Sexual harrassment (1)
- Sexualität (1)
- Shader <Informatik> (1)
- Shadows (1)
- Shape measurement (1)
- Shared Information Spaces (1)
- Shared Service Center (1)
- Sharing economy (1)
- Sicherheitsanalyse (1)
- Sicherheitskontext (1)
- Sicherheitsmaßnahmen (1)
- Sichtung (1)
- Simulcast (1)
- Sinnkonstitution (1)
- Situationsanalyse (1)
- Skull-Stripping (1)
- Slantlet Transform (1)
- Slow Feature Analysis (1)
- Slum (1)
- Small Animal Radiology (1)
- Smart Home (1)
- Smart home (1)
- Social Media Analyse (1)
- Social Network (1)
- Social Network Analysis (1)
- Social Tagging (1)
- Socio-ecological system (1)
- Socio-ecological systems (1)
- Sofies Welt (1)
- Software Radio (1)
- Software-Architektur (1)
- Software-Ergonomie (1)
- Software-Qualitätsmanagement (1)
- Software-Qualitätssicherung (1)
- Softwareergonomie (1)
- Softwareproduktion (1)
- Soil properties (1)
- Solar PV (1)
- Solar energy (1)
- Solar panel detection (1)
- Solvency II (1)
- Sonnenenergie (1)
- Sorgearbeit (1)
- Soziale Bewegung (1)
- Soziale Bibliotheksarbeit (1)
- Sozialpsychiatrie (1)
- Sozialpädagik (1)
- Sozialpädagogik (1)
- Sozialpädagogische Betreuung (1)
- Soziolinguistik (1)
- Soziologie (1)
- Sozioökonomisches Panel (1)
- Spatial Light Modulator (1)
- Spatial distribution (1)
- Spatial multicriteria analysis (1)
- Spektrale Empfindlichkeit (1)
- Spektralempfindlichkeit (1)
- Spezialbibliothek (1)
- SpiderSearch (1)
- Sponsoring (1)
- Sportmedizin (1)
- Sprache (1)
- Spracherwerb (1)
- Sprachpolitik (1)
- Sprachsteuerung (1)
- Spring <Framework (1)
- Stakeholder (1)
- Stakeholders (1)
- State-Management (1)
- Statische Analyse (1)
- Statistik (1)
- Steiner (1)
- Stellenausschreibung (1)
- Stempelfarben (1)
- Sterbebegleitung (1)
- Sterben (1)
- Stereo-3D (1)
- Stereobild (1)
- Stereobildpaar (1)
- Stereopsis (1)
- Stereoskopie (1)
- StillImage (1)
- Strawberries (1)
- Streaming Video (1)
- Struktur (1)
- Strukturanalyse (1)
- Struts (1)
- Student (1)
- Studie (1)
- Studiengang Hospitality Management (1)
- Studiengang Tourism Management (1)
- Suchen und Finden (1)
- Suchmaschinen (1)
- Suchmaschinenoptimierung (1)
- Suchprozess (1)
- Sucht (1)
- Sugarcane (1)
- Sustainable business (1)
- Sustainable consumption (1)
- Sustainable food consumption (1)
- Svelte (1)
- Synergie (1)
- Synergism (1)
- Syntax (1)
- Synthetisches Hologramm (1)
- Systemplanung (1)
- Systemtheorie (1)
- TOPCALL (1)
- TP4 (1)
- Tacrolimus (1)
- Tailwind CSS (1)
- Task (1)
- Task definition (1)
- Task description (1)
- Taskbeschreibung (1)
- Taskdefinition (1)
- TeXmacs (1)
- Teaching (1)
- Technische Hochschule Köln (1)
- Test Automatisierung (1)
- Testbarkeit (1)
- Testverfahren (1)
- Text Mining Datenbank (1)
- Theologie (1)
- Theorem (1)
- Thermographie (1)
- Thermoregulation (1)
- Thesauri (1)
- Tie-Strength (1)
- Tie-strength (1)
- Tiefenerkennung (1)
- Tiefenschätzung (1)
- Tiefland-Kichwa (1)
- Tiefland-Quichua (1)
- Time Series Analysis (1)
- Time of flight (1)
- Tissue like phantom (1)
- Titanium (1)
- ToF-Kamera (1)
- Tod (1)
- Tomatoes (1)
- Tonemapping (1)
- Topic Map Visualization (1)
- Topic modeling (1)
- Topographische Gefährdungsanalyse (1)
- Touchscreen-Technologie (1)
- Tourismusforschung (1)
- Tradition (1)
- Traditional Teenek agriculture (1)
- Traditional knowledge (1)
- Training (1)
- Transkription (1)
- Treated wastewater (1)
- Tropentechnologie (1)
- Tropical forests (1)
- Tropischer Wald (1)
- Trust perception (1)
- Two-wavelength holographic contouring (1)
- Türkei (1)
- UAS (1)
- UCD (1)
- UI-Design (1)
- UIX (1)
- UN-Behindertenkonvention (1)
- USA Organic Lipstick (1)
- Umgangsrecht (1)
- Umweltschutz (1)
- Umweltüberwachung (1)
- Ungleichheit (1)
- Unterbringung (1)
- Unternehmen / Prozessmanagement (1)
- Unternehmenssicherheit (1)
- Unüberwachtes Lernen (1)
- Update (1)
- Ureinwohner (1)
- Usability Engineering (1)
- User Interface (1)
- User Interfaces (1)
- User experience (1)
- VR (1)
- Vacuum multi‐effect membrane distillation (1)
- Vanilla (1)
- Variables (1)
- Vascoda (1)
- Veranstaltung (1)
- Veranstaltungsarbeit (1)
- Verbalphrase (1)
- Verbraucherzufriedenheit (1)
- Verfahrensoptimierung (1)
- Vergewaltigung (1)
- Vergewaltigungsmythen (1)
- Vergleich (1)
- Vergleichende Soziale Arbeit (1)
- Verkehrsüberwachung (1)
- Vermittlung von Informationskompetenz (1)
- Vernetzung (1)
- Verschränkter Zustand (1)
- Versicherung (1)
- Versicherungswirtschaft (1)
- Verteiltes Datenverarbeitungssystem (1)
- Verteilverluste (1)
- Vertrauen (1)
- Vertrieb (1)
- Vertriebsorganisation (1)
- Verwaltungsbücherei (1)
- Verwaltungsreform (1)
- Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts (1)
- Verzeichnung (radiale) (1)
- Video (1)
- Video-Tutorial (1)
- Videoanalyse (1)
- Videobearbeitung (1)
- Videobild (1)
- Videofehler (1)
- Virtual Reality (1)
- Virtuelle Maschine (1)
- Visual Analytics (1)
- Visual Programming (1)
- Visual Studio (1)
- Vogelgrippe (1)
- Vorbild (1)
- Vorgangsanalyse (1)
- Vorgangsmanagement (1)
- Vorgehensmodell (1)
- Waldorf (1)
- Walnuts (1)
- Wandel (1)
- Warenwirtschaftssystem (1)
- Wasser (1)
- Wassergüte (1)
- Wasserhaushalt (1)
- Wasserstoffspeicherung (1)
- Wasserwirtschaft (1)
- Water (1)
- Water balance (1)
- Water reuse (1)
- Water risks (1)
- Water saving behaviors (1)
- Water, Sanitation, and Hygiene (1)
- Web 2.0 (1)
- Web Development (1)
- Web Framework (1)
- Web Layouts (1)
- Web Site (1)
- Web Technologie (1)
- Web science (1)
- Web-Framework (1)
- WebRTC (1)
- Webentwicklung (1)
- Weblog (1)
- Webtechnologien (1)
- Weibliche Gefangene (1)
- Wertorientierung (1)
- Westdeutscher Rundfunk (1)
- Wetlands (1)
- White Balance (1)
- Wiederverwendung (1)
- Wii-Controller (1)
- Wiimote (1)
- Wiki (1)
- Wikipedia (1)
- Willich (1)
- Willkommensinitiativen (1)
- Wireless Sensor Network (1)
- Wirtschaftlichkeitsrechnung (1)
- Wirtschaftsinformation (1)
- Wissen (1)
- Wissensnetz (1)
- Wissensorganisation (1)
- Wohnungslosenberatung (1)
- WordSurfer (1)
- Work-Flow-Management (1)
- Workflow-Management (1)
- Workshop (1)
- Wärmebedarf (1)
- Wärmebildkamera (1)
- Wärmeverluste (1)
- Wärmeversorgung (1)
- Wärmewende (1)
- XSL (1)
- Xtext (1)
- YOLOv5-Algorithmus (1)
- YouTube (1)
- ZACK (1)
- Zarqa <Fluss> (1)
- Zarqa River (1)
- Zeiss (1)
- Zeitreihe (1)
- Zeitreihen (1)
- Zeitreihenanalyse (1)
- Zeitschriftenverlag (1)
- Zertifizierung (1)
- Zielgruppe (1)
- Zielgruppenorientierung (1)
- Zinszusatzreserve (1)
- Zirkulationsverluste (1)
- Zuckerrohr (1)
- Zuverlässigkeitsanalyse (1)
- Zwang (1)
- Zwei-Wellenlängen-Verfahren (1)
- Zweileiterinstallation (1)
- Zweischichtiges Bibliothekssystem (1)
- Zweisprachigkeit (1)
- agile software development (1)
- approximation (1)
- automatische Auswertung (1)
- bilaterale Filter (1)
- camera profiles (1)
- civil law (1)
- class 4 Kostenschätzung (1)
- classification (1)
- cognitive styles (1)
- color correction (1)
- colorspace transformation (1)
- consumer cameras (1)
- context-adaptive (1)
- context-aware security (1)
- context-dependent (1)
- creativity (1)
- design (1)
- detection (1)
- deutsche Lyrik (1)
- digital library (1)
- digitale Kamera (1)
- digitale Mammographie (1)
- digitale Medien (1)
- displaytechnology (1)
- eBusiness (1)
- eCRM (1)
- eCommerce (1)
- eGovernment (1)
- eGovernment Action Plan 2016-2020 (1)
- eLML (1)
- eSaveTM (1)
- edit decision list (1)
- elearning (1)
- electronic Customer Relationship Marketing (1)
- elektronische Geschäftsdokumente (1)
- elementary stream (1)
- embedded (1)
- fernsehähnliches Telemedium (1)
- flat panel detector (1)
- flow (1)
- focal length (1)
- free licences (1)
- freie Lizenzen (1)
- game development (1)
- gefahrlos (1)
- gesture recognition (1)
- hochdynamische Bilder (1)
- holografisch optische Elemente (1)
- holographische Formvermessung (1)
- holography (1)
- human-computer-interaction (1)
- iCAM (1)
- iPhone (1)
- iTV (1)
- image errors (1)
- inertance of pixels (1)
- information goods (1)
- information literacy (1)
- interference filter (1)
- katalanische Lyrik (1)
- kd-tree (1)
- knowledge organization (1)
- kritische Migrationsforschung (1)
- learning management system (1)
- librarianship (1)
- library policy (1)
- mHealth (1)
- mediacontrol (1)
- mobile Bildwiedergabesysteme (1)
- mobile Datenbank (1)
- mobile Endgeräte (1)
- mobile apps (1)
- mobile devices (1)
- modulation transfer function (1)
- monochromator (1)
- motion blur (1)
- neosozial (1)
- networking (1)
- nonverbal Communication (1)
- nonverbale Kommunikation (1)
- ontology (1)
- open street map (1)
- openfactory (1)
- optical filtering (1)
- optische Filterung (1)
- phantom (1)
- photopolymer (1)
- photostudio (1)
- portraitphotography (1)
- prime lens (1)
- private law (1)
- problem solving (1)
- procedural content creation (1)
- procedural generation (1)
- project management (1)
- quality parameter (1)
- r-tree (1)
- rechtliche Betreuung (1)
- requirements elicitation (1)
- räumlicher Lichtmodulator (1)
- security context (1)
- security measures (1)
- social tagging (1)
- software defined radio (1)
- soziale Integration (1)
- spanische Lyrik (1)
- spectral response (1)
- stationäre Kinder- und Jugendhilfe (1)
- statistical quality control (1)
- statistische Qualitätskontrolle (1)
- structural analysis (1)
- subject librarian (1)
- subject specialist (1)
- teaching library (1)
- test procedure (1)
- theology (1)
- thesaurus (1)
- touchscreen (1)
- transnational cooperation (1)
- uClinux (1)
- unsupervised learning algorithm (1)
- unterstützte Entscheidungsfindung (1)
- vanishing point detection (1)
- video analysis (1)
- video cut (1)
- video errors (1)
- voice control (1)
- {2-(3-R-1 (1)
- § 58 Abs. 3 RStV (1)
- Ägypten (1)
- Ältere Menschen (1)
- Ärztlicher Bereitschaftsdienst (1)
- Äthiopien (1)
- Öffentliches Gesundheitswesen (1)
- Öffentlichkeitsarbeit (1)
- Ökologische Marktwirtschaft (1)
- Ökonomisierung (1)
- Ökosoziale Marktwirtschaft (1)
- Ökotourismus (1)
- Überlappende Transformation (1)
- Überschwemmung (1)
- Übersetzungswissenschaft (1)
- öffentliche Verwaltung (1)
- überbetriebliche Bedarfsplanung (1)
- überbetriebliche Transparenz (1)
- 土壤性質 (1)
- 有機碳 (1)
- 無機碳 (1)
Faculty
- Fakultät 10 / Institut für Informatik (141)
- Fakultät 03 / Institut für Informationswissenschaft (70)
- Fakultät 07 / Institut für Medien- und Phototechnik (59)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (44)
- Fakultät 10 / Advanced Media Institute (28)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (19)
- Fakultät 07 / Institut für Nachrichtentechnik (17)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (14)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (10)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (8)
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Der überwiegende Teil der Öffentlichen Bibliotheken in der Bundesrepublik ist seit Jahren kontinuierlich bemüht, eine bedarfsgerechte und benutzerorientierte Bibliotheksarbeit zu leisten. Deshalb werden im Zuge der Öffentlichkeitsarbeit und des Bibliotheksmarketings empirische Untersuchungen durchgeführt. Unter Leitung der Staatlichen Büchereistelle für den Regierungsbezirk Detmold fand im Frühjahr 1996 eine schriftliche Befragung der Besucher 15 Öffentlicher Bibliotheken (ÖBB) in Ostwestfalen-Lippe (OWL) statt. Die Erhebungsplanung dieser Untersuchung umfaßte dabei die Entwicklung eines gemeinsamen Erhebungsinstruments, eines Erhebungs- und Auswertungskonzepts, die Projektsteuerung sowie eine Vorbefragung. Die vorliegende Diplomarbeit wurde begleitend zu der Planungsphase dieser Untersuchung verfaßt. In ihr wird der besondere Stellenwert der Planungsphase empirischer Untersuchungen in Bibliotheken, speziell in ÖBB, herausgestellt und modellhaft am Beispiel der Erhebung in der Bibliotheksregion OWL dokumentiert. Weiterhin werden die Vor- und Nachteile schriftlicher Befragungen mittels standardisierten Fragebogens erläutert sowie ihre Grenzen und die damit verbundenen Problemstellungen verdeutlicht. Darüber hinaus erfolgt ihre Einordnung in den bibliothekarischen Kontext als Teil der bedarfs- und benutzerorientierten Bibliotheksarbeit. Abschließend wird die Bedeutung der Vorbefragung in der Planungsphase einer empirischen Erhebung in ÖBB untersucht und am Beispiel der Besucherbefragung in OWL modellhaft demonstriert.
In dieser Arbeit werden zunächst die Werbebestimmungen (Produktplatzierung, Schleichwerbung, Sponsoring etc.) der einzelnen Gesetze dargestellt und erläutert. Anschließend werden die Videoportale, insbesondere YouTube, im deutschen Rechtssystem eingeordnet und geprüft, ob sie unter den verfassungsrechtlichen Rundfunkbegriff und/oder einfachgesetzlichen Rundfunkbegriff fallen oder nicht. Letztlich erfolgt die Prüfung der Anwendbarkeit der werberechtlichen Rahmenbedingungen des Rundfunkstaatsvertrages unter besonderer Berücksichtigung des Kriteriums der Fernsehähnlichkeit im Rahmen des § 58 Abs. 3 Rundfunkstaatsvertrages. Es wird geprüft, ob es sich bei YouTube um ein fernsehähnliches Telemediuem im Sinne des § 58 Abs. RStV handelt.
Zijad Naddaf fragt danach, wie sich Grenzen und die darin eingelagerte Erzählung von Flucht und Migration durch Praktiken und Diskurse formieren. Vor dem Hintergrund der Flüchtlingszuwanderung und mit Bezug auf Foucault werden Gesamtstrategien der Europäischen Union zur ‚Verteidigung ihrer Gesellschaft‘ diskutiert, unter anderem am Beispiel der Grenzbearbeitungsagentur Frontex konkretisiert sowie das Konstrukt der Europäischen Union als Ordnung herstellendes Dispositiv vorgestellt. Mit Bezug auf solche Formierungen werden die Wege der Fliehenden zu einem Kampffeld, in dem sich sowohl die Autonomie von Migration als auch die beständigen und repressiven Weg- und Raummarkierungen zeigen, die sich bis auf das Meer ausdehnen.
Für Bibliothekare als Informationsspezialisten ist es essentiell, auf dem neuesten Stand der Entwicklungen zu bleiben und sich aus aktuellsten Quellen zu informieren und weiterzubilden. Aber auch die Vernetzung und der Austausch mit anderen fachkundigen Personen sind von Bedeutung. Ein Medium, das beide Aspekte vereint – eine aktuelle Informations- und Weiterbildungsquelle sowie die Möglichkeit der Vernetzung und des Austauschs – stellt das Weblog von und für Bibliothekare dar. In Deutschland besteht ein ausdifferenziertes Angebot bibliothekarischer Weblogs. Zentrale Fragestellung dieser Arbeit ist, ob und in welchem Maße dieses Angebot von deutschen Bibliothekaren angenommen und genutzt, das heißt rezipiert, wird. Dazu wird eine Online-Umfrage durchgeführt, welche über Mailinglisten und einige deutsche bibliothekarische Weblogs verbreitet wird. Zunächst wird das Weblog näher vorgestellt, danach folgt eine Darstellung des Hauptgegenstands dieser Arbeit – dem Fachblog und dessen aktueller Situation im bibliothekarischen Bereich in Deutschland. Nach der Vorstellung der deutschen Bibliobloglandschaft folgt eine Beschreibung des US-amerikanischen Stands von bibliothekarischen Fachblogs um im nächsten Schritt die deutsche mit der US-amerikanischen Situation zu vergleichen. Im weiteren Verlauf werden die Vorgehensweise der Online-Befragung sowie deren Auswertung und die Analyse der Auswertungsergebnisse behandelt. Eine Zusammenfassung der Ergebnisse mit Empfehlungen führt zum Abschluss der Arbeit.
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
Die vorliegende Arbeit beschäftigt sich mit Recherchekompetenzen von Studierenden und der Vermittlung der betreffenden Fertigkeiten in Online-Tutorials als eine innovative Methode der Vermittlung von Informationskompetenz. Studierende stehen im Rahmen des Studiums vor der Herausforderung effiziente, wissenschaftliche Recherchen in verschiedenen Rechercheinstrumenten durchzuführen. In unterschiedlichen Studien wurde bereits herausgefunden, dass Studierende Probleme und Defizite bei der wissenschaftlichen Recherche haben und bei ihnen Bedarf nach Unterstützung besteht. Diese Studienergebnisse bilden die Grundlage für eine Analyse der Online-Tutorials DISCUS, LOTSE, DOT und Bib@InfoLit. Hierbei besteht das Ziel der Arbeit darin, die Berücksichtigung und didaktische Aufbereitung der Inhalte in Bezug auf die Informationsbedürfnisse der Studierenden zu untersuchen. Ein abschließender Vergleich resümiert die Umsetzungen in den Online-Tutorials.
Um zukunftssicherndes Vertrauen beim Kunden aufzubauen, bedarf der von Qualitätsunsicherheiten geprägte Informationsmarkt systematischer vertrauensbildender Instrumente. Die vorliegende Arbeit zeigt Einsatzmöglichkeiten von Qualitätsmanagementsystemen in Institutionen der Informationswirtschaft auf und diskutiert eine Zertifizierung dieser nach der Normenreihe ISO 9000ff. Mit aus dem Dienstleistungsmarketing abgeleiteten kundenorientierten Meßverfahren (Critical-Incident-Technique, Penalty-Reward-Faktoren-Modell, SERVQUAL-Methode) kann das informationswirtschaftliche Unternehmen darüber hinaus Erkenntnisse über den Stand der angebotenen Dienstleistungsqualität gewinnen. Datenbankproduzenten scheinen durch den Einsatz von zertifizierten Qualitätsmanagementsystemen größere Nutzenwirkungen erzielen zu können als Informationsvermittlungsstellen. Charakteristisch für die Informationswirtschaft ist der Mangel an Möglichkeiten zur Messung von Qualität. Neben objektiven und subjektiven Meßmethoden zur Dienstleistungsqualität sollten Institutionen der Informationswirtschaft möglichst objektive, auf die Situation im eigenen Unternehmen abgestimmte Meßmethoden erstellen und anwenden. In einem Praxisbericht wird die Implementierung und der Betrieb des nach DIN EN ISO 9001 zertifizierten Qualitätsmanagementsystems des FIZ CHEMIE BERLIN untersucht. Als ein in diesem Fachinformationszentrum eingesetztes qualitätssicherndes Werkzeug wird ein Meßsystem für von freien Mitarbeitern erbrachten Indexierungsleistungen vorgestellt.
Studien belegen, dass das Internet bei der Informationsversorgung der Menschen immer mehr an Bedeutung gewinnt. Stimmen aus der Forschung fordern eine Präsenz der Bibliotheken am Point-of-Need ihrer Nutzer, also auch im Internet. Während im angloamerikanischen und skandinavischen Raum relativ frühzeitig auf diese Entwicklung reagiert und ein digitaler Auskunftsdienst additiv zur traditionellen Walk-in Auskunft angeboten wurde, ging man in Deutschland lange Zeit recht zögerlich mit diesen neuen Kommunikationswegen um. Mittlerweile lässt sich aber auch hier ein gesteigertes Interesse an der Digitalen Auskunft erkennen. Projekte wurden initiiert und befinden sich zum Teil bereits im Regelbetrieb. In dieser Arbeit soll der Entwicklungsstand der Digitalen Auskunft in Deutschland nachgezeichnet und anhand einer vergleichenden Evaluation in einem internationalen Kontext positioniert werden. Dazu werden die folgenden Verbünde in die Evaluation einbezogen: Die Deutsche Internetbibliothek (D), InfoPoint (D), Virtuelle Auskunft im SWB (D), Biblioteksvagten (DK), Enquire (GB), IPL (USA) und Ask a Librarian/ Florida (USA). Aus der Fachliteratur abgeleitete Standards dienen dabei als Grundlage für einen Kriterienkatalog, der Stärken und Schwächen der Auskunftsverbünde identifizieren soll.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
Die vorliegende Masterarbeit beschäftigt sich mit Strategien der außerstrafrechtlichen Konfliktbear- beitung in linksautonomen Räumen. Ausgehend von der Annahme, dass staatliche Strafe ein Instrument der Herrschaftsausübung darstellt und in Zeiten des
Neoliberalismus die prekär gewordenen Grenzen der gesellschaftlichen Zugehörigkeit durch Kriminalisierung aufrechterhalten werden, sollen Alternativen zum hegemonialen Strafrechtssystem aufgezeigt werden. Das qualitative Forschungsdesign wurde unter Berücksichti-gung der Grundannahmen der Kritischen Kriminologie entwickelt. Durch den Konfliktbegriff wird sich von der Kategorie „Kriminalität“ mit den ihr inhärenten
Zuschreibungen gelöst. Der Forschungsprozess basiert auf der Grounded Theory Methodologie. Auf der Grundlage teilnarrativer Interviews mit Aktivist*innen aus
verschiedenen linksautonomen Räumen in Deutschland wird ein Modell entwickelt, welches den Prozess der selbstbestimmten Bearbeitung von konflikthaften Ereignissen im gewählten Forschungsfeld beschreibt. Dieses zeigt auf, dass eine Aneignung von Konflikten verstärkt durch einen hohen Grad der Verantwortungsübernahme stattfindet. In einem zirkulären Prozess werden hierbei in der Bearbeitung von Konflikten eigene Regeln und Werte entwickelt, welche sich wiederum auf den Umgang mit Konflikten auswirken. Die Ergebnisse der Forschung richten sich primär an Personen, welche in links-autonomen Räumen aktiv sind und dienen einem besseren Verständnis ihrer gelebten Praxis. Durch die kritische Reflexion, unter Berücksichtigung der Grundsätze von Transformative Justice und Community Accountability, werden zudem Perspektiven für eine mögliche Weiterentwicklung linksautonomer Ansätze zum Umgang mit Konflikten aufgezeigt.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.
E-Learning wird in der universitären Lehre eine zunehmend bedeutendere Rolle spielen. Im Rahmen von Bemühungen um generelle Umstrukturierungen des IKM- Bereichs, wie sie mit Blick auf angloamerikanische Vorbilder auch in Deutschland aufgegriffen worden sind, nehmen auch Bibliotheken im E-Learning-Bereich Aufgaben wahr. Knapp die Hälfte der deutschen Universitätsbibliotheken ist in irgendeiner Form in die universitäre E-Learning-Struktur eingebunden. Die verschiedenen Modelle dafür reichen von der Übernahme des vollen Services über eine strategische Partnerschaft bis hin zu lockeren Kooperationsformen. Insgesamt kann die Bibliothek ihr breites Dienstleistungsportfolio nutzen, um ihre Services in eine E- Learning-Umgebung einzubringen. Diese umfassen die Bereitstellung digitaler Dokumente in elektronischen Semesterapparaten oder Lernmanagementsystemen, die Etablierung der Bibliothek als reellem und virtuellem Lernort, Hilfestellung bei Fragen des Urheberrechts, die Erschließung multimedialer Lernobjekte mit Metadaten und ihre längerfristige Zugänglichmachung sowie die Vermittlung von Informationskompetenz mittels E-Learning-Szenarien wie Blended Learning oder Online-Tutorials. E-Learning bietet der Bibliothek die Möglichkeit, sich als moderner Dienstleister in einer veränderten Hochschul- sowie Medienlandschaft zu positionieren.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.
Das Ziel dieser Arbeit war es aufzuzeigen, warum eine elektronische Unterstützung bei politischen Wahlen in Deutschland bislang noch nicht möglich ist. Weder die Nutzung von einem Wahlcomputer im Wahllokal noch eine Stimmabgabe über das Internet vom heimischen PC aus sind möglich. Da die Digitalisierung längst in allen Lebensbereichen Einzug gefunden hat und es selbst einem Kühlschrank möglich ist, per E-Mail Bescheid zu sagen, wenn keine Milch mehr da ist, verwundert es doch schon sehr, dass wir noch immer mit Stift und Unmengen von Papier unsere Volksvertreter wählen. Um dies zu verstehen, werden in dieser Arbeit die gesetzlichen Vorgaben für eine politische Wahl erläutert und deren Bedeutung für elektronisch unterstützte Wahlen aufgezeigt. Dabei liegt das Hauptaugenmerk auf einer Wahlmöglichkeit über das Internet. Es werden mögliche Chancen, Risiken und Anforderungen eines solchen Wahlverfahrens erörtert und gezeigt, warum eine technische Umsetzung so schwer ist und wie eine solche möglicherweise aussehen könnte. Außerdem werden die Themen eines elektronischen Personalausweises, der elektronischen Partizipation und deren Bedeutung für ein Internet-Wahlsystem erläutert sowie ein Blick darauf geworfen, wie andere europäische Länder dieses Thema behandeln.
This research analyzes the effects that eco-labels have on the demand for organic (Bio) and Fairtrade (FT) food products. The thesis also discusses the individual determinants and motivations behind those effects. The analysis builds on data obtained from a self-programmed and self-conducted survey, with a sample of 869 students from different universities of Cologne, Germany. The Bio/FT preference is measured experimentally by randomly assigning individuals to treatment and control groups. The experiment simulates life decisions using actual pictures and prices of four products: packed and processed spaghetti, fresh tomatoes, packed raw meat, and packed orange juice.
The existence, size, and direction of statistically significant eco-label effects were obtained with two sample tests of proportions. The results prove that the FT label has a positive differential effect on consumer’s demand. The presence of the FT label makes the purchase of this juice 9.1% higher than other juices not labeled as FT. This finding confirms the hypothesis that eco-labels have a positive effect on sustainable consumption. A surprising finding is that the presence of the Bio label lowers the purchase of organic pasta and tomatoes 7.7% and 9.4% respectively. This finding is interesting because it suggests that Bio labels are not driving the demand for sustainable tomatoes or pasta for this population. Regional and cheaper alternatives are preferred by consumers in this cases.
The motivations behind consumer choices of different options were thoroughly analyzed. Binomial logistic regressions and qualitative text analysis show that the variance in the intention to consume eco-labeled food is explained mainly by price concerns and attitudes about value for money, but also by the influence of life partners as shopping referents, and the perceived behavioral controls of time and ability to monitor compliance of label standards, thus trust them.
The final remarks support the use of the Fairtrade eco-label as a market-based instrument to guide sustainable food consumption among young adults in this context, and propose changes that could make the Bio label more attractive for the targeted population. The thesis demonstrates which individual factors should be inevitably considered when implementing labeling to foster sustainable consumption. Hence, it is useful for evaluations of public and private certification schemes, and for companies that support sustainable food markets. Projects looking to understand and drive sustainable production and consumption decisions should consider this reading.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Zielsetzung dieser Abschlussarbeit ist die Eignungsprüfung nichtrelationaler Datenbanksysteme für die Erstellung einer leichtathletischen Mehrkampfdatenbank. Sie ist in fünf Kapitel aufgeteilt.
Im ersten Kapitel wird einleitend auf die Entstehung dieser Arbeit und des zugrundeliegenden Projekts eingegangen.
Im zweiten Kapitel werden die vier großen Hauptgruppen nichtrelationaler Datenbanksysteme grob auf ihre generelle Eignung für die Verwendung und Umsetzung der Mehrkampfdatenbank anhand gegebener Anforderungen bewertet und aussortiert.
Im dritten Kapitel werden die verbliebenen Hauptgruppen eingehender betrachtet und das am besten geeignet erscheinende Gruppe für eine weitergehende Betrachtung ausgewählt.
Im vierten Kapitel werden mögliche Kandidaten aus der im vorherigen Kapitel bestimmten Hauptgruppe für die tatsächliche Umsetzung bewertet. Abschließend wird ein Kandidat für die Umsetzung der Mehrkampfdatenbank bestimmt.
Im fünften Kapitel wird ein Vergleich mit einer relationalen Umsetzung der Mehrkampfdatenbank gezogen, dabei werden verschiedene Datenbankanfragen auf unterschiedlichen Datenmengen
verglichen. Außerdem einzelne Verfahrensweisen zur Abwicklung von Anfragen betrachtet.
In einem abschließenden Fazit werden die Ergebnisse und Erkenntnisse der Arbeit nochmals kurz zusammengefasst.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
In dieser Bachelorarbeit wird ein Verfahren zur HDR-Bilderstellung vorgestellt und mit anderen Verfahren verglichen, das eine beliebige Belichtungsreihe verarbeitet und auf der Erstellung von Histogrammen der Helligkeitsverhältnisse zwischen den Aufnahmen basiert. Der Algorithmus wurde in Java als Plugin für die Bildverarbeitungssoftware ImageJ implementiert.
Ein Online-Tutorial für vascoda. Theoretische Grundlegung - Konzeption - Praktische Umsetzung
(2009)
Inhalt der vorliegenden Masterarbeit ist die Konzeption und praktische Umsetzung eines Online-Tutorials (Lernprogramms) für die Benutzer des wissenschaftlichen Internetportals vascoda. In einem umfangreichen Theorieteil werden zunächst der sachliche Hintergrund (Fachportale und Funktionen des Dachportals vascoda), der didaktisch-methodische Hintergrund (Mediendidaktik, Lerntheorien, Instruktionsdesign mit besonderer Berücksichtigung von E-Learning, Begriffsgeschichte und Definitionen des Begriffs Tutorial, Informationskompetenz) sowie der technische Hintergrund (Autorenwerkzeuge) dargestellt. Auf dieser Grundlage wird eine ausführliche Planung für das vascoda-Tutorial in verschiedenen Kategorien erarbeitet (Begründung der Medienwahl, Zielgruppenanalyse, inhaltliche und didaktisch-methodische Konzeption, technische Umsetzung), an deren Ende eine detaillierte Aufstellung der Lehrinhalte und Lehrziele steht. Das Ergebnis der praktischen Umsetzung ist auf einem beiliegenden Datenträger verfügbar (ein aus vier Untermodulen bestehendes Hauptmodul des vascoda-Tutorials als exemplarischer Prototyp). Das Schlusskapitel der Arbeit enthält eine abschließende Kritik dieses produzierten Moduls und zeigt Möglichkeiten einer Weiterentwicklung auf.
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
Der Einsatz von Gebärden scheitert häufig daran, dass bisher kaum bedarfsgerechte Lernangebote für Eltern mit einem unterstützt kommunizierenden Kind zur Verfügung stehen und das obwohl die digitalen Entwicklungen ein großes Spektrum an medienbasierten Lernarrangements eröffnen. Audiovisuelle Lernvideos könnten hier hilfreich sein, denn sie bieten - ähnlich wie die Gebärdensprachkommunikation - eine simultane Darstellung von auditiven und visuellen Informationen. Des Weiteren sind sie heutzutage in jedem Familienalltag durch mobile Endgeräte präsent und halten für Kinder eine Vielzahl von affektiv-sozialen Erlebnissen bereit, die das Lernen unterstützen.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
Einzelne Lebensereignisse und geschaffene Werke beinhalten häufig Bezüge zu anderen Geschehnissen oder sie werden beeinflusst durch die Beziehungen zu Mitmenschen, Herkunft, bestimmte Charaktereigenschaften, zeitgeschichtliche Ereignisse o.ä. Dem Schreibprozess einer Biographie muss ein umfassendes Verständnis dieses komplexen Systems vorausgehen, um zu verhindern, dass sich deren Inhalt auf eine chronologische Darstellung beschränkt. Am Ludwig Boltzmann Institut für Geschichte und Theorie der Biographie in Wien ist zu diesem Zweck ein biographisches Research-Wiki konzipiert worden. Dieses dient als Ablagesystem und Arbeitsinstrument für die am Institut entstehenden wissenschaftlichen Biographien. Besonders die Materialfülle des räumlich verteilten Hugo-von-Hofmannsthal-Nachlasses soll auf diese Weise besser zugänglich gemacht werden. Es ist geplant das Hofmannsthal-Wiki eventuell auch als Netzbiographie zu veröffentlichen. Zu den entscheidenden Funktionalitäten des Wikis gehören die hypertextuellen Verweise zwischen Ereignis- und Briefchronik, Themenkomplexe sowie die Gewährleistung der wissenschaftlichen Methode mittels ebenfalls hypertextuellen Referenzierungen aller Informationen. In dieser Arbeit wird untersucht, inwiefern sich Wikis und Hypertexte im Allgemeinen für einen Einsatz in der Biographieforschung eignen. Dabei werden zunächst die Eigenschaften einer Biographie und die Methoden der Biographieforschung dargestellt. Im Anschluss daran werden die Begriffe Hypertext und Wiki in den Kontext der Biographieforschung eingeordnet. Das Hugo-von-Hofmannsthal-Research-Wiki und teilweise auch das Jandl-Research-Wiki nehmen in dieser Arbeit die Funktion des Modellprojektes ein. Daher enthält die gesamte Arbeit Beispiele aus diesen beiden Datenbanken. Zusätzlich werden die Stärken und Schwächen des Hofmannsthal-Wikis in einem gesonderten Kapitel analysiert. Schließlich findet ein Vergleich mit dem Heine-Wiki, dem Heinrich-Heine-Portal und der Klagenfurter Ausgabe des Robert-Musil-Nachlasses statt. Abschließend wird ein Ausblick sowie Empfehlungen speziell in Bezug auf das Hofmannsthal-Research-Wiki, aber auch hinsichtlich des Nutzens von Wikis für die gesamte Biographieforschung, geboten.
Electronic Business
(2006)
”Es gibt nur einen Erfolg - nach seinen eigenen Vorstellungen leben zu können.“ (Christopher Morlay) Erfolgreiches Business beruht auf einem sehr einfachen Grundprinzip: Stellen Sie sich dem Konkurrenzkampf und seinen Sie einfach besser. Provokativ heißt das, dass jedes Unternehmen, dass an die Spitze will, mehr Produkte mit höherer Qualität, in größeren Stückzahlen, in kürzerer Zeit und mit besseren Serviceleistungen als die Konkurrenz anbieten muss. Dabei erzwingt der rasche technologische Fortschritt eine vorausschauende Taktik. Hier nimmt das Internet seit einigen Jahren eine Schlüsselposition ein. Durch das Internet ist eine Informationsgesellschaft entstanden, die von allen Unternehmen eine extrem hohe Flexibilität fordert. Diese Flexibilität muss für jeden Kunden nachvollziehbar und somit transparent sein. Es kann keine Frage mehr sein, ob eine Firma ins eBusiness einsteigt, sondern nur noch wann und wie. Wahrscheinlich bedarf es keiner besonderen Hervorhebung mehr, dass das Thema eBusiness keine reine Nebensache für Spezialisten sein darf. Vielmehr ist es so, dass sich die Unternehmen durch das eBusiness auf Ihre Kernkompetenzen konzentrieren können. Bevor man sich aber genauer mit dem Thema auseinandersetzen kann, muss man sich darüber klar sein, was eBusiness eigentlich ist - und was es nicht ist.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Endstation Annostraße? : Obdachlose in der Kölner Südstadt zwischen Stigmatisierung und Integration
(2001)
Diese Diplomarbeit beschäftigt sich anhand eines Beispiels mit den Chancen und Grenzen der gesellschaftlichen Integration von obdachlosen Menschen. Da in diesem Rahmen nicht alle aufgeworfenen Fragestellungen erschöpfend beantwortet werden können, stellt sie auch eine Einladung zum Weiterforschen, -denken und -handeln dar.
Energiesprong (niederländisch für Energiesprung) ist ein innovatives Konzept für die energetische Sanierung von Wohngebäuden, das schnelle Umsetzung, Kostenreduktion, Nachhaltigkeit und Mieterfreundlichkeit verspricht. Energiesprong setzt auf industrielle Vorfertigung von Fassaden- und Dachelementen (serielle Sanierung) und den Einsatz von regenerativen Energien, um den sogenannten NetZero-Standard (entspricht dem Nullenergiehaus) zu erreichen. Ziel ist es, eine für alle Beteiligten attraktive Sanierung zu ermöglichen. Dies wird unter anderem über erheblich verkürzte Montagezeiten und warmmietenneutrale Refinanzierung angestrebt. Die dafür erforderlichen Kostensenkungen werden beim seriellen Sanieren durch die Automatisierung in der Produktion und Skaleneffekte in der Massenfertigung erreicht.
Im Rahmen dieser Arbeit soll das Konzept Energiesprong hinsichtlich der Anwendung auf Mehrfamilienhäuser betrachtet und kritisch hinterfragt werden. Dazu werden zuvorderst die politischen und praktischen Gründe umrissen, die die Notwendigkeit und das Potenzial von innovativen Ansätzen darstellen. Im zweiten Kapitel wird das Energiesprong-Konzept detailliert erläutert; neben den Innovationen im Plan und Bauverfahren werden die Besonderheiten der Gebäudehülle, der Anlagentechnik und des Energiekonzepts beschrieben. Darüber hinaus werden wirtschaftliche Aspekte und die Rolle der verschiedenen Akteure umrissen. Aus der Beschreibung gehen eine Vielzahl an Vorteilen hervor, die Energiesprong gegenüber konventionellen Sanierungsverfahren verspricht. Anschließend werden einige Punkte dieser zentralen Versprechen diskutiert und eine Grundlage für die Entwicklung von Kriterien zukünftiger Evaluationen entwickelt.
The climate is changing and this increases the risk of climate threats, which is affecting the most vulnerable populations, mainly peasant farmers. In order to minimize impacts on these populations, interest has been aroused to develop strategies that increase their resilience to climate-related risks. This issue has been little addressed in Ecuador, despite the increased frequency and intensity of climate-related risks, which are directly affecting agroecosystems and farmers' livelihoods. This research addresses the resilience of farmers to climate risks in the canton of Pedro Carbo, an area located on the Ecuadorian coast of Guayas Province characterized by a high rate of poverty and dedicated mainly to agriculture.
The overall objective of this research was to carry out an analysis of the resilience of small farmers to climate risks, as well as to recommend adaptation/transformation strategies to increase their resilience to climate. For this, farmers' perceptions were considered, as well as the opinion of experts on the subject. Multiple methods were applied such as: literature review, map generation, household surveys, participatory workshops with farmers and interviews with experts. In addition, a multidimensional matrix was developed to analyze quantitative and qualitative data through indicators that measure resilience in the study area. The main findings in this research reflect that farmers have very low resilience due to their socioeconomic characteristics, agricultural practices, lack of infrastructure and technologies, weak community organizations, limited access to credit and insurance, as well as lack of capacity building and technical assistance. Finally, recommendations for strategies to support planning and decision-making were developed.
Keywords: climate-related risks, peasant family farming, resilience, resilience assessment, climate resilience, farmers perceptions, Pedro Carbo
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Neben den großen Anbietern digitaler Comics mit elektronischem Kopierschutz (DRM) haben sich auch Anbieter für DRM-freie Comics etabliert. Als Open Source-Alternative zu den Plattformen Ersterer wurde im Rahmen des Praxisprojekts die Software ComicLib als Web-App zur Verwaltung digitaler Comicsammlungen geschaffen. Diese ermöglicht die gemeinsame Verwaltung DRM-geschützter sowie -freier Comics. Letz-tere sind außerdem im Webbrowser lesbar. Die im Rahmen dieser Arbeit entstandene And-roid-App soll eine Open Source-Alternative zu den mobilen Apps der Plattformen der gro-ßen Anbieter sein und ComicLib um eine mobile App zur Offline-Nutzung der Comics erwei-tern. Der erste Prototyp wird im Nachgang des Projekts weiter getestet und verbessert, be-vor die erste stabile Version veröffentlicht wird.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
Kein Club/Disco-Betrieb kommt heute mehr ohne eine mehr oder weniger gut ausgebaute IT-Infrastruktur aus. Das fängt an bei kleinen Clubs, welche über autonome Kassensysteme und ein Abrechnungssystem verfügen, und kennt nach oben hin keine Grenze. So verwalten große Clubs nicht nur Abrechnung und die Kassen, sondern verfügen auch über autonome Systeme, welche beispielsweise die Licht-, beziehungsweise Audioanlage steuern. Allen diesen Systemen ist gemein, dass sie bis auf wenige individuell programmierte Software keine Lösung für alles bieten. Mit dieser Diplomarbeit soll die Grundlage für eine Software gelegt werden, die diesen Missstand behebt.
Ziel dieser Diplomarbeit ist die Entwicklung eines Software-Produktes, welches in einem firmeninternen Intranet-System zum Einsatz kommt. Es werden die eingesetzten Techniken sowie die Phasen einer Software-Entwicklung und die Software-Qualitätssicherung erläutert. Zum Abschluss folgt die Vorstellung des fertigen Software-Produktes. Neben der reinen Software-Entwicklung besteht die Aufgabe darin, einen eigens dafür zur Verfügung stehenden Webserver einzurichten. Die Firma AFT (AFT Atlas Fahrzeugtechnik GmbH) ist Microsoft Certified Solution Partner und setzt für das bestehende Intranet einen IIS-Webserver und einen MS-SQL Server von Microsoft ein. Für die Diplomarbeit soll ein anderer Weg gewählt werden, um das Software-Produkt in das Intranet einzubinden. Die Wahl fällt auf das im Internet sehr weit verbreitete LAMP-System. LAMP ist eine Abkürzung und steht für Linux, Apache, MySQL und PHP. Alle vier Komponenten sind lizenzfreie Freeware-Produkte. Ein LAMP-System ist in Punkto Stabilität und Geschwindigkeit mit einem Microsoft-System vergleichbar. Die Installation und Konfiguration eines LAMP-Systems ist ebenfalls Bestandteil dieser Diplomarbeit.
Entwicklung einer freien Software zur Verwaltung von digitalen Comics auf Basis von Web Technologien
(2019)
Mit dem Aufkommen von E-Books sind auch Comics im digitalen Zeitalter angekommen. Digitale Comicsammlungen bestehen meistens aus Dateien unterschiedlicher, teils proprietärer Dateiformate. Da Comics in proprietären Formaten nur in den Anwendungen der Hersteller geöffnet werden können, gestaltet sich die gemeinsame Verwaltung aller Comics einer Sammlung schwierig. Da die Verwaltung der Comics bei diesen Herstellern zentralisiert auf deren Servern erfolgt, ist das Lesen von Comics bei diesen über deren Apps standortunabhängig möglich. Diesen Vorteil bieten Comics in nicht-proprietären Formaten nicht. Für den maximalen Komfort muss man sich also für einen einzelnen Anbieter entscheiden und eine Fragmentierung der eigenen Comicsammlung über mehrere Anbieter hinweg vermeiden. Diese Probleme soll dieses Projekt lösen und dazu mit ComicLib eine freie Software zur zentralen Verwaltung und Bereitstellung digitaler Comicsammlungen schaffen. Da ein Öffnen der proprietären Dateien nicht möglich ist, soll die Beschaffung von Informationen zu Comics, Serien und Verlagen über den Zugriff auf die ComicVine API1 von Gamespot2 erfolgen. Bei Comics in nicht-proprietären Dateiformaten soll das Lesen direkt in der Software möglich sein, bei den proprietären Formaten soll die Datei stattdessen nur zum Download bereitgestellt werden. Eine eigene Programmierschnittstelle soll die Erweiterung von ComicLib um mobile Apps ermöglichen. Die Implementation als Webanwendung soll eine Nutzung der Comicverwaltung auf Computern, Tablets und Smartphones ermöglichen.
Zu entwickeln ist eine graphische Simulation von LEGO® Mindstorms™ Robotern. Die Simulation soll die Möglichkeit bieten, ein virtuelles Robotergrundmodell mit verschiedenen Sensorausstattungen so zu programmieren, wie es auch bei einem echten Modell der Fall wäre. Das real zu erwartende Verhalten dieses Roboters bei Programmausführung soll auf dem Bildschirm in Echtzeit verfolgt werden können, wobei die Bedienung des virtuellen Roboters der des realen Robotermodells nachempfunden sein soll.
Für EDB, das e-Learning Datenbank Portal der TH Köln, soll im Zuge dieser Arbeit eine Komponente zum Verwalten und Durchführen von Mehrspieler-Livequiz entwickelt werden. Um die Motivation der Nutzer zu erhöhen, soll diese an die unter der Zielgruppe verbreitetsten Nutzertypen des Hexad-Frameworks angepasst werden. Dazu wurde eine Umfrage mit Studierenden der TH Köln durchgeführt. Mithilfe der validen Antworten (N=52) wurde unter anderem die Verteilung der Übereinstimmung mit den sechs Nutzertypen Philanthropist,
Socializer, Free Spitit, Achiever, Player sowie Disruptor ermittelt. Neben der Übereinstimmung mit den Nutzertypen wurden auch verschiedene technische Daten wie Bildschirmauflösungen und verwendete Browser und Betriebssysteme erhoben, welche beim Testen der Anwendung eine optimale Darstellung derselben bei einem möglichst großen Anteil der Zielgruppe bedingen könnten. In mehreren Schritten, von einer Betrachtung etablierter Alternativen bis zur Entwicklung eines Wireframes, wurde eine konzeptuelle
Lösung entwickelt und realisiert. Dabei wurde ein Datenbankschema zur Speicherung der Quiz, Fragen und Antworten mitsamt einer API designt und angelegt. Das Ergebnis ist die Implementation einer Anwendung, welche alle Must-Have und mehrere Nice-To-Have Anforderungen erfüllt. Mit dieser können Quiz mit Fragen und Antworten erstellt, bearbeitet, gelöscht und in Quizräumen von mehreren Personen synchron gelöst werden. Es werden Zwischenergebnisse für die einzelnen Fragen und eine Rangliste mit den Endergebnissen eines Quiz angezeigt. Für eine Weiterentwicklung wurden acht
Verbesserungsansätze erdacht.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Web Application Servers in der Version 3.0 von Oracle. Der Web Application Server ist ein Programmpaket für die Entwicklung und Implementation von serverseitigen Anwendungsprogrammen, die über das Internet benutzt werden können. Das entsprechende Anwendungsprogramm wird nur vom Webserver ausgeführt. Für die Ausführung einer mit Hilfe des Web Application Server erstellten Anwendung wird auf der Clientseite nur ein Internetbrowser benötigt. Der Web Application Server wurde speziell daraufhin ausgelegt, daß die mit seiner Hilfe entwickelten Anwendungen ihre Daten aus einer Datenbank beziehen können. Für den Anwendungsentwickler ermöglicht der Web Application Server also Anwendungen für das Internet zu erstellen, wobei der Entwickler auf eine breite Palette von Programmiersprachen zurückgreifen kann. Das sind z.B. Perl, C++, Java und natürlich die für Oracledatenbanken benutzte Sprache PL/SQL. Da der Web Application Server die Internettechnologie, sowie die Datenbanktechnologie berührt, werden in den ersten Abschnitten nicht nur der Nutzen dieser Plattform im Rahmen der Client/Server Architektur gezeigt, sondern auch Grundlagen des Internets und relationaler Datenbanken vorgestellt. Dieses ist notwendig, um die Abläufe von Web Application Server basierten Anwendungen zu verstehen. In den weiteren Kapiteln werden die einzelnen Bauteile des Web Application Server - Programmpaketes vorgestellt. Hierbei wird kurz auf die Installation und Konfiguration der Web Application Server Plattform eingegangen. Anschließend soll das Zusammenspiel der Web Application Server - Elemente mit Hilfe einer Beispielanwendung gezeigt werden.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
Entwicklung einer Suchmaschine unter Verwendung von Oracle 9iAS Portal und Oracle interMedia Text
(2002)
Für effizient geführte Unternehmen ist ein schnelles Zugreifen auf eigene Informationen über Intra- und Internet ohne Frage überlebenswichtig. Viele Firmen haben mit großem Aufwand Text-Dokumente innerhalb von Datenbanken strukturiert abgelegt. Diese Dokumente sind aber oft nur ein kleiner Bruchteil der im Betrieb anfallenden Dokumente. Internet-Seiten, E-mails, Faxe und viele andere Dokumente bleiben außen vor. Teilweise sind die in Datenbanken abgelegte Dokumente auch statisch, sie werden nicht oder nur aufwendig aktualisiert. Mitarbeiter und Öffentlichkeit müssen aber raschen Zugriff auf aktuelle und für Sie abgestimmte Informationen haben. Mitarbeiter sollten die Möglichkeit haben, Dokumente zu bearbeiten und eigene Dokumente für andere Mitarbeiter zur Verfügung zu stellen. Zudem sollte die Öffentlichkeit speziell für Sie aufbereitete Informationen über das Internet erhalten können. Der Zugriff auf unterschiedliche dynamische Dokumente geschieht idealerweise über einen gemeinsamen Gateway und ist plattformunabhängig. Diese Bereitstellung dynamischer Informationen stellt für den Betrieb einen großen Kostenvorteil dar. Ein Werkzeug, das diesen Ansatz verfolgt ist Oracle Portal. Alle Dokumente eines Betriebes werden in einer Oracle-Datenbank browserbasiert verwaltet. Es wird den Mitarbeitern eine einheitliche Oberfläche zur Verfügung gestellt über die sie weltweiten Zugriff auf die Dokumente haben. Eine produktive globale Verflechtung der Informationen wird möglich.
Ziel der Diplomarbeit ist die Entwicklung einer datenbankgestützten Anwendungssoftware, deren Aufgabe es ist, das Internetportal der Stadt Hagen hinsichtlich bestimmter Grundfunktionen automatisiert zu überprüfen. Aufgrund der funktionalen Ausrichtung handelt es sich bei dem zu entwickelnden Prototypen um eine Software, die im Bereich Software-Qualitätsmanagement angesiedelt ist und dem sogenannten Black-Box-Verfahren zugeordnet werden kann.
Diese Diplomarbeit beschreibt eine Softwareentwicklung für ein datenbankgestütztes Informationssystem. Bei der Entwicklung dieses Systems wird ausschließlich frei verfügbare Software eingesetzt. Damit die Leistungsfähigkeit der eingesetzten freie Software besser beurteilt werden kann, wird in der vorliegenden Diplomarbeit beispielhaft eine Komponente einer Kursverwaltungs-Software entwickelt. Die entwickelte Komponente ist Teil des Datenbanksystems ”Kursverwaltung” der Deutschen Unfallhilfe DUH GmbH in Bochum. Diese Firma wurde ausgewählt, da dort im Rahmen einer Neukonzeption ein Datenbanksystem entstehen soll und der Einsatz freier Software favorisiert wird. Zu Beginn der Diplomarbeit wird erläutert, was der Begriff ”freie Software” bzw. ”Open-Source” beinhaltet und welchen Stellenwert diese Softwareprodukte zur Zeit besitzen. Nach diesem allgemeinen Überblick werden spezielle Softwareprodukte für die genannte Softwareentwicklung vorgestellt. Anschließend werden die vorgestellten Produkte zur Entwicklung einer Komponente des Datenbanksystems ”Kursverwaltung” eingesetzt. Schwerpunkt bilden hierbei vorallem die Entwicklung der Datenbank und die Anbindung der relationalen Datenbank an die objektorientiert entwickelte Programmlogik. Dabei wird auch auf die mögliche Generierung von Softwareteilen eingegangen, welches zur Zeit einen Trend in der allgemeinen Softwareentwicklung ausmacht. Die Diplomarbeit wird durch die Implementierung der Beispielkomponente vervollständigt und schließt mit einer Bewertung der Softwareentwicklung mit Open-Source Programmen ab.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
Ziel dieser Arbeit ist die Entwicklung eines E-Learning Systems, welches als asynchrones und flexibles Online-Format frei zugänglich ist. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Schulungsthemen, wird das System konzipiert und prototypisch entwickelt. Die Zielgruppe des Systems sind in erster Linie Einzelpersonen und Arbeitnehmer, welche eine Datenschutzschulung aufgrund von Nachweispflichten des Datenschutzgrundgesetzes benötigen.
Die Kraftwerksunglücke in Fukushima und Tschernobyl gelten wohl gemeinhin als Inbegriff für die Allgegenwärtigkeit der Gefahr eines kerntechnischen Unfalls mit schwerwiegenden Folgen für Mensch und Umwelt sowie einem tiefen Eingriff in die Wirtschaft und das öffentliche Leben. Kernschmelzen können die unterschiedlichsten Ursachen haben. Plötzlich finden physikalische Prozesse statt, die nicht mehr verhindert, sondern allerhöchstens herausgezögert werden können – die Arbeit der Behörden beginnt. Doch was wäre, wenn die Abstimmung zwischen den Entscheidungsträgern zu lange dauert, wenn die Katastrophenschutzpläne lückenhaft sind, eine rechtzeitige Bevölkerungswarnung ausbleibt, die Verkehrsträger mit der Aufnahme von Menschenmassen völlig überfordert sind oder sich die Aufnahmegebiete im Bereich der radioaktiven Wolke befinden?
Die vorliegende Arbeit befasst sich mit eben diesen Themen und zeigt Problematiken im Evakuierungsablauf auf. Im Verlauf der Arbeit wird anhand des Standes der Wissenschaft und Technik sowie Referenzereignissen und zwei Fallbeispielen ein Evakuierungskonzept entwickelt, das neue Denkansätze in bestehende Konzepte einarbeitet. Die genaue Planung und Konzeptionierung von Evakuierungs- und Notfallmaßnahmen stehen daher unter Betrachtung der Unzulänglichkeiten und Defizite beim Krisenmanagement im Mittelpunkt dieser Arbeit. Unter Berücksichtigung der Empfehlungen der Strahlenschutzkommission, der AG Fukushima, des Bundestages sowie des Bundesamtes für Strahlenschutz werden Evakuierungsrouten entwickelt und die Verkehrsträger Straße, Schiene, Schifffahrt und Luftverkehr auf deren Tauglichkeit und Kapazität geprüft. Zudem wird erläutert, wie eine Zusammenarbeit zwischen den Entscheidungsträgern des Landes und der Katastrophenschutzbehörden in Form eines weisungsbefugten bundeseinheitlichen Führungsstabes gestaltet werden kann.
Nicht zuletzt gilt es, den Weg für ein zukünftig funktionierendes Krisenmanagement im Fall eines kerntechnischen Unfalls zu ebnen, eine fundierte internationale und grenzüberschreitende Planungsgrundlage zu bieten und notwendige Maßnahmen der Behörden und Ministerien für eine effektive Gefahrenabwehr und einen funktionsfähigen Evakuierungsablauf aufzuzeigen.
Thema der Masterarbeit ist die Ablösung eines bestehenden kundenspezifischen IT-Systems durch moderne PC-Technologie mit dem Betriebssystem Linux. Die Software des neuen Systems sollte sich nach außen identisch mit der des abgelösten Systems verhalten. Dazu mussten die bestehenden Prozesse von der Programmiersprache PEARL für die neue Linux-Umgebung nach C++ portiert werden. Für diese und für neu geschaffene Prozesse wurde ein Applikationsframework als gemeinsame Software-Basis geschaffen. Zur Ankopplung externer, beibehaltener Systeme war ferner die Implementierung eines ISO/OSI 8073/TP4-Netzwerkprotokoll-Stacks erforderlich. Die Masterarbeit beschreibt zunächst das neu geschaffene, objektorientierte Applikationsframework. Dessen Komponenten, insbesondere die verschiedenen Klassen zur Kapselung des Linux Message Queue-Mechanismus zur Interprozesskommunikation, werden vorgestellt. Im Anschluss erfolgt die Beschreibung des ISO/OSI 8073/TP4-Protokolls, kombiniert mit allgemeinen Grundlagen für die Realisierung von gesicherten Transportprotokollen der OSI-Schicht 4. Angesprochen werden ferner die Protokolle IEEE802.2 und IEEE 802.3 der OSI-Schicht 2 für Medium Access Control (MAC) und Logical Link Control (LLC). Zur Implementierung dieser Protokolle kommen die Linux RAW Sockets als Programmierschnittstelle zum Netzwerkkarten-Zugriff zum Einsatz. Schwerpunkt der Arbeit ist die Software-Architektur zur Umsetzung des TP4-Transportprotokolls. Die nötigen Mechanismen für eine gesicherte Datenübertragung mit Sequenznummern, Acknowledges und Timern werden objektorientiert in C++ realisiert. Die Modellierung der beteiligten Klassen erfolgt mit Hilfe der Unified Modeling Language (UML).
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
Moderne Mobiltelefone bieten heutzutage eine Vielzahl von Funktionen, die weit über die grundlegenden Sprachdienste hinausgehen. Sie können als Terminplaner oder auch als Foto- und Videokamera genutzt werden. Die Nutzung dieser Funktionen wurde durch die steigende Leistungsfähigkeit der Geräte möglich. Mit der Entwicklung von UMTS und insbesondere den Übertragungstechniken HSDPA und HSUPA erhält das „mobile Internet" mehr und mehr Einzug auf mobilen Endgeräten. Aufgrund der hohen Leistungsfähigkeit und des Vorhandenseins der nötigen Infrastruktur können auch Videostreaming-Dienste genutzt werden. Um die Qualität einer Videoübertragung sicherzustellen, ist es notwendig, eine Software zu haben, die die Rahmenbedingung der Übertragung bestimmt und so Rückschlüsse auf die entscheidenden Parameter ermöglicht. In dieser Arbeit soll eine Software entwickelt werden, mit der es möglich ist, die Qualität einer Videoübertragung zu bewerten. Um eine möglichst hohe Qualität der Videos zu ermöglichen, müssen sie zur Übertragung effizient komprimiert werden. Einer der neuesten Standards zur Komprimierung ist H.264. Dieser Standard bietet eine durchschnittlich dreimal höhere Kompressionsrate als MPEG-2, welches beispielsweise bei der Übertragung von digitalem Fernsehen (DVB) und der Speicherung von Videodaten auf einer DVD zum Einsatz kommt. H.264 ist Teil des MPEG-4 Standards, der sich im Bereich der mobilen Endgeräte schon jetzt durchgesetzt hat. Die Struktur von H.264 wird im zweiten Kapitel dargestellt, der Transport von H.264 über verschiedene Streaming-Protokolle im dritten Kapitel dieser Arbeit. Die zur Bewertung der Qualität verwendeten Parameter werden im vierten Kapitel zusammengefasst. Die zu erstellende Software soll primär für die Android Plattform entwickelt werden. Jedoch soll bei der Entwicklung auch darauf geachtet werden, dass die Software leicht in eine andere Umgebung portierbar ist. Die Android Plattform ist ein komplettes Softwarepaket für mobile Endgeräte wie Smartphones und Netbooks. Neben einem auf Linux basierenden Betriebssystem liefert Android eine Middleware für die Entwicklung und den Betrieb der Anwendungen. Im fünften Kapitel wird der grundlegende Aufbau und die Entwicklung einer Android Anwendung beschrieben. Nach der Betrachtung der Grundlagen zur H.264-Videokompression, der verwendeten Streaming-Protokolle und der Entwicklung einer Android Anwendung folgt das sechste Kapitel, welches sich mit dem Softwareentwurf und der Implementierung beschäftigt. Der plattformunabhängige Teil der Software steht hier im Fokus, während dem plattformabhängigen Teil lediglich ein kleiner Teil des Kapitels gewidmet ist. Die Qualitätssicherung der Software wird im siebten Kapitel beschrieben. Hier erfolgt eine Betrachtung des Einflusses der Software auf die Übertragung. Ebenso werden Methoden zur Überprüfung der Korrektheit erläutert. Das achte Kapitel zeigt die Auswertung der Messerergebnisse. Im neunten Kapitel wird die entworfene Software dargestellt. Es wird die Bedienung der Software erläutert, sowie die Darstellung der Messergebnisse präsentiert.
Customer Relationship Management (CRM) ist ein seit einiger Zeit in allen Managementpublikationen heiß diskutiertes Thema. Die Philosophie des CRM stellt den Kunden in den Mittelpunkt der Unternehmensaktivitäten und -prozesse, mit dem Ziel der größtmöglichen Ausschöpfung von Kundenpotentialen und damit einhergehender Umsatzmaximierung. Voraussetzung dafür ist die umfassende Kenntnis der Kundenbedürfnisse und eine daran orientierte Kommunikation mit dem Kunden. Dies Bedingt einen optimalen Überblick über alle zu einem Kunden verfügbaren Daten1. Dieses Ziel kann nur durch das unternehmensweite Zusammenspiel aller relevanter Unternehmensbereiche und -systeme erreicht werden. Das macht die Abkehr von der rein bereichsbezogenen bzw. funktionalen Organisation im Unternehmen, hin zu einem Denken in horizontalen, also abteilungsübergreifenden Geschäftsprozessen, notwendig. Dabei ist es Aufgabe der Informationstechnik, die Prozesse mit den notwendigen Werkzeugen zu unterstützen. Neben der Unterstützung und Verbesserung der Kommunikation zwischen Kunden, Unternehmen und den an den unternehmensinternen Prozessen beteiligten, liegt dabei ein Schwerpunkt in der Ausnutzung bereits vorhandener Daten. Diese schlummern häufig in den unterschiedlichsten Systemen verschiedener Abteilungen entlang der betrieblichen Wertschöpfungskette. Es gilt, die vorhandenen Quellen zu erschließen und in die Unterstützung aller horizontal integrierten Geschäftsprozesse einzubinden.
Heutzutage ist das Internet, wie die sozialen Netzwerke ein fester Bestandteil unserer So nutzen Unternehmen in dem Kommunikationszeitalter die Netzwerke um in diesen Plattformen mit den Nutzern zu kommunizieren. Hierbei ist das Ziel dieser Bachelorarbeit zu untersuchen in wie weit man eine Erweiterung entwickeln kann um diese Ziele zu erreichen.
Dabei soll im Rahmen dieser Arbeit eine prototypische Implementierung stattfinden, um die Entwicklung eines Multichannel Social Media Marketingtools basierend auf Atlassian Produkten zu ermöglichen.
Die Arbeit gibt zunächst einen Überblick der wichtigsten Grundlagen. Danach wird mit einer Analyse die Anforderungen an den Prototypen erhebt und ausgewertet , sowie eine Marktanalyse durchgeführt. Darauf folgt die Konzeption, wie die Implementierung des Prototyps, was im Anschluss mit einem Test für die Gebrauchstauglichkeit ergänzt wird.
LA FERDINANDA (in der Mitte des Ozeans...), ein 1981 von Rebecca Horn
bemaltes Glasobjekt ist aufgrund seines Erhaltungszustandes nicht mehr
ausstellungsfähig. Aufbauend auf Untersuchungen zu künstlerischem Kontext,
verwendeten Materialien, Werkprozess und Erhaltungszustand wurde ein
Restaurierungskonzept entwickelt. Den Schwerpunkt der Arbeit stellt die
Konsolidierung des schwach gebundenen Farbauftrages auf dem Glasträger dar.
Hierfür wurden umfangreiche Versuchsreihen angelegt und bewertet. Die besten
Ergebnisse konnten mit einem Konsolidierungsmittel auf Basis des
siliciumorganischen ORMOCER-G in Mischung mit Paraloid B72 erzielt werden.
Die Applikation erfolgte mit einem Dosiergerät.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Diese Arbeit beschäftigt sich mit der Realisierung eines Parsers, der mathematische Beweise aus „TeXmacs“ in eine zu erstellende XML-Struktur umwandelt. Die Struktur der XML-Datei wird durch eine ebenfalls zu entwickelnde DTD-Datei vorgegeben. TeXmacs ist ein WYSIWYG-Editor zum Beschreiben von mathematischen Texten. Die Arbeit findet im Rahmen der Forschungsgruppe Naproche statt. Langfristig soll das Ergebnis der Arbeit in Naproche eingesetzt werden, um mathematische Beweise besser auf ihre logischen Aussagen zu überprüfen. Zu klären ist also, ob die logische Abfolge des erfassten TeXmacs-Beweises richtig in eine XMLStruktur umgesetzt wurde und alle dokumentierten Voraussetzungen und Beweisschritte im XML-Dokument syntaktisch richtig sind. Die Anwender, die direkt in TeXmacs mit Beweisen arbeiten, sollen eine Rückmeldung erhalten. Bei einer fehlerhaften Rückmeldung soll auch die Stelle im Beweis gekennzeichnet werden, an der der Fehler aufgetreten ist. Dieser kann so schnellstmöglich korrigiert werden. Tritt keine Fehlermeldung auf, wird auch das als Information ausgegeben. Diese Bachelorarbeit befasst sich mit der Realisierung des ersten Teils: Aus einer von TeXmacs erzeugten SCM-Datei soll mit einem Java-Programm die Struktur des mathematischen Textes ermittelt werden; es soll also eine Trennung von mathematischen Formelanteilen (Formeln, Gleichungen/Ungleichungen, mathematische Symbole, usw.) und beschreibenden Texten durchgeführt werden. Diese Struktur wird mit den Regeln einer DTD in ein XML-Format so umgewandelt, dass das resultierende XML-Dokument von den nachfolgenden Modulen des Naproche-Projekts bearbeitet werden kann.
Entwicklung eines Videoanalysesystems auf Basis von Java Mobile Edition für Symbian SmartPhones
(2009)
Der Markt für mobile Telefone wächst schon seit mehreren Jahren rasant. Das "Handy" wird schon lange nicht mehr nur zum Telefonieren benutzt. Es ist zu einem nicht mehr wegzudenkenden Assistenten geworden, der immer einsatzbereit und in Reichweite ist. Das Gerät kann außer den Grundfunktionen wie Telefonieren und SMS-Verschicken als persönlicher Terminplaner, Notizbuch oder auch als Foto- oder sogar Videokamera genutzt werden. In den letzten Jahren sind Mobiltelefone auch in der Internet- und Multimediawelt vertreten. Sie besitzen mittlerweile genug Leistung, Speicher und Bildschirmfläche, um Webseiten darzustellen oder komplette Spielfilme wiederzugeben. Die sinkenden Preise für mobile Breitband-Internetzugänge (Flatrate mit 7,2 Mbit/s schon ab 35 Euro), die wachsende Anzahl der mobilen Internet-Zugänge, die sinkenden Nutzungspreise der so genannten „HotSpots“ (in Hotels, Restaurants, etc. oft kostenfrei) und die Leistungsfähigkeit der aktuellen mobilen Endgeräte, ermöglichen die Nutzung der Videostreaming-Dienste. Diese Dienste können zum Beispiel IPTV, Video on Demand oder Videotelefonie sein. Um die Qualität des über ein IP-Netzwerk gelieferten Videodatenstrom zu gewährleisten, ist es notwendig die Qualität dieses Datenstroms im realen Umfeld und unter realen Bedingungen messen zu können. Das erfordert die Entwicklung eines Messsystems, welches direkt auf einem Endgerät installierbar und vom Gerätetyp möglichst unabhängig ist. Das zu entwickelnde Programm soll den Videodatenstrom mitschneiden und auswerten können ohne die Übertragung zum Wiedergabeprogramm zu stören. Es soll der Paketverlust, der Wert des Interarrival Jitters sowie die für das jeweilige Videoformat spezifischen Informationen erfasst werden. Die Auswertung soll in vom Benutzer bestimmbaren Intervallen durchgeführt werden können. Um diese Anforderungen zu erfüllen, wird eine Anwendung in der Programmiersprache Java Mobile Edition implementiert, die wie eine Netzwerkbrücke funktionieren wird. Sie wird Java-Threads für das parallele Empfangen und Weiterleiten der Datenpakete zwischen dem Server und dem Wiedergabeprogramm sowie für das Extrahieren und Auswerten der Daten verwenden. In Kapitel 2 werden die meisten Begriffe, die in der Diplomarbeit vorkommen erläutert. Einen wichtigen Punkt stellen in diesem Kapitel die Protokolle für den Transport der multimedialen Daten. Für die Darstellung von Videodaten auf mobilen Endgeräten hat sich der MPEG-4-Standard durchgesetzt. Dessen Entwicklung hat als Ziel, Systeme mit geringen Ressourcen oder schmalen Bandbreiten bei relativ geringen Qualitätseinbußen zu unterstützen. Auch dieser Standard wird hier dargestellt. Die Wahl der Programmiersprache, deren Hauptaspekte und die zur Fertigstellung des Messsystems nötigen Komponenten werden zum Schluss dieses vorgestellt. In Kapitel 3 wird die Umsetzung des Systems beschrieben: Zuerst die Darstellung des Entwicklungssystems und der Entwicklungsumgebung (3.1), danach werden zwei Alternativen genannt, nach denen die Entwicklung des Grundgerüsts der Software möglich ist (3.2). In Abschnitt 3.3 werden die Methoden präsentiert, die den Kern des Messsystems bilden und die so genannte „Deep Inspection“ des Videodatenstroms durchführen.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
Die vorliegende Arbeit beschäftigt sich im übergeordneten Kontext mit den Bounding Volume Hierarchies zur Veinfachung des Intersection Testings beim Raytracing. Die derzeitige Problematik besteht vor allem in der immer noch zu optimierenden Laufzeit. Dementsprechend wird trotz der bereits bestehenden Beschleunigungsdatenstrukturen wie unter anderem der Bounding Volume Hierarchy versucht, effizientere Strukturen oder Erstellungsprozeduren zu entwickeln. Für die Bounding Volume Hierarchy bedeutet dies, dass vor allem hinsichtlich verschiedener Splitting-Methoden und Möglichkeiten für die Baumoptimierung geforscht wird. Explizit wird daher innerhalb dieser Arbeit untersucht, wie die Bounding Volume Hierarchy durch die Verwendung der Hauptkomponentenanalyse bei der Erstellung optimiert werden kann und wie effizient der daraus resultierende Ansatz gegenüber der klassischen Bounding Volume Hierarchy sowie deren Splitting-Methoden ist. Eine Evaluation anhand 12 verschiedener Szenen zeigte, dass der vorliegende Ansatz unter Verwendung der SAH-Methode wie auch mit der Middle-Methode 17.70% respektive 13.14% geringere Renderlaufzeiten als der distanzbasierte Ansatz aufweist. Des Weiteren konnte mittels der kombinierten Verwendung aus klassischer SAH-Methode und PCA-basierter SAH-Methode eine weitere Verbesserung um 6.65% gegenüber der SAH-Methode der PCA-BVH erreicht werden.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
The post-conflict setting in Colombia resulted after the signing of the peace agreement between the Revolutionary Armed Forces of Colombia (FARC) and the national Government at the end of 2016, faces two main problems. On one hand, the environmental degradation and the pressure over the ecosystems now exposed to the economic and socio-demographic dynamics of the country; and on the other hand, the increase of violence in rural areas characterized by the abundance of natural resources. These two problems can be linked through the complex dynamics of natural resources appropriation. Among the natural resources affecting the course of the post-conflict in Colombia, gold appears as one of the most relevant sources of violence and environmental degradation. This condition makes it crucial to understand the complex local dynamics of mining regions in order to propose alternatives for consolidating a sustaining peace. The armed groups, the state, the private companies, and traditional gold mining communities are all stakeholders involved in gold mining and the conflicts around this activity. Nevertheless, communities have been denied as a formal actor.
This work aims to give voice to those communities, understanding them as a key actor for peacebuilding. This research seeks to understand the relationship between gold mining and the social-armed conflict in Colombia, to identify which are the drivers for the increasing of this activity during the post-conflict, as well as which strategies developed by traditional gold mining communities can contribute to peacebuilding. Thus, an integrative analytical framework is developed. This theoretical framework integrates 1) environmental peacebuilding to evaluate the possibilities of natural resources to becoming tools for cooperation, and 2) political ecology to clarify, from a multi-scalar approach, the socio-political context in which the conflict takes place. Hence, from a qualitative approach that involves several ethnographic methods is found that artisanal-ancestral miners and traditional miners organized to remain in their territories in a context of dispossession, have developed socio-ecological systems and natural resources management strategies relevant to implement initiatives of environmental peacebuilding that can be sustained over time and aimed to overcome the structural causes of violence and environmental degradation.
Informationen beim Eintreten eines Ereignis zu übermitteln, ist die Aufgabe ereignisorienterter Systeme. Für die Entwicklung solcher Systeme, gibt es eine Reihe von Technologien und Standards, welche je nach Plattform oder Anwendungskontext verschiedene Vorteile besitzen. Innerhalb dieser Seminararbeit werden die webbarsierten Systeme betrachtet, in dem auf die Konzepte von Light und Fat Ping, Publish-Subscribe sowie zentrale und dezentrale Architekturen eingegangen wird. Des Weiteren werden die Technologien XMPP, Googles C2DM, Amazon SNS und SQS, Twitter und Apples Push Notification beschrieben. Abschließend werden aus diesen Betrachtungen Merkmalsdimensionen abgleitet, die dabei helfen sollen, geeignete Lösungen in einem Anwendungskontext auszuwählen. Zusätzlich können diese bei der Konzeption von Systemen als Hilfestellung herangezogen werden.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Mittelständische Unternehmen erkennen zunehmend die Notwendigkeit einer systematischen Vertriebssteuerung und langfristigen Kundenbindung gerade in der heutigen gesamt- und weltwirtschaftlichen Lage, in der alle Märkte einem harten Konkurrenzdruck unterliegen. Um im aktuell vorliegenden Käufermarkt eine Kundenbindung bzw. –treue zu erlangen, ist die aktive Kundenbetreuung ein absolutes Musskriterium. Genau an diesem Punkt setzt das Customer Relationship Management (CRM) an. Der Kunde rückt zwar in den Mittelpunkt beim CRM, es darf dabei aber nicht die eigene Unternehmung vergessen werden. Der Kerngedanke einer jeden CRM-Lösung ist, die Kosten zu senken sowie den Gewinn der Unternehmung langfristig zu sichern. Um den Kerngedanken zu untermauern, bedient sich eine CRM-Lösung folgender Hilfsmittel, um am Markt eine Steigerung der Wettbewerbsfähigkeit durch eine erhöhte Kundenorientierung zu erlangen: Optimierung der internen Prozessabläufe (auf den Kunden ausgerichtet), Marktpotentialanalyse, automatisches Dokumentenmanagement, Email und CTI-Integration, Besuchplanung, Projektmanagement, verbessertes Service- und Supportangebot sowie ein Termin- und Ressourcenmanagement. Die Einführung einer CRM-Lösung in einem mittelständischen Unternehmen ist ein längerfristiges Projekt. Es reicht nicht aus, eine von den zahlreich vorhandenen CRM-Softwarelösungen zu implementieren, um eine überlebensfähige CRM-Lösung zu besitzen. Eine CRM-Software kann nur so gut sein, wie sich die Unternehmung im Vorfeld eine Strategie und Ziele an ein CRM gesetzt hat. Zusätzlich muss in der gesamten Unternehmung die Begeisterung und Akzeptanz für das CRM geschaffen und aufrecht erhalten werden, da CRM als eine eigenständige Philosophie zu verstehen ist. Nur wenn sich alle Mitarbeiter mit der CRM-Lösung identifizieren und diese aktiv leben, hat die CRM-Lösung Aussicht auf Erfolg.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Um Strahlenschäden zu vermeiden und die Aufnahmequalität der Röntgenbilder in der Veterinärmedizin zu verbessern, wurde im Rahmen dieser Arbeit ein Konzept für einen „Digitaler Aufnahmehelfer für die Kleintierradiologie“ entwickelt. Bei der Produktion dieser flashbasierten Software wurden beispielhaft computergenerierte Grafiken (CGI) und 3D-Animationen erstellt. Ebenso wurden Belichtungstabellen eingebunden. Diese wurden in Zusammenarbeit mit der Tierhochschule Hannover und der Firma Gierth X-Ray international erarbeitet. Es ergaben sich Belichtungswerte, die auf physikalischen Grundlagen beruhen.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Im Jahr 2007 wurden die „Ethischen Grundsätzen für Bibliotheks- und Informationsberufe“ in Deutschland verfasst. Es handelt sich hier um einen beruflichen Verhaltenskodex, der Richtlinien für angemessenes Verhalten für Bibliotheksbeschäftigte vorgibt. Die vorliegende Arbeit beschäftigt sich damit, aus welchen Gründen und in welchen Verfahren der Ethikkodex erstellt wurde. Weiterhin werden der Stand der Diskussion und die öffentliche Wahrnehmung des Kodexes innerhalb des deutschen Bibliothekswesens untersucht. Eine inhaltliche Analyse stellt fest, welche Kernaussagen innerhalb des Kodexes getroffen werden. Der deutsche Ethikkodex wird in Bezug auf Entstehung und Inhalt exemplarisch mit Ethikkodizes aus den USA und Estland verglichen. Dieser Vergleich ermöglicht es, Rückschlüsse darüber zu ziehen, inwieweit der Inhalt gelungen und der Entstehungsprozess nachvollziehbar ist und an welchen Stellen Überarbeitungsbedarf erkennbar ist.
Observational studies and clinical trials have become increasingly important over recent years and play an essential role in advancing medical knowledge. In today’s world of clinical research, it is not possible to imagine trials without the founda-tion of a well-established it-infrastructure. Electronic capture and usage of data is pervasive.
In practice, medical progress requires the ability to integrate data from different systems. An essential factor in enabling different actors, such as institutions and hospitals, to have their systems exchange structured data and make use of the information is the interoperability of the data and systems.
FHIR (Fast Healthcare Interoperable Resources) is a free and easily customizable HL7 platform standard, based on 30 years of experience of HL7. It is focused on providing health-related information and defines a set of capabilities used in the health care process.
This thesis will provide a conceptual approach for working with FHIR, as well as concrete approaches for working with FHIR profiles and for customizing the standard for particular use cases. It will be carried out in cooperation with the Medical Systems R&D, which is a service provider within the University Hospital of Cologne.
The guiding request approach will focus on the evaluation of requirements for clini-cal trials and how clinical research protocols can be represented in an interoperable and machine-parsable format using FHIR.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Objectives FHIR (Fast Healthcare Interoperability Resources) is an emerging Stan¬dard for improving interoperability in the domain of health care. Besides offering features for achieving syntactical, semantical and organizational interoperability, it also specifies a RESTful API for searching purposes. The main objective of the following thesis revolves around investigating open challenges and limitations of the so-called FHIR Search Framework.
Methods A variety of operations for searching in FHIR resources, including all search interactions, definitions of search parameters, search parameter types and advanced search concepts are described. Over the course of the thesis, a quality model based on ISO 25010 is established. It serves as the foundation for determining if the FHIR Search Framework is well-suited to cover the Information needs of its users. An analysis of completeness involving the measures defined in the quality model forms the main contribution. The primary discussion of the research questions is concluded by proposing a graph model for determining reachability between FHIR resources, essentially mirroring the chaining and reverse chaining functionality. Using well-known classes for expressiveness in graphs, the thesis assess to which degree a graph search can be formulated with the currently defined capabilities.
Results From a functional perspective the FHIR Search Framework can be considered well-suited. Practical limitations should be minimal, grounded on the fact that extensive coverage of the lowest expressiveness classes, RPQs and 2RPQs, can be achieved. Severe gaps where identified only in the support of C(2)RPQs and Data Path Queries. Additionally, ideas for improving non-functional aspects are introduced to support developers in learning the Standard and testing their implementations.
Conclusion The evaluation of the FHIR Search Framework showed promising re¬sults in terms of functional completeness. Yet, the Standard is still evolving, and certain parts of the Search API are neither well-known nor implemented widely. A discussion is to be held if the specification should cover more sophisticated aspects that result from the gaps which were identified.
Das Wissen nutzbar zu machen steht an zentraler Stelle. Heute wird der Mensch mit Informationsmengen konfrontiert und steht dadurch vor dem Problem einer enormen Informationsflut. In der schnelllebigen Zeit der IT-Technik (Information und Telekommunikation) soll eine innovative Methode die Informationsrecherche zeitlich verkürzen und eine individuell optimale Lösung für den Benutzer gefunden werden. Die gebrauchstaugliche Unterstützung heißt: Eine semantisch-webbasierte Visualisierung zur Unterstützung des Findens innerhalb des Semantic Web. Der Ansatz der Visualisierung liegt darin begründet, dass Menschen hauptsächlich über die Augen wahrnehmen und schnell Zusammenhänge erkennen können. Sogar blinde Menschen nutzen dazu ein mentales System, das visuell räumliches Skizzenblatt (scratch-pad), um Bilder bzw. die Umwelt zu verarbeiten. Der Vorteil liegt darin begründet, dass es einen schnellen direkten Zugriff auf das Arbeitsgedächtnis ermöglicht. Ein Anwendungsszenario im Bereich des Mobilfunks soll als Praxisbeispiel dienen. Bei der Vielzahl der angebotenen Handys mit den homogenen Leistungen findet kaum ein Kunde die Unterscheidungen und es gibt zurzeit keine Möglichkeit unter den Handys benutzungsfreundlich zu differenzieren noch ein optimales Handy zu finden. Am Beispiel von selbst dargestellten Szenarien und einer Evaluation wird erörtert, wie anhand von angenommenen Stakeholder, ein Zusammenspiel der Semantic Web Technologien eine jeweilige Lösung von verfügbaren Informationen aufgefunden und bearbeitet werden kann. Ziel bei der Anwendung ist es, ein Prototypen zu realisieren, dass gebrauchstauglich bei der Visualisierung von großen Datenmassen, auf Grundlage einer Empfehlung von Mobilgeräten in einem Webinterface, unterstützt. Das bereits geschriebene Praxisprojekt-Referat in Form eines Konzepts mit dem Thema: „Graphische Visualisierung von semantischen Daten in einem Webinterface“ dient dabei als Grundlage für diese Bachelorarbeit (siehe Kap. 8.2). Grundlage, Innovationen und Beispiele aus der Praxis sind ausführlich dort beschrieben worden. Dabei wurden die neusten Technologien unter den Kriterien der Häufigkeit in der Praxis, Plattformunabhängigkeit und der Flexibilität betrachtet. Künstlerisch gestalterische Disziplinen, die Produkte graphisch zum Glänzen bringen möchten oder welche, die sich mit den grundlegenden Technologien für semantische Daten sich beschäftigen, bleiben bei dieser Arbeit unbehandelt. Es geht im Schwerpunkt um eine Beantwortung der folgenden Forschungsfrage: Inwieweit sind graphische Repräsentationen vorteilhafter, um Wissen zu vermitteln, in Verhältnis zu textuellen Repräsentationen?
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
In der vorliegenden Bachelorarbeit werden Objektive und deren Eigenschaften hinsichtlich ihrer Eignung für die Time-of-Flight Technologie in Verwendung mit dem PMD[vision]®CamCube3.0 untersucht. Dabei wird zunächst die Scharfstellung geprüft und analysiert. Desweiteren werden System-MTF-Kurven von verschiedenen Objektiven in unterschiedlichen Entfernungen gemessen. Die Objektive werden untereinander verglichen und die gemessenen Werte den Hersteller-MTF-Kurven gegenübergestellt. Außerdem wird eine Simulation zur Berechnung des aus einer nicht perfekten Modulationsübertragung resultierenden Phasenfehlers durchgeführt und analysiert.
Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte Fehlerzustände können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) überführt. Diese Arbeit bietet dem Anwender ein Werkzeug, um häufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unüberwachtem Lernen (Autoencoder) geeignete Repräsentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch ähnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen Repräsentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums für das Pattern Mining. Um die Menge der Ergebnisse einzuschränken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die Nützlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Blogging has established itself as an important and influential part of the
modern online media. At the dawn of the blogosphere people were publishing
their diaries and life journals. Nowadays, some bloggers operate blogs that are
hardly any different from online newspapers and magazines. On the one hand
professional blogging is broadly accepted in the society, but on the other hand
it is poorly understood. The purpose of this explorative study is to broaden
the understanding of blogging as a professional activity. In particular, this
study explores the aspects of professional blogging and the interplay between
credibility, authenticity and monetisation in blogs.
To understand blogging as a professional activity an extensive literature
research is conducted. First, main concepts of blogging as a social activity
are discussed. Then, the changes that come together with the transformation
of a social activity into a professional activity of blogging are discussed. To
look at the activity of blogging from an unusual perspective, a comprehensive
qualitative survey is conducted with blog readers. The survey examines
not only readers’ perception of blogging as a professional activity, but also
motivations for reading blogs and attitude to monetising practices and labelling
of monetised content in blogs. Information received from the survey is used to
draw some conclusions about the state of the art of blogging as a professional
activity, and challenges and opportunities blogging industry faces nowadays.
As the number and intensity of environmental challenges increase, more faiths have initiated religiously motivated change within their communities or have been involved in cooperation projects with NGOs or GOs dedicated to conservation. Even though a lot of quantitative research had been done on the correlation of religiosity and concern for the environment, no scientific study dealt about the argumentation lines that drive or discourage believers to get involved in environmental conversation. As a basis for the research the Theory of Planned Behavior of Ajzen was modified into a model. By the means of Semi-Standardized Interview guidelines 15 members and leaders of different church communities in Amman were interrogated to retrieve meaning of and cause-effect-chains between the different components of the model. Their answers were coded and analyzed with cross tables to identify interconnections and their tendencies.
The results show that interviewees’ religious convictions about God and the world were the strongest influencer, whereas the community and leaders rarely gave a reason for people to adapt water saving measures. External factors such as governmental, societal, political or economic mostly discouraged people to adapt environmentfriendly behaviors. Approaches by the GIZ have already started catering to those challenges and potentials, however the range of impact did not reach until most of the interviewees.
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.