Refine
Year of publication
Document Type
- Bachelor Thesis (148) (remove)
Has Fulltext
- yes (148)
Is part of the Bibliography
- no (148)
Keywords
- Benutzerfreundlichkeit (12)
- Bibliothek (11)
- Öffentliche Bibliothek (11)
- Usability (9)
- Wissenschaftliche Bibliothek (8)
- Digitalisierung (7)
- Marketing (7)
- Wissensmanagement (7)
- Soziale Software (6)
- Informationskompetenz (5)
- Informationsmanagement (5)
- Öffentlichkeitsarbeit (5)
- App <Programm> (4)
- E-Learning (4)
- Lernsoftware (4)
- Social Media (4)
- Website (4)
- Augmented Reality (3)
- Kommunikation (3)
- Kompetenz (3)
- Maschinelles Lernen (3)
- Nachhaltigkeit (3)
- Neuronales Netz (3)
- Open Access (3)
- Personalmanagement (3)
- Softwareentwicklung (3)
- Sozialarbeit (3)
- Spezialbibliothek (3)
- Twitter (3)
- Unternehmen (3)
- Verwaltung (3)
- Web 2.0 (3)
- Agilität <Management> (2)
- Anforderung (2)
- Archiv (2)
- Aufgabenüberprüfung (2)
- Auskunftsdienst (2)
- Automatische Klassifikation (2)
- Barrierefreiheit (2)
- Befragung (2)
- Bestandserschließung (2)
- Bibliothekswebsite (2)
- Complex Event Processing (2)
- Corporate Social Responsibility (2)
- Deep learning (2)
- Design Thinking (2)
- Elektronisches Publizieren (2)
- Erschließung (2)
- Erweiterte Realität <Informatik> (2)
- Facebook (2)
- Fachkräftemangel (2)
- Forschungsdaten (2)
- Frauenhaus (2)
- Hannover (2)
- IT-Sicherheit (2)
- Influencer (2)
- Informationseinrichtung (2)
- Informationsverhalten (2)
- Inhaltserschließung (2)
- Kind (2)
- Klein- und Mittelbetrieb (2)
- Kulturerbe (2)
- Machine Learning (2)
- Marketingstrategie (2)
- Mikro-Blogging (2)
- Monitoring (2)
- Moodle (2)
- NS-Raubgut (2)
- Personalentwicklung (2)
- Personalwesen (2)
- Public Relations (2)
- Rassismus (2)
- SKOS (2)
- Semantic Web (2)
- Siddhi (2)
- Social Software (2)
- Softwaretest (2)
- Strategie (2)
- Tracking (2)
- Webentwicklung (2)
- World Wide Web 2.0 (2)
- XML (2)
- microblogging (2)
- twitter (2)
- Öffentlicher Personennahverkehr (2)
- AI (1)
- API (1)
- AR-Browser (1)
- ARIS (1)
- Abalone (1)
- Abschirmung (1)
- Abstract (1)
- Accessibility (1)
- Agile Softwareentwicklung (1)
- Agilität (1)
- Air Quality Monitoring (1)
- Akzeptanz (1)
- Algorithmus (1)
- Alltagskultur (1)
- AlphaGo (1)
- Alte Drucke (1)
- Android <Systemplattform> (1)
- Anforderungsmanagement (1)
- Angular (1)
- Anwendungssystem (1)
- Arbeitsbelastung (1)
- Arbeitsmarkt (1)
- Arbeitsweise (1)
- Artificial Intelligence (1)
- Arzneimittelinformationssystem (1)
- Arzt (1)
- Arzt-Patienten-Gespräch (1)
- Aufgabensammlung (1)
- Ausbildung (1)
- Auskunft (1)
- Ausschluss (1)
- Auswertung (1)
- Autobewerter (1)
- Automatic Identification System <Schifffahrt> (1)
- Automation (1)
- Automatisierungstechnik (1)
- Autonomes Fahrzeug (1)
- Außerirdisches Leben (1)
- Baden-Württemberg (1)
- Baum (1)
- Bauvorhaben (1)
- Behördenbibliothek (1)
- Bekleidungsindustrie (1)
- Belohnung (1)
- Benutzererlebnis (1)
- Benutzerforschung (1)
- Benutzeroberfläche (1)
- Benutzerorientierung (1)
- Beratung (1)
- Bergmann-Michel, Ella (1)
- Berufliche Qualifikation (1)
- Berufsanforderung (1)
- Berufsfußball (1)
- Beschleunigung (1)
- Bestandsaufbau (1)
- Bestandsmanagement (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
- Beteiligung (1)
- Beziehungsmanagement (1)
- Bibliografische Beschreibung (1)
- Bibliothek 2.0 (1)
- Bibliothekar (1)
- Bibliotheksführung (1)
- Bibliotheksgesetz (1)
- Bibliotheksgesetzgebung (1)
- Bibliotheksleiter (1)
- Bibliotheksleiterin (1)
- Bibliotheksorganisation (1)
- Bibliotheksrecht (1)
- Bibliothekswebseite (1)
- Bibliothekswissenschaft (1)
- Bilddatenbank (1)
- Bildersammlung (1)
- Bildgebendes Verfahren (1)
- Bildung (1)
- Brettspiel (1)
- Bronchokonstriktion (1)
- Buch (1)
- Buchbesitz (1)
- Business Intelligence (1)
- Bürgerkommunikation (1)
- C2C (1)
- CMS (1)
- COVID-19 (1)
- CRIS (1)
- CSR (1)
- CSR-Kommunikation (1)
- Chatbot (1)
- Checkliste (1)
- Christentum (1)
- Clubkultur (1)
- Co-operation (1)
- Cochlea (1)
- Coding (1)
- Commitment (1)
- Company (1)
- Competitive Intelligence (1)
- Complex Event Processing Engine (1)
- Computational Thinking (1)
- Computer Graphics (1)
- Computergrafik (1)
- Computerlinguistik (1)
- Computersicherheit (1)
- Computersimulation (1)
- Computerspiel (1)
- Contactless Payment (1)
- Container (1)
- Content Management (1)
- Content-Gestaltung (1)
- Content-Marketing (1)
- Content-Strategie (1)
- Cookie <Internet> (1)
- Corruption (1)
- Critical Incident Technik (1)
- Crowdsensing (1)
- Current Research Information System (1)
- DSpace (1)
- Data Librarian (1)
- Data Management (1)
- Data Mining (1)
- Data Quality (1)
- Datenanalyse (1)
- Datenformat (1)
- Datenmanagement (1)
- Datenqualität (1)
- Datenschutz (1)
- Datenverarbeitung (1)
- Datenverarbeitungssystem (1)
- Demografischer Wandel (1)
- Denkmalpflege (1)
- Desktop-Computer (1)
- Deutschland (1)
- Deutschland / Bundesamt für Strahlenschutz (1)
- Dewey-Dezimalklas (1)
- Dialogsystem (1)
- Digitale Bildung (1)
- Digitale Pathologie (1)
- Digitalization (1)
- Discovery Service (1)
- Discovery-System (1)
- Dokumentation (1)
- Dokumentenserver (1)
- Drittmittel (1)
- Drittmittelförderung (1)
- Dublin Core (1)
- Dunkle Triade (1)
- E-Assessment (1)
- E-Government (1)
- E-Voting (1)
- EAP (1)
- Editor (1)
- Edutainment (1)
- Ehrenamtliche Tätigkeit (1)
- Einfache Sprache (1)
- Eingliederung (1)
- Electronic Payment (1)
- Elektromagnetische Verträglichkeit (1)
- Elektronische Wahl (1)
- Emotional Competence (1)
- Emotionale Kompetenz (1)
- Enterprise 2.0 (1)
- Erfahrungsexperten (1)
- Erfolgskontrolle (1)
- Erlebnisqualität (1)
- Erwachsener <20-25 Jahre> (1)
- Esper (1)
- Evolutionärer Algorithmus (1)
- Experte (1)
- Eye-Tracking (1)
- FAQ (1)
- FC Schalke 04 (1)
- FIS (1)
- Fachhochschule Hannover (1)
- Factorial Survey (1)
- Fahrbibliothek (1)
- Fahrplan (1)
- Faktorieller Survey (1)
- Fallstudie (1)
- Federal Office for Radiation Protection (Germany) (1)
- Feminismus (1)
- Fertigung (1)
- Festival (1)
- Finanzierung (1)
- Fingerprinting (1)
- Firewall (1)
- Fitting (1)
- Flickr (1)
- Forschungsdateninfrastruktur (1)
- Forschungsdatenmanagement (1)
- Forschungsinformationssystem (1)
- Fotocommunity (1)
- Fotosammlung (1)
- Frageverhalten (1)
- Frauenhausarbeit (1)
- Frauenhauskinder (1)
- Freiluftsport (1)
- Freiwilligenarbeit (1)
- Functional Requirements for Bibliographic Records (1)
- Fußball-Kommunikation (1)
- Führung (1)
- GLAM (1)
- GPGPU (1)
- Gamification (1)
- Gaming (1)
- Gehobener Dienst (1)
- Geistige Behinderung (1)
- Gemeinwesenarbeit (1)
- General Purpose Computation on Graphics Processing Unit (1)
- Generation Y (1)
- Genetischer Algorithmus (1)
- Gestaltung (1)
- Gesundheit (1)
- Gesundheitskommunikation (1)
- Glaubwürdigkeit (1)
- Gouvernementalität (1)
- GraFLAP (1)
- Grader (1)
- Graja (1)
- Grappa (1)
- Green Tourism (1)
- Guidelines (1)
- HIV (1)
- HSU/ UniBw H (1)
- Hacker (1)
- Handlungsempfehlung (1)
- Handlungsempfehlungen (1)
- Handypayment (1)
- Hardwarebeschleunigung (1)
- Helmut-Schmidt-Universität (1)
- Herausgabe (1)
- Hierarchische Klassifikation (1)
- Hochschulbibliothek (1)
- Hochschulbibliotheken (1)
- Hochschuldidaktik (1)
- Hospizarbeit (1)
- Hospizbewegung (1)
- Häusliche Gewalt (1)
- IEEE 802.1X (1)
- ISMS (1)
- IT Klassifikation (1)
- IT-Kompetenz (1)
- Identi.ca (1)
- Immobilien-PR (1)
- Incentivierung (1)
- Indexierung <Inhaltserschließung> (1)
- Influencerin (1)
- Information Centre (1)
- Information und Dokumentation (1)
- Informationsdidaktik (1)
- Informationsfreiheit (1)
- Informationsmanager (1)
- Informationssicherheit (1)
- Informationssicherheitsmanagementsystem (1)
- Informationssystem (1)
- Informationstechnik (1)
- Infotainment (1)
- Inhalt (1)
- Inhaltsanalyse (1)
- Innenstadt (1)
- Innovation (1)
- Instagram (1)
- Instanziierungsservice (1)
- Institutionelles Repositorium (1)
- Integriertes Informationssystem (1)
- Interactive Training (1)
- Interne Informationseinrichtung (1)
- Internetkriminalität (1)
- Internetpräsenz (1)
- Internetsicherheit (1)
- Intersektionalität (1)
- Intervention (1)
- Islam (1)
- JFLAP-Wrapper (1)
- JFugue (1)
- JUnit (1)
- Java <Programmiersprache> (1)
- Java <Programmiersprache> (1)
- Juden (1)
- Judenverfolgung (1)
- KMU (1)
- KPI (1)
- Kabel (1)
- Kano-Methode (1)
- Kano-Modell (1)
- Katalog 2.0 (1)
- Katalogisierung (1)
- Key Performance Indicator (1)
- Kindesmisshandlung (1)
- Klassifikation (1)
- Kommunalwahl (1)
- Kommunikationsgeschwindigkeit (1)
- Komposition <Musik> (1)
- Konfigurationen (1)
- Konfigurationsverwaltung (1)
- Konkurrenzanalyse (1)
- Kontaktloses Bezahlen (1)
- Kontext (1)
- Kontrolliertes Vokabular (1)
- Konverter (1)
- Konzeption (1)
- Kooperation (1)
- Korruption (1)
- Kriegsbeute (1)
- Kritik (1)
- Kultur (1)
- Kulturerbedaten (1)
- Kunde (1)
- Körperzufriedenheit (1)
- Künstliche Intelligenz (1)
- LON-CAPA (1)
- Landesbehörde (1)
- Landmarke (1)
- Landmarkenbasierte Registrierung (1)
- Landwirtschaft (1)
- Leibniz-Institut für Bildungsmedien, Georg-Eckert-Institut (1)
- Leichte Sprache (1)
- Leistungskennzahl (1)
- Leistungskennzahlen (1)
- Leitfadeninterview (1)
- Leitungsschirm (1)
- Lernbehinderung (1)
- Lernende Bibliothek (1)
- Lernende Organisation (1)
- Lernerfolgsmessung (1)
- Lernort (1)
- Library (1)
- Linked Data (1)
- Linked Open Data (1)
- Literarischer Nachlass (1)
- Literaturbericht (1)
- Literaturrecherche (1)
- Luftqualität (1)
- Luxus (1)
- Luxusmodemarketing (1)
- M-Payment (1)
- Machiavellismus (1)
- Markenführung (1)
- Markenpolitik (1)
- Marktanalyse (1)
- Marktpotenzial (1)
- Maschinelles Sehen (1)
- Mediendesign (1)
- Medizinische Bibliothek (1)
- Medizinische Hochschule Hannover. Bibliothek (1)
- Meinungsfreiheit (1)
- Menschliche Cochlea (1)
- Messe (1)
- Messe <Wirtschaft> (1)
- Messestand (1)
- Messeveranstalter (1)
- Metadaten (1)
- Metriken (1)
- Michel, Robert (1)
- Microblogging (1)
- Mitarbeiterzeitschrift (1)
- Mobile Anwendung (1)
- Mobile Bibliothek (1)
- Mobile Money Transfer (1)
- Mobile-Payment (1)
- Mobiles Internet (1)
- Mobilfunkbasierende Bezahlung (1)
- Mode (1)
- Modell (1)
- Modellierung (1)
- Modemarketing (1)
- MooPT (1)
- Moodle-STACK (1)
- Moritz, Sachsen-Lauenburg, Herzog (1)
- Motivattribution (1)
- Museum (1)
- Musikkomposition (1)
- Mutual Recognition Procedure (1)
- Männerkleidung (1)
- Nachlass (1)
- Nachrichtenfaktor (1)
- Nachrichtenwerttheorie (1)
- Narzissmus (1)
- Nationalsozialismus (1)
- Netzwerk (1)
- Netzwerksicherheit (1)
- Neue Dienstleistungen (1)
- Neue Medien (1)
- Neuer Mitarbeiter (1)
- New Work (1)
- Next Generation Catalogues (1)
- Next Generation Firewall (1)
- Niedersachsen (1)
- Node.js (1)
- Numerische Optimierung (1)
- Nutzerforschung (1)
- Nutzerzufriedenheit (1)
- OER (1)
- OSS (1)
- OWL <Informatik> (1)
- Objektverfolgung (1)
- Onboarding (1)
- Onleihe (1)
- Online-Gesundheitskommunikation (1)
- Online-Informationsverhalten (1)
- Online-Katalog (1)
- Online-Medien (1)
- Open AI (1)
- Open Acces (1)
- Open Educational Resources (1)
- Open GLAM (1)
- Open Innovation (1)
- Open access monitoring (1)
- Open-Access-Strategie (1)
- Open-Source-Softwarelösungen (1)
- Open-air-Festival (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Organisationaler Zynismus (1)
- Organisatorisches Lernen (1)
- Organizational Cynicism (1)
- Outdoor (1)
- PDF <Dateiformat> (1)
- PDF/A (1)
- PROFInet (1)
- Parametrisierung (1)
- Parasoziale Beziehungen (1)
- Parasoziale Interaktion (1)
- Partei (1)
- Partnerschaftsgewalt (1)
- Pathologie (1)
- Patient (1)
- Payment (1)
- Peer Arbeit (1)
- Personality (1)
- Personalpolitik (1)
- Personas (1)
- Personennamendatei <Werk> (1)
- Persönlichkeit (1)
- Pflichtexemplar (1)
- Photographie (1)
- Physically Based Rendering (1)
- Picture Australia (1)
- Plug in (1)
- Podcast (1)
- Politische Kriminalität (1)
- Polizeiakademie (1)
- Portabilität (1)
- Portal <Internet> (1)
- Pressefreiheit (1)
- ProFormA (1)
- Process analysis (1)
- Produktbewertung (1)
- Profifußball (1)
- Programmieraufgabe (1)
- Programmieren (1)
- Programmierplattform (1)
- Programmierumgebung (1)
- Programmierung (1)
- Projektkommunikation (1)
- Prototyp (1)
- Provenienzforschung (1)
- Prozessanalyse (1)
- Präsentation (1)
- Psychische Belastung (1)
- Psychische Störung (1)
- Psychopathie (1)
- Publikationsmonitoring (1)
- Publikationswesen (1)
- Punktwolke (1)
- Quadratischer-Rest-Code (1)
- Qualifikation (1)
- Qualitätssicherung (1)
- Quereinstieg (1)
- RADIUS (1)
- RDF (1)
- RDF <Informatik> (1)
- Raspberry Pi (1)
- Raum der Stille (1)
- Raycasting (1)
- React <Framework, Informatik> (1)
- Real-Time Rendering (1)
- Reference Service (1)
- Regressionstest (1)
- Regulatory Affairs (1)
- Reinforcement Learning (1)
- Relationenalgebra (1)
- Rendering (1)
- Replizierbarkeit (1)
- Reproduzierbarkeit (1)
- Requirements engineering (1)
- Research Consultation (1)
- Resource Description and Access (1)
- Restitution <Kulturpolitik> (1)
- Richtlinie (1)
- Risiken (1)
- Roving librarian (1)
- Rückerstattung (1)
- Rückmeldung (1)
- Rückverfolgbarkeit (1)
- SQL (1)
- Salutogenese (1)
- Sammlungsrichtlinie (1)
- Sandbox (1)
- Schalke 04 (1)
- Schema <Informatik> (1)
- Schirmwirkung (1)
- Schriftlicher Nachlass (1)
- Schönheitsideal (1)
- Scientific Visualization (1)
- Seiteneinsteiger (1)
- Seiteneinsteigerin (1)
- Selbstbestimmung (1)
- Semantic Web, VIVO, Forschungsinformationssystem, Ontologie, Ontologie erweitern (1)
- Server (1)
- Sexualisierte Gewalt (1)
- Sicherheit (1)
- Sicherheitskonzept (1)
- Signalverarbeitung (1)
- Simulation (1)
- Skelettieren <Bildverarbeitung> (1)
- Smartphone (1)
- Social Media Marketing (1)
- Social Media Strategie (1)
- Social entrepreneurship (1)
- Software Engineering (1)
- Sowjetunion (1)
- Soziale Arbeit (1)
- Soziale Netwerke (1)
- Sozialer Vergleich (1)
- Sozialer Vergleichsprozess (1)
- Spielkonzept (1)
- Sportkommunikation (1)
- Sportmarketing (1)
- Sprachassistent (1)
- Sprengel Museum Hannover (1)
- Stadtentwicklung (1)
- Standardisierung (1)
- Startup (1)
- Stellenanzeigenanalyse (1)
- Stigmatisierung (1)
- Student (1)
- Studienerfolg (1)
- Stufenmodell (1)
- Sucht und Gewalt (1)
- Super Resolution (1)
- Sustainability (1)
- Sustainable Tourism (1)
- Symbol (1)
- Systembibliothekar (1)
- Szenario (1)
- TYPO3 (1)
- TYPO3 4.4 (1)
- Technische Informationsbibliothek (TIB) (1)
- Technische Redaktion (1)
- Text Mining (1)
- Texten (1)
- The Commons (1)
- Therapieerfolg (1)
- Thesaurus (1)
- Tools (1)
- Tourism (1)
- Tourismusmarketing (1)
- Traceability (1)
- Training (1)
- Trend (1)
- Trusted Computing (1)
- Twitter <Softwareplattform> (1)
- Twitter-Kommunikation (1)
- UX/UI (1)
- Umsetzung <Informatik> (1)
- Unpaywall (1)
- Unternehmensgründung (1)
- Unternehmenskultur (1)
- Unternehmensreputation (1)
- Usability-Test (1)
- VOXEL (1)
- Variation (1)
- Veranstaltung (1)
- Veranstaltungsbranche (1)
- Verbesserung (1)
- Vergleichsanalyse (1)
- Verhandlung (1)
- Verordnung 1234/2008 (1)
- Verstehen (1)
- Verständlichkeit (1)
- Vertrauensdienste (1)
- Video (1)
- Video Abstract (1)
- Vielfalt (1)
- Virtuelle Führung (1)
- Virtuelle soziale Netzwerke (1)
- Virtueller Auskunftsdienst (1)
- Visualisierung (1)
- Volumen-Rendering (1)
- Web Based Training (1)
- Web log (1)
- Web-Anwendung (1)
- Web-Entwicklung (1)
- WebGL (1)
- WebGL Einstieg (1)
- Webanwendung (1)
- Webgazer (1)
- Weiterbildung (1)
- Werkzeitschrift (1)
- Werkzeuge (1)
- Wettbewerbsanalyse (1)
- Wikidata (1)
- Wissensbar (1)
- Wissenschaftliches Publizieren (1)
- Wissenskarte (1)
- Wissenskultur (1)
- WordPress (1)
- Work-Life-Balance (1)
- Working Out Loud (1)
- World Wide Web (1)
- XING (1)
- Zeitstruktur (1)
- Zielgruppendefinition (1)
- Zugang (1)
- Zukunft (1)
- abgesicherte Ausführungsumgebung (1)
- autonome Frauenhäuser (1)
- bluetooth low energy (1)
- combining simulation and machine learning (1)
- commons (1)
- cross-platform (1)
- cross-plattform (1)
- divibib GmbH (1)
- documentation (1)
- eHealth (1)
- enterprise (1)
- flutter (1)
- generischer Editor (1)
- gesellschaftliche Verantwortung (1)
- iOS (1)
- indexing (1)
- information management (1)
- institutional repository (1)
- junge Menschen (1)
- knowledge management (1)
- kulturelle Bildung (1)
- library (1)
- library 2.0 (1)
- machine learning (1)
- mobile Bibliothek (1)
- mobile first (1)
- mobile library (1)
- new media (1)
- open source repository solutions (1)
- open-source software (1)
- parameterization (1)
- photo sharing (1)
- photography (1)
- question behaviour (1)
- react native (1)
- shared autonomous vehicle (1)
- simulation (1)
- social media (1)
- studiVZ (1)
- variable Programmieraufgabe (1)
- zeitnahe Datenverarbeitung (1)
- ÖPNV (1)
- Öffentliche Verwaltung (1)
- Öffentlicher Raum (1)
- Ökotourismus (1)
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Schriftliche Nachlässe werden in deutschen Bibliotheken in einer langen Tradition ge-sammelt und verwaltet. In der vorliegenden Bachelorarbeit werden die Besonderheit von schriftlichen Nachlässen und die Entwicklung der Nachlassbearbeitung erläutert. Zunächst werden zur Einführung in die Thematik Begriffsdefinitionen, die Bedeutung sowie die Entwicklungen in der Bearbeitung von Nachlässen dargelegt. An die Einführungen werden die Frage nach der Zuständigkeit zur Übernahme eines Nachlasses und der damit zusammenhängende Kompetenzstreitfall angeknüpft. Im Folgenden wird die Erwerbung thematisiert. Dazu werden die verschiedenen Erwerbungsarten vorgestellt und die möglichen rechtlichen Probleme in der Erwerbung aufgezeigt. Die Bearbeitung von Nachlässen wird anhand von Kassation, Ordnung, Erschließung und Maßnahmen zur Bestandserhaltung dargestellt. Die Thematik der schriftlichen Nachlässe wird mit Aspekten und Fragen der Nutzung abgeschlossen. Der theoretischen Abhandlung folgt die Dokumentation der Ordnung und Erschließung der Fotografien-Sammlung aus dem Nachlass von Robert Michel und Ella Bergmann-Michel, die mit der Vorstellung des Künstlerpaares und dessen Nachlass beginnt. Danach folgt die Erläuterung der praktischen Aufgabe im Hinblick auf Zielsetzung, Ausgangssituation, Vorbereitung und Durchführung. Abgeschlossen wird die Dokumentation mit Empfehlungen für die zukünftige Bearbeitung der Fotografien und des gesamten Nachlasses.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Die vorliegende Arbeit befasst sich mit dem Trend "Gamification" und untersucht an Hand einer Szenario-Analyse, wie sich der Trend auf die Standgestaltung der B2B-Messen im Jahr 2030 auswirken wird.
Hierfür wurde intensive Literaturrecherche betrieben zu den Kernthemen: Gamification, Design, B2B-Messe und Trends im Messewesen.
Nach einer Auswertung dieser Themen in Bezug auf deren Kernelemente und Schlüsselkombinationen wurden 15 Zukunftsprojektionen erstellt, welche anschließend in 3 Szenarien zu Zukunftsbildern ausformuliert wurden.
Fazit der Arbeit ist, dass der Trend Gamification zwar an Bedeutung gewinnt, das Standdesign jedoch nur geringfügig beeinflussen wird. Andere Trendthemen wie Nachhaltigkeit, Sicherheit und die generelle Digitalisierung sowie ein Drang zu Kommunikation werden stärkeren Einfluss auf die Zukunft des Messewesens, und dadurch auch die Standgestaltung bei B2B-Messen, nehmen.
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
Die vorliegende Bachelorarbeit stellt den Einsatz von Social Software beim Regionalfernsehsender „h1 – Fernsehen aus Hannover“ dar. Nach einem kurzen Einblick in die Grundlagen von Social Software folgt die Vorstellung des Senders. Hierbei wird vor allem der organisatorische Aufbau und die Kommunikation im Sender näher betrachtet. Anschließend wird dargestellt, welche Informationsmittel bei h1 durch den Einsatz von Social Software ersetzt wurden und wie sich dadurch die Kommunikation und das Informationsmanagement innerhalb des Unternehmens verbessert hat.
Cradle to Cradle – An analysis of the market potential in the German outdoor apparel industry
(2016)
The purpose of this study is to investigate the market potential in the German outdoor apparel industry by focusing on sustainable production in terms of environmental and human health. A literature study of the Cradle to Cradle (C2C) design concept is provided, as it represents a solution for pollution, waste and environmental destruction caused by the current industrial design and waste management. The data for the subsequent market- and competitive analysis of the German outdoor apparel industry was collected through secondary research in order to identify several key market indicators for the assessment of the market potential. The outcome of this research is the identification of a positioning strategy for outdoor apparel according to the C2C design concept. The results show stagnant growth rates in recent years in the German outdoor apparel market and strong rivalry among the competitors. However, a significant market potential was calculated and beneficial trends for sustainable outdoor brands were recognised. These findings reveal the existence of a market potential for an outdoor apparel brand according to the C2C design concept. By following a positioning strategy of transparency and full commitment to a sustainable production, the company might be able to gain market shares from its competitors, as future predictions indicate slow growth rates in the market. The results of this analysis can be of great interest for entrepreneurs that plan to enter the German outdoor apparel industry.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Die Einführung einer elektronischen Stimmabgabe bei Kommunalwahlen (E-Voting) ist durch rechtliche und technische Herausforderungen derzeit nicht praktikabel umsetzbar. Untersuchungen zeigen, dass die Einführung zahlreiche Vorteile für die Wahlberechtigten und die Wahlbehörden haben könnte. Die zeitweise Einführung von E-Voting mit Wahlmaschinen wurde jedoch auch rechtlichen Gründen für unzulässig erklärt. So gab es in den letzten Jahren keine neuen Umsetzungsversuche.
Im Rahmen dieser Arbeit wird ein Konzept für eine elektronische Stimmabgabe bei Kommunalwahlen entwickelt. Um das Konzept in das derzeitige Wahlsystem zu integrieren, wird die Briefwahl als Basis gewählt. Unter Zuhilfenahme von Gesetzestexten wird der Ablauf beschrieben und als Prozessdiagramm dargestellt. Anschließend werden Anforderungen an ein E-Voting-System aus der Literatur aufgenommen und durch die Bildung von Kernaussagen konsolidiert. In jedem ermittelten Briefwahl-Prozessschritt wird die Untersuchung elektronischer Möglichkeiten durch die Prüfung der Kernaussagen bewertet. Anschließend wird die geeignetste elektronische Möglichkeit in das Konzept übernommen.
Die ermittelten Möglichkeiten zeigen, dass durch den Einsatz von Vertrauensdiensten und Vertrauensdiensteanbietern die Anforderungen erfüllt werden können. Daraus ergibt sich ein Konzept, welches mithilfe aktueller technischer und rechtlicher Entwicklungen eine elektronische Stimmabgabe ermöglichen kann. Unter der ganzheitlichen Betrachtung des Wahlsystems sind jedoch noch viele Herausforderungen zu beachten, die in dieser Arbeit nicht näher erläutert wurden. Die Entwicklungen der letzten Jahre begünstigen die Konzeptionierung einer elektronischen Stimmabgabe. Diesem steht jedoch weiterhin Herausforderungen durch fehlende rechtliche Bewertung, mangelndes Vertrauen, Gesetze, Verordnungen und Medienbrüche entgegen, die vor dem Einsatz bewältigt werden müssen.
Möglichkeiten der Nachqualifizierung für Quereinsteiger*innen in wissenschaftlichen Bibliotheken
(2022)
Der Fachkräftemangel und die Verschiebung und Diversifizierung von Tätigkeiten prägen die derzeitige Personalsituation in deutschen wissenschaftlichen Bibliotheken. In dieser Arbeit wird die Gruppe der Quereinsteiger*innen auf der Ebene des gehobenen Dienstes definiert und in den Fokus genommen: Anhand einer Umfrage, Recherche und Mailkontakt werden Möglichkeiten der Nachqualifizierung dieser heterogenen Zielgruppe eruiert. Dies betrifft sowohl die externe Personalentwicklung beziehungsweise Weiterbildung (Studiengänge und Zertifikatsprogramme) als auch die interne Personalentwicklung durch die Arbeitgeber. Durch die Perspektive auf die Personalentwicklungsmaßnahmen der Länder Niederlande, Großbritannien und Österreich werden Optimierungsmöglichkeiten für die Personalentwicklung in Deutschland aufgezeigt.
Die Arbeit untersucht die Anwendung von maschinellem Lernen zur Erkennung von Aktivitäten von Schiffen anhand von AIS-Signalen. Das Automatic Identification System (AIS) wird von Schiffen genutzt, um Informationen über ihren Status in regelmäßigen Intervallen zu übertragen. Auf Basis der Daten wurden mithilfe von Machine Learning-Algorithmen aus der Gruppe der überwachten Klassifikationsalgorithmen Modelle gelernt, die in der Lage sind zu erkennen, welcher Aktivität ein Schiff zu einem Zeitpunkt nachgeht.
Da das erfolgreiche Lernen eines Modells von einer sorgfältigen Datenvorbereitung abhängt, wurden verschiedene Verfahren zur Datenvorbereitung verwendet. Anschließend wurden verschiedene Algorithmen eingesetzt, darunter der Random Forest und k-NN, um Modelle zu lernen.
Die Ergebnisse zeigen, dass die Aktivitäten mit einer Genauigkeit von bis zu 99% erkannt werden konnten, wenn in der Datenvorbereitung geeignete Verfahren gewählt wurden.
In der vorliegenden Arbeit wird ein Leitfaden zur Einrichtung eines Informationssicherheitsmanagementsystems bei kleinen und mittleren Unternehmen (KMU) entwickelt. Ein Informationssicherheitsmanagementsystem (ISMS) ist im Grunde eine geordnete Ansammlung an Verfahren, Regeln und Maßnahmen zur Wahrung der Sicherheit von Informationen. Mit diesem System wird die Steuerung und Kontrolle der Informationssicherheit durch strukturierte Vorgehensweisen entscheidend verbessert.
In dieser Bachelorarbeit werden in den ersten Kapiteln die relevanten Normen und Richtlinien (insbesondere aus der DIN EN ISO/IEC 27000 Normenfamilie und aus den Richtlinien der VdS 10000 sowie VdS 10005) betrachtet. Auf dieser Grundlage wird in den darauffolgenden Kapiteln der grundlegende Aufbau eines ISMS für Unternehmen erklärt. Im Anschluss wird diese Thematik auf KMU übertragen. Im weiteren Verlauf wird die Entwicklung des Leitfadens beschrieben, wobei auch auf den allgemeinen Aufbau eines Leitfadens eingegangen wird.
Der eigentliche Leitfaden ist separat als eigenständiges Dokument auf dieser Seite zum Download abrufbar. Er kann losgelöst von dieser Arbeit eingesetzt werden.
Presse-, Informations- und Meinungsfreiheit sind miteinander verbundene Basisrechte. Durch das Recht sich frei zu informieren wird das Recht der freien Meinungsäußerung und damit die freie Presse sichergestellt. Die sich weltweit verändernden Presselagen stellen nicht nur die Pressefreiheit vor Herausforderungen. Durch die Fähigkeit erhaltene Informationen zu verarbeiten, wird die Informationskompetenz der Bevölkerung ermöglicht und sichergestellt. Die Ausübung dieser Kompetenz hingegen ist die Grundlage sich aktiv an demokratischen Prozessen zu beteiligen. Ziel dieser Arbeit ist es, mittels der Rangliste zur Presselage der Reporter ohne Grenzen und anhand der Daten zur Informationsfreiheit des DA2I Dashboards sowie literaturbasierten Kriterien zu untersuchen, inwiefern sich die Lage der Presse- und Informationsfreiheit auf Bibliotheksdienstleistungen öffentlicher Bibliotheken auswirkt. Im Ergebnis wirken sich diese nicht ausschließlich auf den Medienbestand aus. Die Zustände der genannten Basisrechte in einem Staat haben auch Einfluss auf die Veranstaltungsarbeit.
Das Ziel dieser Bachelorarbeit war die Entwicklung einer voll funktionstüchtigen Webanwendung, die für den Anwendungsfall „Bronchokonstriktion“ Werkzeuge für die Darstellung und die händische Nachbearbeitung von Bilddaten und Vorhersagen aus Neuronalen Netzen bereitstellt. Dadurch können die Test- und Trainingsdatensätze für problematische Fälle erweitert werden. Konkret wurde die Anwendung durch die Verwendung von standardisierten und individuell auf das Problem zugeschnittenen Software-Engineering-Methoden sowie unter Beachtung allgemeiner Usability-Prinzipien entwickelt und evaluiert. Diese Bachelorarbeit fand in Zusammenarbeit mit dem Fraunhofer ITEM und der Forschungsgruppe „Bioinformatik“ statt.
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
Der systematische Umgang mit Wissen wird für Unternehmen immer bedeutender, seitdem Wissen als Ressource im Unternehmen erkannt wurde. Hierbei hilft der Einsatz von Knowledge Management. Die Organisation von Wissen in einem Unternehmen kann durch eine Vielzahl von Knowledge Management-Tools erfolgen. Die Auswahl des dafür geeignetsten Knowledge Management-Tools stellt viele Knowledge Manager und Mitarbeiter eines Unternehmens vor schwierige Entscheidungen. Durch eine gezielte Auswahl lässt sich die Identifizierung, der Erwerb, die Entwicklung und die (Ver)Teilung sowie die Bewahrung und die Nutzung von Wissen steigern und steuern. Ziel dieser vorliegenden Bachelorarbeit ist es, ein Auswahlverfahren zu beschreiben, das die Auswahl geeigneter Knowledge Management-Tools unterstützt. Zur Unterstützung des Verfahrens wurde die Form einer Matrix gewählt. Durch die Knowledge Management-Tool-Matrix wird Knowledge Managern und Mitarbeitern die Auswahl geeigneter Knowledge Management-Tools erleichtert und zusätzlich transparent und nachvollziehbar gemacht. Vor der Erläuterung der Knowledge Management-Tool-Matrix als neues Auswahlverfahren, beschäftigt sich die Arbeit mit den Grundlagen des Knowledge Managements und stellt das Unternehmen PricewaterhouseCoopers Aktiengesellschaft Wirtschaftsprüfungsgesellschaft vor. Anschließend werden die vorhandenen Verfahren zur Auswahl von Knowledge Management-Tools vorgestellt. Nachfolgend wird das Vorgehen zur Entwicklung der Knowledge Management-Tool-Matrix beschrieben. Die ausführliche Beschreibung der Dimensionen und der Verwendung dieser Knowledge Management-Tool-Matrix bildet den Schwerpunkt dieser Arbeit und wird von der Zusammenfassung abgeschlossen.
Die Einführung von Discovery-Systemen in wissenschaftlichen Bibliotheken ist aktuell ein viel diskutiertes Thema in der deutschen Bibliothekslandschaft. In dieser Bachelorarbeit wird die konkrete Implementierung des Discovery-Systems in der Herzog August Bibliothek (HAB) in Wolfenbüttel betrachtet. Hierfür wird zunächst ein generelles Verständnis für Bibliothekskatalogsysteme geschaffen. Eine vergleichende Studie der Recherchequalität zwischen dem Discovery-System und dem bestehenden OPAC (Online Public Access Catalogue) wird durchgeführt, um zum einen Empfehlungen für notwendige Anpassungen an dem Discovery-System auszusprechen und zum anderen letztendlich eine Aussage über die Möglichkeit einer Abschaltung des OPACs zu treffen. Eine Abschaltung des OPACs ist aufgrund der Ergebnisse nur dann erfolgreich möglich, wenn die HAB ihre Viel- und Intensivnutzer in den Implementierungsprozess mit einbezieht und deren Anforderungen und Wünsche an das Discovery-System umsetzt. Die Studie zeigt, dass die Benutzer der HAB an den OPAC gewohnt sind und für die HAB daher die Herausforderung in der Akzeptanzschaffung für das neue System liegt.
Open Educational Resources (OER) sind sich in Deutschland bisher hauptsächlich im Bereich der schulischen Bildung im Gespräch. Ihr Potential innerhalb der deutschen Hochschullehre wurde zwar bereits erkannt, wird aber bisher noch nicht genutzt.
Die Arbeit gibt einen Überblick über die terminologischen Grundlagen von OER und ihren Entwicklungsmöglichkeiten im Hochschulbereich. In einer Zusammenfassung werden die Förderung von OER durch die Europäische Kommission und in Deutschland, sowie ihre Entwicklung im deutschen Hochschulbereich dargestellt. In einem theoretischen Abgleich aktueller Studien und Fachliteratur wird eine Bestandsaufnahme zu neuen Aufgabenbereichen für Wissenschaftlicher Bibliotheken durch OER durchgeführt.
Eine Expertenbefragung, die beispielhaft unter Lehrenden der Leibniz Universität Hannover (LUH) durchgeführt wurde, gibt Aufschluss über deren aktuellen Nutzungsstand von OER. Die wird ergänzt durch eine Untersuchung zweier Sharingdienste (Zenodo und SlideShare) nach freien Lehrmaterialien von Angehörigen der LUH.
Abschließend werden auf der Basis der theoretischen Möglichkeiten sowie der individuellen Bedürfnisse der Lehrenden Empfehlungen für neue Dienstleistungen und Serviceangebote Wissenschaftlicher Bibliotheken zur Unterstützung der Hochschulen bei der Einführung, Herstellung und Verbreitung von OER am Beispiel der Technischen Informationsbibliothek Hannover (TIB) gegeben, sowie neue Aufgabenbereiche für Hochschulbibliotheken skizziert, die sich daraus ergeben.
Die vorliegenden Bachelorarbeit befasst sich mit der Analyse und der zunehmenden Wichtigkeit von Social Media im emotionalen Wirtschaftszweig Profifußball. Hierzu werden verschiedenste Social-Media- und Web 2.0-Angebote vorgestellt und Fakten zum Einsatz in der freien Wirtschaft präsentiert. Unter Berücksichtigung des Wandels zu mehr Kommerzialisierung im Profifußball, fällt die Analyse der aktuellen Präsenz der Bundesligisten auf Facebook, Twitter und Co kritisch aus. Besonders im Vergleich mit europäischen Vereinen zeigt sich ein großer Nachholbedarf deutscher Clubs. Abschließend folgt der Versuch einer Strategiebewertung anhand des Bundesligisten SV Werder Bremen. Die Auswertung von offiziellen und inoffiziellen Angeboten sowie die Analyse Diskussionen über den Verein, zeigen vielfältige Ergebnisse und Möglichkeiten für die Umsetzung einer umfangreichen Social-Media-Strategie. Mögliche Inhalte einer solchen Umsetzung auf relevanten Plattformen bilden den Abschluss der vorliegenden Arbeit.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Das wissenschaftliche Publikationswesen befindet sich in einem Transformationsprozess, weg von der Bezahlung des lesenden Zugriffs durch den Kauf von Lizenzen durch Bibliotheken, hin zu der Vergütung der Verlagsleistungen durch Publikationsgebühren. Ziel ist der freie Zugang zu Forschungsergebnissen in wissenschaftlichen Publikationen und den dazugehörigen Forschungsdaten. Dieser freie Zugang zu wissenschaftlicher Literatur wird weltweit, unter dem Begriff Open Access gefördert und vorangebracht. Veränderungen in der Wissenschaft bedeuten auch immer Änderungen in den Arbeitsabläufen und im Aufgabenbereich wissenschaftlicher Bibliotheken. Diese Arbeit beschäftigt sich mit der Fragestellung, welche Angebote medizinische Fachbibliotheken in Deutschland, Österreich und der Schweiz den Wissenschaftlern ihrer Institution im Bereich des Open Access Publizierens bieten. Aufbauend auf den Ergebnissen einer Webseitenanalyse, werden Handlungsempfehlungen für die Ärztliche Zentralbibliothek im Universitätsklinikum Hamburg-Eppendorf für den Aufbau von Publikationsdiensten, insbesondere für Open Access, erstellt.
Die Digitalisierung birgt sowohl für den Unternehmer, als auch für den Kunden diverse Vorteile. Als Instrument zur Veranschaulichung dieser Vorteile dienen vor allem Service-Apps, welche bereits von großen Unternehmen beispielsweise zur Produktnachverfolgung etabliert wurden. Das Mittelstand 4.0 – Kompetenzzentrum Hannover legt den Fokus auf kleine und mittelständische Produktionsbetriebe und vermittelt das Potenzial der Digitalisierung im Rahmen von Industrie 4.0. Dies geschieht anhand einer Produktionslinie personalisierter Kugelschreiber und einer zu Demonstrationszwecken entwickelten App für mobile Endgeräte. Konzeptionierung, Entwicklung und Umsetzung dieser App werden genauestens aufgeführt und erläutert. Die App wurde unter dem Betriebssystem Android entwickelt und gliedert sich in sieben Phasen, beginnend mit der Anforderungsanalyse bis hin zur Veröffentlichung im Google Play Store. Während der Unternehmer die Möglichkeit geboten bekommt, Rückschlüsse als Entscheidungshilfe zur effizienteren Gestaltung der Produktion zu nutzen, ist der Kunde in der Lage, seine Aufträge echtzeitnah in der Produktion nachzuverfolgen und gegebenenfalls Änderungen vorzunehmen.
Bisher wurde die automatisierte Bewertung von Übungsaufgaben in LON-CAPA angeboten und mit mehreren Werkzeugen umgesetzt, darunter der JFLAP-Wrapper, der die Grundlage dieser Arbeit bildet. Daraus soll ein vollständiges eigenstehendes Programm erarbeitet werden, dass auch an andere Lernmanagementsysteme angebunden werden kann. Dabei erhält es den neuen Namen GraFLAP. Dazu wurden die Bewertungsprozesse im JFLAP-Wrapper zusammen gelegt und eine neue Schnittstelle nach ProFormA-2.1-Standard ergänzt. Außerdem sollte die Wartbarkeit verbessert werden, sodass zukünftige weiterführende Arbeiten erleichtert werden. Dazu wurden neue Datenstrukturen und Prozesse integriert, unter anderem ein einheitlicher Build-Prozess mit Maven und automatisierte Tests mit JUnit. GraFLAP bietet nun eine standardisierte Schnittstelle, übernimmt alle Bewertungsprozesse und ist so nun vollständig unabhängig von Lernmanagementsystemen.
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
Anwendungen in Bibliotheken auf Basis von Augmented Reality (AR), der Erweiterung der Realität durch zusätzliche, virtuelle Informationen, existieren bislang nur vereinzelt. Das vom Bundesministerium für Wirtschaft und Energie geförderte Forschungsprojekt mylibrARy ermittelt seit Juni 2014 Szenarien für den Einsatz von AR in Bibliotheken und Informationseinrichtungen. Das Projekt zielt auf die Entwicklung einer deutschlandweit einsetzbaren Applikation (App). An diesen Gedanken knüpft die vorliegende Arbeit mit der Entwicklung eines Konzepts für Einführungen in Hochschulbibliotheken mittels AR-Technik. Aus der Analyse aktueller Führungsmodelle von Bibliotheken der Hochschulen im Exzellenzcluster 2012-2017, werden die für die Modellführung benötigten charakteristischen Merkmale einer Bibliotheksführung abgeleitet. Auf die technisch relevanten Grundlagen der AR folgt eine Bestandsaufnahme der bisherigen Augmented-Reality-Projekte im internationalen Bibliothekskontext. Daran schließt die Formulierung der theoretischen Anforderungen und die Ausarbeitung der Funktionen im Einzelnen. Nachfolgend lenkt eine kritische Betrachtung den Fokus auf Mehrwert und Risiken der AR für Bibliothek und Nutzer. Mit einer Zusammenfassung und dem Ausblick auf die zukünftige Entwicklung findet die Arbeit ihren Abschuss.
In dieser Arbeit wurde ein System entwickelt, welches Übungsaufgaben der relationalen Algebra automatisch auswertet und dies in Form einer Punktevergabe bewertet. Darüber hinaus ist das System in der Lage lernunterstützende Feedbacks zu generieren. Dadurch sollen Studierende, die im Rahmen der Datenbank-Vorlesung relationale Algebra lernen, eine korrekte und optimierte Sprachanwendung im Bereich der relationalen Algebra lernen.
Verwaltungsformulare, Verträge, Gesetzestexte, die Bedienungsanleitung einer Kaffeemaschine oder auch der Beipackzettel eines Medikaments – jeder kennt solche Texte und fast immer gibt es ein Problem mit der Verständlichkeit. Was wollen die jetzt von mir? Was soll ich machen? Das sind Fragen, die am Ende offen bleiben. Der Leser steht hilflos vor kompliziert und unverständlich, meist auch ermüdend geschriebenen Texten. Eigentlich sollte aber jeder diese Texte verstehen können. Um die Benutzerfreundlichkeit und die Qualität einer Bedienungsanleitung gewährleisten zu können, sind in Normen, wie VDI 4500, DIN EN ISO 121000 und DIN EN 62079, Kriterien bzgl. Inhalt, Layout und Beschaffenheit festgelegt. Bei der Verständlichkeit wird quasi am Minimum angesetzt, weil wirklich jeder die Anleitung verstehen soll. Doch was ist mit denen, die die Anleitung zwar verstehen sollen, aber eben nicht können? Menschen mit geistiger Behinderung werden im Alltag mit einer Vielzahl an Texten konfrontiert, die sie nicht verstehen. Der Textinhalt bleibt somit ein nicht zu lösendes Rätsel. Dass Menschen mit geistiger Behinderung ein selbstbestimmtes und selbstständiges Leben führen können, wird so von vornherein ausgeschlossen. Die Möglichkeit durch Kommunikation an der Gesellschaft teilzunehmen, wird weitestgehend unterbunden. Um diesem Ausschluss entgegenzuwirken, muss bei der Verwendung von Sprache und Erstellung von Texten unmittelbar bei dieser Zielgruppe angesetzt werden, so dass Texte und Sprache der vorhandenen Lesekompetenz entsprechend zugänglich werden. Hier setzt das Konzept Leichte Sprache an. Durch Unterstützung und Förderung beim Einsatz von Leichter Sprache sollen Menschen mit geistiger Behinderung schulische und berufliche Fähigkeiten erwerben und erfolgreich am sozialen Leben teilnehmen können. In der folgenden Arbeit wird, um Diskriminierung vorzubeugen, zunächst die Begrifflichkeit "geistige Behinderung" geklärt und deren Verwendung festgelegt. Dann wird das Konzept Leichte Sprache vorgestellt. Grundlagen von Verständlichkeit im Allgemeinen und bezogen auf die möglichen Zielgruppen, u.a. Menschen mit geistiger Behinderung, werden erläutert. Um feststellen zu können, ob eine Eingrenzung von Texten notwendig ist, bei denen Verständlichkeit gefördert bzw. überprüft werden soll, wird zwischen verschiedenen Textsorten abgegrenzt. So kann schließlich im Ergebnis überprüft werden, ob Leichte Sprache ein Konzept verständlichen Textens ist.
Die Bachelor-Arbeit beschäftigt sich hauptsächlich mit dem Fotobestand der Polizeigeschichtlichen Sammlung der Polizeiakademie Niedersachsen. Der Fotobestand der themenspezifischen Sammlung wird detailliert vorgestellt und seine Erschließung und Dokumentation näher erläutert. Es erfolgen eine fototechnische Einordnung, archivalische Vorgaben und die Betrachtung derzeitiger und zukünftiger Nutzer der Sammlung in einem Profil. <br /> Besprochen werden außerdem Verwertungsmöglichkeiten, Rechtsfragen und Aspekte der Digitalisierung von Aufnahmen. Ein konzeptioneller Datenbankaufbau stellt eine Möglichkeit der Umsetzung von Erschließungsvorgaben dar. In einem Ausblick über die zukünftige Arbeit mit dem Fotobestand werden sowohl ein weiterer Weg zur Erschließung als auch die Digitalisierung von Fotos beleuchtet. <br /> Die Arbeit schließt mit einem praktischen Leitfaden zur Erschließung des Fotobestandes der Polizeigeschichtlichen Sammlung ab, mit Hilfe dessen zukünftig Mitarbeiter der musealen Einrichtung am Bestand arbeiten können.
Daten sind für jedes Unternehmen die treibende Kraft und die konsistenteste Quelle für qualifizierte Entscheidungsprozesse. Für die optimale Nutzung der vorliegenden Daten über alle Geschäftsbereiche hinweg wird das Datenmanagement benötigt, jedoch bringt dessen Einführung große Herausforderungen mit sich. Wird es nicht eingeführt bzw. umgesetzt hat dies Folgen für das Unternehmen wie z. B. Wettbewerbsnachteile und hohe Kosten. Ziel dieser Bachelorarbeit ist es von Datenmanagement, den Nutzen aufzuzeigen, die Herausforderungen zu identifizieren und Lösungsansätze zu untersuchen bzw. eigene zu entwickeln. Das Ergebnis ist eine Untersuchung und ein Vergleich des Nutzens, der Herausforderungen sowie der Lösungsansätze im Datenmanagement, zwischen Literatur und einem Anwendungsfall.
Apps und digitale Inhalte sind aus unserem Alltag nicht mehr wegzudenken. Auch Bibliotheken versuchen zunehmend, den Gewohnheiten ihrer Leser gerecht zu werden. Bekanntestes Beispiel im deutschsprachigen Raum ist der Onleihe-Service der divibib GmbH, über den Bibliotheksnutzer seit 2007 elektronische Medien entleihen können. Ein Großteil der öffentlichen Bibliotheken in Deutschland nutzt die Onleihe bereits. Das bringt jedoch hohe Anforderungen und Erwartungen seitens der Nutzer mit sich.
Aus diesem Grund beschäftigt sich die vorliegende Arbeit mit einer Evaluation der Onleihe-App hinsichtlich ihrer Usability. Zu Beginn wird ein Überblick über das Untersuchungsobjekt gegeben und die Bedeutung der Onleihe herausgestellt. Anhand von Fachliteratur werden anschließend Grundlagen und angewandte Methoden der Usability beschrieben. Im Anschluss erfolgt die Evaluation der App durch eine Auswertung von Online-Kundenbewertungen der letzten drei Monate, unter den Betriebssystemen Android und iOS. Anschließend werden weitere Usability-Probleme anhand einer Umfrage untersucht. Abschließend ermöglicht ein System Usability Scale die Bewertung der allgemeinen Nutzerfreundlichkeit der App. Mit der Untersuchung sollen Probleme und Schwachstellen der App aufgedeckt werden, um die schlechten Kundenbewertungen der App zu erörtern und um eventuelle Verbesserungsvorschläge einzubringen.
Die Arbeit richtet sich an App-Designer und Usability-Experten, die an der Entwicklung von Apps und Websites im bibliothekarischen Bereich beteiligt sind.
Der digitale Wandel beschäftigt Hochschulen schon länger, doch verhalf die Corona-Pandemie zu einem Aufschwung in der Digitalisierung. Dies bringt Veränderungen in der Hochschullehre mit sich. Auch Hochschulbibliotheken sind für die digitale Bildung von Bedeutung. Es gilt herauszufinden, welche Anforderungen an die Lernraumgestaltung aufgrund der derzeitigen Hochschullehre entstehen. Ziel ist es, nachzuvollziehen, wie der Lernort Wissenschaftliche Bibliothek bei der Nutzung von neuen Technologien und dem Erwerb der dafür benötigten Kompetenzen helfen, und um welche Angebote und Dienstleistungen er ergänzt werden kann. Diese literaturbasierte Theoriearbeit beantwortet die Frage, wie Lernräume in Wissenschaftlichen Bibliotheken digital und hybrid gestaltet werden können, um die heutige Lehre an Hochschulen kompetenzorientiert zu unterstützen. Zentral ist die praxisorientierte Betrachtung von lehr- und lernunterstützenden Diensten wie Makerspaces, Learning Labs sowie Beratung und Schulung. Ein weiterer Schwerpunkt liegt auf dem Einsatz von digitalen und hybriden Elementen im physischen Lernraum wie interaktiven Whiteboards, Multitouch-Tables sowie Augmented und Virtual Reality. Die soziale Interaktion, Kooperationen, Supportstrukturen und die Kompetenzvermittlung bilden eine wichtige Basis. Zur Veranschaulichung von unterstützenden Angeboten für Lernen und Lehren werden Good-Practice-Beispiele herangezogen. Die erarbeitete Vielfalt an Handlungsmöglichkeiten zeigt, wie klassische Lernraumsettings durch organisatorische, didaktische und technische Ausstattungen erweitert, weiterentwickelt und verbessert werden können.
60 Jahre nach Ende des Zweiten Weltkrieges und der nationalsozialistischen Herrschaft befindet sich noch immer NS-Raubgut im Bestand deutscher Bibliotheken. In der vorliegenden Bachelorarbeit wird eine Übersicht zur Thematik „NS-Raubgut und Restitution in Bibliotheken“ erarbeitet. Dies geschieht mit dem Ziel, im weiteren Verlauf der Arbeit aufzuzeigen, wie diese Inhalte in die Ausbildung von Informationsfachleuten integriert werden können. Nach einer Einführung in den Themenkomplex erfolgt zunächst eine Statusermittlung des derzeitigen Umgangs mit der Thematik innerhalb der Ausbildung von Informationsfachleuten an deutschen Hochschulen. Darauf aufbauend werden Vorlesungsinhalte erarbeitet, die sich für die Vermittlung in der Ausbildung eignen. Die Betrachtung möglicher Vermittlungsformen ist ebenfalls enthalten.
Das Stufenmodell „Komplexitätsstufen von aktivierenden Lernressourcen“ wurde von einem Projektteam der Fachhochschule Hannover für die Produktion von E-Learning Materialien entwickelt. Die Bachelorarbeit soll beantworten, ob das Modell in der Praxis anwendbar ist. Hierfür wird eine Analyse des Stufenmodells angestrebt.
Um die Anwendbarkeit zu überprüfen, wird das Stufenmodell mit Beispielen aus wissenschaftlichen Bibliotheken abgeglichen. Die Beispiele basieren auf Lernressourcen, die aus Bibliotheken entnommen werden, die mittels E-Learning Informationskompetenz vermitteln.
Für die Analyse werden die Angebote anhand der Parameter und der Lernziele des Stufenmodells kategorisiert. Um die Ergebnisse anwendbar zu machen, wird weiterhin ein Konzept für die Förderung von Informationskompetenz mit E-Learning Werkzeugen vorgeschlagen.
Die Analyse des Stufenmodells zeigt auf, dass das Modell eine gute Orientierung ist, um E-Learning Ressourcen zu kategorisieren. Der Parameter Komplexität eignet sich, um die Ressourcen umfassend abzubilden, da die meisten Beispiele in das Modell einsortiert werden
können. Der Schwachpunkt des Modells besteht jedoch darin, dass zu viele Parameter berücksichtigt werden, die sich gegenseitig ausschließen können.
Die Ergebnisse der Analyse werden abschließend zu einem Konzept für Bibliotheken zusammengefasst. Die Theorien der Didaktik, sowie das Schwellenkonzept der Association of College & Research Libraries dienen hierbei als Grundlage. Dies zeigt auf, dass Informationskompetenz mit E-Learning Werkzeugen vermittelt werden und das Stufenmodell als Instrument dienlich sein kann.
Diese Arbeit dokumentiert die Konzeption und den Aufbau des institutionellen Repositoriums DORIS des Bundesamtes für Strahlenschutz. Sie beschreibt neben der Entstehung des Projektes und der Auswahl der Repositoriumssoftware insbesondere die Vorgehensweise der Bibliothek des Amtes bei der Entwicklung des Systems und erläutert die dabei vorgenommenen Anpassungen sowie die getroffenen Entscheidungen. Darüber hinaus kombiniert die Arbeit Grundlagen zum Thema "institutionelle Repositorien" mit einer Übersicht von Open-Source-Softwarelösungen und einem detaillierten Einblick in das vom Amt verwendete Produkt DSpace. Weiterhin betrachtet sie das Portable-Document-Format unter den Aspekten Langzeitarchivierung und Barrierefreiheit und bietet einen kurzen Einblick in die Aufgaben und Organisation des Bundesamtes.
Seit 2013 ist die Erhebung der psychischen Belastung an deutschen Arbeitsplätzen verpflichtend, verankert ist dies im §4 ArbSchG. Studien wie die der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin belegen, dass dies nicht flächendeckend geschieht. Diese Arbeit beschäftigt sich zum einen mit der Frage, warum die psychische Belastung von Mitarbeitenden in kleinen wissenschaftlichen Bibliotheken in Baden-Württemberg nicht erhoben wird. Zum anderen mit der Frage nach dem Bewusstsein der Bibliotheksleitenden für das Thema psychische Belastung. Ziel ist dabei die Nennung von Gründen fehlender Erhebungen und eine Beschreibung des Bewusstseins der Leitungspersonen. Mithilfe von Leitfadeninterviews werden Daten erhoben und mit der inhaltlich strukturierenden Inhaltsanalyse nach Kuckartz ausgewertet. Im Theorieteil werden das Arbeitsschutzgesetz, die DIN EN ISO 10075-1:2017 und eine Leitlinie der Gemeinsamen deutschen Arbeitsschutzstrategie (GDA) vorgestellt. Thematisiert wird außerdem die Veränderung der Arbeitswelt von Bibliotheksmitarbeitenden und Studien zur Arbeitszufriedenheit dieser Personen. Ergebnisse dieser Arbeit sind Hindernisse, wie zum Beispiel unklare Zuständigkeiten und Mangel an Wissen. Das Bewusstsein wird in Bezug auf das Vorwissen über psychische Belastung und die Reflexion der eigenen Rolle und eigener Erhebungsmethoden ausgewertet. Ein übergreifendes Problem scheint die umgangssprachliche und damit negative Auffassung des Begriffs psychische Belastung zu sein.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
This research focuses on the fundamental ideas and underlying principles of E-Learning technology, as well as theoretical considerations for an optimal learning environment. This theoretical exploration was then used as a basis for the design and construction of a new, interactive Web-Based ESH-Training. The quality and effectiveness of this new course was then compared with that of the existing analog PDF-Training via a test with a diverse sample of employee learners. Learners were later surveyed to ascertain their views on both trainings in terms of the quality of the content, facilitator, resources, and length. Results clearly showed that regardless of demographic factors, most employee learners preferred the new, Web-Based ESH-Training to the analog PDF-Training.
Äußere Einflüsse wie beispielsweise die Digitalisierung oder der demografische Wandel durchziehen alle Bereiche des gesellschaftlichen Zusammenlebens. Der Konfrontation mit diesen Herausforderungen kann sich auch die öffentliche Verwaltung durch die Verzahnung mit Politik und Gesellschaft nicht entziehen. Eine Methode, um komplexen Herausforderungen zu begegnen, ist Design Thinking. Es stellt sich die Frage, welche Potenziale der Einsatz der Methodik im Kontext der öffentlichen Verwaltung bietet. Ziel dieser Arbeit ist es, die Design-Thinking-Methode in der öffentlichen Verwaltung zu untersuchen. Dazu wird im Rahmen einer Fallstudienanalyse ein Design-Thinking-Workshop durchgeführt. Durch Auswertung des Workshops sowie mithilfe einer SWOT-Analyse werden die Potenziale abgeleitet. Im Ergebnis können komplexe Herausforderungen mit Design Thinking bewältigt werden. Es zeigt sich eine grundsätzliche Offenheit gegenüber der neuen Methodik. Design Thinking wird als eine ganzheitliche Herangehensweise beschrieben. Der Einstieg in die Methodik ist dabei niederschwellig. Dabei gehen die Potenziale über die Abgeleiteten hinaus. Der Austausch von Wissen innerhalb des interdisziplinären Teams hat beispielsweise weitreichendere Effekte. Um die Potenziale bestmöglich nutzen zu können, bedarf es Übung und Erfahrung. Darüber hinaus sollte eine Betrachtung der Potenziale im Rahmen der vollen Potenzialentfaltung mit dem Feststellen von Schwächen und Risiken einhergehen. Die Anwendung von Design Thinking ist stets kontextabhängig.
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten.
Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen
zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl
an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können.
Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
An der Hochschule Hannover wird das Lern-Management-System Moodle eingesetzt. Für die dort verfügbare Quizfunktion wurde der neue Fragetyp MooPT (Moodle Programming Task) von der Abteilung Informatik der Fakultät IV entwickelt. Einem solchen Quiz muss immer ein Frageverhalten zugewiesen werden. Die Frageverhalten, welche Moodle standardmäßig anbietet, sind nicht mit dem MooPT-Fragetypen kompatibel. Aus diesem Grund müssen diese angepasst werden. Dies wurde bereits für zwei der acht Standard-Frageverhalten von der Abteilung Informatik durchgeführt.
Diese Arbeit beschäftigt sich mit der Entwicklung der restlichen Verhalten für den MooPT-Fragetypen. Dabei wird die Moodle-Quiz-Komponente und der MooPT-Fragetyp mit seinen Frageverhalten analysiert. Anschließen wird auf Basis dieser Analyse die Entwicklung der restlichen Frageverhalten erläutert.
Der Quellcode der Moodle-Plattform ist in PHP geschrieben und somit auch der des MooPT-Fragetypen und der der Frageverhalten. Auf GitHub stehen die Implementierungen der entwickelten Frageverhalten unter der GPL-Lizenz zur Verfügung:
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemoopt
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemooptnopenalty
https://github.com/LennartRolfes/moodle-qbehaviour_deferredmooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_immediatemooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_interactivemoopt
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Die Gesellschaft ist geprägt von einem zunehmenden Bedürfnis nach Mitbestimmung und damit auch Beteiligung. In Zeiten mangelnder Wohnangebote ist das Interesse besonders groß, wenn bedeutsame Baumaßnahmen thematisiert werden und große Veränderungen mit sich bringen.
Die positive Resonanz auf innerstädtische Immobilienprojekte ist alles andere als selbstverständlich, dabei liegen die Interessen häufig eng beieinander. "Man wird natürlich nie alle zufriedenstellen können" aber häufig mangelt es an ausreichender Kommunikation und Aufklärungsarbeit.
Die Wissenschaftsarbeit beschäftigt sich mit der Frage, welche Ansprüche an Bürgerkommunikation bestehen und welche Chancen sich daraus für die Kommunikation von Bauprojekten ergeben. Daraus resultiert ein Lösungsansatz für die Immobilien-Public-Relations (PR).
Das Ziel dieser Arbeit ist es, ein Konzept für eine Darstellung der Personennamendatei(PND) in den Sprachen Resource Description Framework (RDF), Resource DescriptionFramework Schema Language (RDFS) und Web Ontology Language (OWL) zu entwickeln. Der Prämisse des Semantic Web folgend, Daten sowohl in menschenverständlicher als auch in maschinell verarbeitbarer Form darzustellen und abzulegen, wird eine Struktur für Personendaten geschaffen. Dabei wird von der bestehenden Daten- und Struktursituation im Pica-Format ausgegangen. Die Erweiterbarkeit und Anpassbarkeit des Modells im Hinblick auf zukünftige, im Moment gegebenenfalls noch nicht absehbare Anwendungen und Strukurveränderungen, muss aber darüber hinaus gewährleistet sein. Die Modellierung orientiert sich an bestehenden Standards wie Dublin Core, Friend Of A Friend (FOAF), Functional Requirements for Bibliographic Records (FRBR), Functional Requirements for Authority Data (FRAD) und Resource Description and Access (RDA).
Internetpräsenzen von Bibliotheken müssen zunehmend mit kommerziellen oder frei zugänglichen Informationsangeboten konkurrieren. Um sich von diesen Angeboten abzuheben, müssen nicht nur, wie gehabt, qualitativ hochwertige Informationen bereitgestellt werden - der Zugang zu diesen Informationen muss nutzerfreundlich gestaltet werden und sich an Usability-Standards orientieren, um für den Nutzer attraktiv zu sein.
In der Bachelorarbeit wird eine Studie zur Usability der Website der Landesbibliothek Oldenburg durchgeführt. Nach einer Einführung in die Thematik der Usability und der Analyse des IST-Zustandes der Website erfolgt eine Evaluation anhand von vier Methoden. Basierend auf Evaluationen mittels Personas, Heuristiken, Thinking-Aloud-Tests und einer Logfile-Analyse werden Usability-Probleme der Website ermittelt und anschließend Empfehlungen zur Verbesserung der Usability gegeben.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines generischen XML-Editors für das ProFormA-Aufgabenformat. ProFormA ermöglicht einen Aufgabenaustausch zwischen Hochschulen, Lernmanagementsystemen und Gradern. Aufgaben werden von Lehrkräften genutzt und für ihren individuellen Lehrkontext angepasst. Weil das manuelle Editieren von ProFormA-Aufgaben durch XML, Erweiterbarkeit und Komplexität des Formats erschwert wird, muss ein XML-Editor entwickelt werden, der generische Mechanismen implementiert, die das Anzeigen, Editieren, Hinzufügen und Entfernen von ProFormA- und Fremdformatelementen ermöglichen.