Refine
Year of publication
Document Type
- Article (185)
- Bachelor Thesis (90)
- Conference Proceeding (52)
- Master's Thesis (33)
- Part of a Book (17)
- Study Thesis (15)
- Book (14)
- Report (8)
- Doctoral Thesis (6)
- Working Paper (5)
- Preprint (4)
- Review (2)
- Course Material (1)
Has Fulltext
- yes (432)
Is part of the Bibliography
- no (432)
Keywords
- Bibliothek (31)
- Informationsmanagement (17)
- Wissenschaftliche Bibliothek (15)
- Ausbildung (14)
- Öffentliche Bibliothek (14)
- Student (13)
- Digitalisierung (12)
- Informationskompetenz (12)
- Benutzerfreundlichkeit (11)
- Information Retrieval (11)
Institute
- Fakultät III - Medien, Information und Design (432) (remove)
Digitale 3D-Modelle der Architektur – z.B. Modelle von Gebäuden, Inneneinrichtungsgegenständen und Bauteilen – haben innerhalb der letzten fünf Jahrzehnte sowohl die analogen, auf Papier basierenden Zeichnungen als auch die physischen Modelle aus ihrer planungs-, ausführungs- und dokumentationsunterstützenden Rolle verdrängt. Als Herausforderungen bei der Integration von 3D-Modellen in digitale Bibliotheken und Archive sind zunächst die meist nur rudimentäre Annotation mit Metadaten seitens der Autoren und die nur implizit in den Modellen vorhandenen
Informationen zu nennen. Aus diesen Defiziten resultiert ein aktuell starkes Interesse an inhaltsbasierter Erschließung durch vernetzte Nutzergruppen oder durch automatisierte Verfahren, die z.B. aufgrund von Form- oder Strukturmerkmalen eine automatische Kategorisierung von 3D-Modellen anhand gegebener Schemata ermöglichen. Die teilweise automatische Erkennung von objektinhärenter Semantik vergrößert die Menge an diskreten und semantisch unterscheidbaren Einheiten. Darüber hinaus sind digitale 3D-Modelle zumeist hierarchisch aufgebaut; sie enthalten weitere komplexe Modelle, die wiederum in sich geschachtelt sein können und in einzelnen Fällen einen eigenständigen Nachweis als 3D-Modell wünschenswert machen. 3D-Modelle als Content im World Wide Web können sowohl untereinander als auch mit anderen textuellen wie nichttextuellen Objekten verknüpft werden, also Teil von aggregierten Dokumenten sein. Eine weitere Notwendigkeit ist die Vernetzung mit inhaltlich relevanten Ereignissen, Orten, Begriffen, Personen oder realen Objekten sowie die explizite Beschreibung der Relationen zwischen dem Modell selbst und diesen Entitäten seines spezifischen Kontextes. Die Aggregationen bzw. der Modellkontext sowie die inhärenten Entitäten erfordern Instrumente der Organisation, um dem Benutzer bei der Suche nach Informationen einen Mehrwert zu bieten, insbesondere dann, wenn textbasiert nach Informationen zum Modell und zu dessen Kontext gesucht wird. In der vorliegenden Arbeit wird ein Metadatenmodell zur gezielten Strukturierung von Information entwickelt, welche aus 3D-Architekturmodellen gewonnen wird. Mittels dieser Strukturierung kann das Modell mit weiterer Information vernetzt werden. Die Anwendung etablierter Ontologien sowie der Einsatz von URIs machen die Informationen nicht nur explizit, sondern beinhalten auch eine semantische Information über die Relation selbst, sodass eine Interoperabilität zu anderen verfügbaren Daten im Sinne der Grundprinzipien des Linked-Data-Ansatzes gewährleistet wird. Diese Herangehensweise hat im Gegensatz zu einem Ansatz, der Metadaten als Records auffasst, das Potenzial, Relationen zu jeglichen modellrelevanten Entitäten im Suchraum herzustellen und zugleich diese Relationen für weitere wissensbildende Prozesse verfügbar zu machen.
Bereits zum dritten Mal in Folge nahm eine zehnköpfige Gruppe Studierender der Hochschule Hannover aus dem Vollzeit- sowie dem berufsbegleitenden Bachelor-Studiengang Informationsmanagement, in Begleitung zweier Dozentinnen, an der BOBCATSSS-Konferenz teil. Nachdem bisher ausschließlich auf der Hochschulwebseite und tagesaktuell im Blog über Erfahrungen und Erlebnisse während der drei BOBCATSSS-Exkursionen berichtet wurde, folgt hiermit nun ein zusammenhängender Beitrag über die diesjährige Konferenz vom 24. bis zum 26. Januar 2018 in Riga, Lettland. Die BOBCATSSS-Konferenz ist eine internationale Konferenz der Bibliotheks- und Informationswissenschaften. Im Gegensatz zu IFLA & Co wird sie fast ausschließlich von Studierenden wechselnder Universitäten in Europa ausgerichtet.
Der Beitrag beschreibt die aktuellen Überlegungen zur Weiterentwicklung der informationswissenschaftlichen Studiengänge der Hochschule Hannover vor dem Hintergrund des laufenden Prozesses der Reakkreditierung. Zentrale Aspekte bilden hierbei die inhaltliche und strukturelle Weiterentwicklung des Curriculums vor dem Hintergrund der sich verändernden Bedürfnisse der Bibliotheken. Ebenfalls berücksichtigt werden verschiedene Formen der Kooperation mit der Bibliothekspraxis, hochschuldidaktische Überlegungen sowie die Einbindung der Studiengänge in die informationswissenschaftliche Forschungslandschaft.
Der Arbeitsalltag von Wissenschaftlerinnen und Wissenschaftlern hat sich in den letzten Jahren dramatisch verändert. Forschen, Schreiben und Publizieren sind mittlerweile stark durch netzbasierte Anwendungen geprägt. Das digitale Zeitalter aber hat nicht nur neue technische Werkzeuge hervorgebracht, sondern auch neue Wege eröffnet, um Wissen zu generieren und zu verbreiten. Dies gilt sowohl innerhalb der akademischen Welt als auch über diese hinaus. Das Arbeiten mit dem Netz stellt unsere bisherigen etablierten wissenschaftlichen Praktiken in Frage. Forschung wird zunehmend vernetzt, kollaborativ, multimedial, trans- bzw. interdisziplinär durchgeführt. Das vorliegende Handbuch beschreibt diese sich herausbildenden wissenschaftlichen Praktiken. Ziel der Autoren war es dabei, ein praxisnahes und leicht verständliches Handbuch zu schreiben.
Research information, i.e., data about research projects, organisations, researchers or research outputs such as publications or patents, is spread across the web, usually residing in institutional and personal web pages or in semi-open databases and information systems. While there exists a wealth of unstructured information, structured data is limited and often exposed following proprietary or less-established schemas and interfaces. Therefore, a holistic and consistent view on research information across organisational and national boundaries is not feasible. On the other hand, web crawling and information extraction techniques have matured throughout the last decade, allowing for automated approaches of harvesting, extracting and consolidating research information into a more coherent knowledge graph. In this work, we give an overview of the current state of the art in research information sharing on the web and present initial ideas towards a more holistic approach for boot-strapping research information from available web sources.
Eine durch die Digitalisierung veränderte und auf Open Science ausgerichtete Wissenschaftspraxis benötigt angepasste Infrastrukturen und Services. Daraus ergeben sich verschiedene neue oder veränderte Aktionsfelder für wissenschaftliche Bibliotheken und Infrastruktureinrichtungen. Zu nennen sind zum Beispiel die nicht-textuellen Materialien wie Forschungsdaten, AV-Medien oder Software und die Umsetzung der FAIR-Prinzipien. Hinzu kommen neue Aufgaben im Bereich der Forschungsinformationen, zum Beispiel in der Unterstützung institutioneller Forschungsinformationssysteme, die Gestaltung von Open Access, die Unterstützung kollaborativen wissenschaftlichen Arbeitens sowie die Schaffung von offenen Infrastrukturen. In diesem Artikel werden diese Felder kurz vorgestellt und sich daraus abzeichnende Anforderungen an das bibliothekarische Berufsbild skizziert.
Background: One of the major challenges in pediatric intensive care is the detection of life-threatening health conditions under acute time constraints and performance pressure. This includes the assessment of pediatric organ dysfunction (OD) that demands extraordinary clinical expertise and the clinician’s ability to derive a decision based on multiple information and data sources. Clinical decision support systems (CDSS) offer a solution to support medical staff in stressful routine work. Simultaneously, detection of OD by using computerized decision support approaches has been scarcely investigated, especially not in pediatrics.
Objectives: The aim of the study is to enhance an existing, interoperable, and rulebased CDSS prototype for tracing the progression of sepsis in critically ill children by augmenting it with the capability to detect SIRS/sepsis-associated hematologic OD, and to determine its diagnostic accuracy.
Methods: We reproduced an interoperable CDSS approach previously introduced by our working group: (1) a knowledge model was designed by following the commonKADS methodology, (2) routine care data was semantically standardized and harmonized using openEHR as clinical information standard, (3) rules were formulated and implemented in a business rule management system. Data from a prospective diagnostic study, including 168 patients, was used to estimate the diagnostic accuracy of the rule-based CDSS using the clinicians’ diagnoses as reference
Catalogs of competency-based learning objectives (CLO) were introduced and promoted as a prerequisite for high-quality, systematic curriculum development. While this is common in medicine, the consistent use of CLO is not yet well established in epidemiology, biometry, medical informatics, biomedical informatics, and nursing informatics especially in Germany. This paper aims to identify underlying obstacles and give recommendations in order to promote the dissemination of CLO for curricular development in health data and information sciences. To determine these obstacles and recommendations a public online expert workshop was organized. This paper summarizes the findings.
Das Projekt Promise2007 befasste sich mit der Erstellung und Auswertung einer Statistik zur Mitgliedersituation im Berufsverband Medizinischer Informatiker e.V.. Mit dem Ziel mehr über die Mitglieder und ihre derzeitige Situation zu erfahren wurde das Projekt an der Fachhochschule Hannover initiiert. Statistisch erfasst wurden Fragen zum Beschäftigungsverhältnis, zu Aus- und Weiterbildung, der beruflichen Situation und persönliche Angaben. Die Ergebnisse wurden ausgewertet und daraus wichtige Erkenntnisse für den BVMI e.V. abgeleitet, welche auf die weitere Verbandsarbeit Einfluss nehmen.
Vorgestellt wird ein Ansatz zur objektorientierten Modellierung, Simulation und Animation von Informationssystemen. Es wird ein Vorgehensmodell dargestellt, mit dem unter Verwendung des beschriebenen Ansatzes Anforderungs- oder Systemspezifikationen von Rechnergestützten Informationssystemen erstellt werden können. Der Ansatz basiert auf einem Metamodell zur Beschreibung Rechnergestützter Informationssysteme und verfügt über eine rechnergestützte Modellierungsumgebung. Anhand eines Projektes zur Entwicklung einer Anforderungsspezifikation für ein rechnergestütztes Pflegedokumentations- und -kommunikationssystems wird der Einsatz der Methode beispielhaft illustriert.
Hintergrund und Fragestellung: Die korrekte intraoperative Positionierung und Einstellung eines mobilen Bildverstärkers (auch C-Bogen) kann zurzeit theoretisch mit Hilfe von Lehrbüchern erlernt, am Gerät selbst aber nur ohne visuelle Rückmeldung, d.h. ohne ein zur Ausrichtung korrespondierendes Röntgenbild, trainiert werden. Hieraus ergibt sich die Fragestellung, inwiefern das Training der Handhabung und richtigen Einstellung des C-Bogens in verschiedenen Operationsszenarien durch ein C-Bogen Simulationssystem als Teil eines CBT-Systems (Computer Based Training) unterstützt werden kann. Methoden: In Kooperation mit Ärzten aus Unfallchirurgie und Radiologie wurde das computer-basierte Trainingssystem virtX entwickelt. virtX kann dem Nutzer verschiedene Aufgaben zur Einstellung eines C-Bogens stellen und die Ausführung und das Ergebnis bewerten. Die Aufgaben können mit Hilfe eines Autorensystems erstellt und vom Trainierenden in verschiedenen Modi erfüllt werden: im rein virtuellen Modus oder im kombinierten virtuell-realen Modus. Im rein virtuellen Modus steuert der Nutzer den virtuellen C-Bogen in einem virtuellen OP-Saal mittels einer grafisch-interaktiven Benutzungsoberfläche. Im virtuell-realen Modus hingegen wird die Ausrichtung eines realen C-Bogens erfasst und auf den virtuellen C-Bogen übertragen. Während der Aufgabenerfüllung kann der Benutzer zu jeder Zeit ein realitätsnahes, virtuelles Röntgenbild erzeugen und dabei alle Parameter wie Blendenstellung, Röntgenintensität, etc. wie bei einem realen C-Bogen steuern. virtX wurde auf einem dreitägigen Kurs für OP-Personal mit 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 79 einen ausgefüllten Evaluations-Fragebogen ab. Das Durchschnittsalter der 62 weiblichen und 15 männlichen Teilnehmer (zwei o.A.) lag bei 34 ± 9 Jahren, die Berufserfahrung bei 8,3 ± 7,6 Jahren. 18 Personen (23%) gaben an, gelegentlich mit einem C-Bogen zu arbeiten, 61 (77%) arbeiteten regelmäßig damit. Über 83% der befragten Teilnehmer empfanden virtX als eine sinnvolle Ergänzung zur herkömmlichen Ausbildung am C-Bogen. Das virtuelle Röntgen wurde mit einer Zustimmung von 91% der befragten Teilnehmer als besonders wichtig für das Verständnis der Arbeitsweise eines C-Bogens beurteilt. Ebenso erhielt der kombinierte virtuell-reale Modus mit 84% Zustimmung einen vergleichsweise hohen Stellenwert. Schlussfolgerung: Die Befragung zeichnet ein positives Bild der Akzeptanz des virtX-System als substanzielle Ergänzung zur herkömmlichen Ausbildung am C-Bogen.
Die technischen Entwicklungen der heutigen Zeit ermöglichen neue Wege in der Kommunikation, die zunehmend auch auf andere Bereiche, beispielsweise das Lernen, übergreifen. Die vorliegende Arbeit beschäftigt sich mit den Einsatzmöglichkeiten des Mikrolernens in der betrieblichen Weiterbildung. Darüber hinaus wird der Frage nachgegangen, inwieweit die Berücksichtigung der Persönlichkeitsdimension der Extraversion mit ihren beiden Polen Intro- und Extraversion bei der didaktischen Gestaltung von Weiterbildungsmaßnahmen möglich und sinnvoll ist. Dafür wird die aktuelle wissenschaftliche Literatur zu den Themen Mikrolernen, Wissensmanagement und betriebliche Weiterbildung analysiert. Das Thema der Persönlichkeitsdimension Extraversion wird speziell unter dem Aspekt des Lernens betrachtet. Außerdem werden betriebswirtschaftliche und rechtliche Aspekte untersucht, die bei der Einführung neuer Lernformen in der betrieblichen Weiterbildung zu beachten sind. Das Ergebnis ist ein umfassender Leitfaden für die didaktische Gestaltung von Mikrolerneinheiten, die in ein ganzheitliches betriebliches Weiterbildungskonzept eingebettet sind. Eine praktische Checkliste für die Umsetzung im Unternehmen vervollständigt den Leitfaden.
Dass Menschen bereit sind, ein Leben lang zu lernen, ist bereits in der heutigen Informations- und Wissensgesellschaft eine wichtige Voraussetzung, um in der Arbeitswelt zu bestehen, innovativ zu sein und sich weiterzuentwickeln. Die vorliegende Arbeit untersucht, inwieweit die Montessori-Pädagogik bereits Kinder und Jugendliche auf die Herausforderungen der Zukunft vorbereiten kann und ob sie den Anforderungen, die das Lebenslange Lernen stellt, gerecht wird. Zunächst werden das Phänomen des Lebenslangen Lernens, das Lernen in verschiedenen Lebensphasen und Lernsituationen sowie die Gründe und Ziele von Lebenslangem Lernen vorgestellt. Anschließend werden als Einflussfaktoren für das Gelingen Lebenslangen Lernens, und zwar die Lernmotivation, die Lernumgebung, die Lernerfahrung, das selbstgesteuerte Lernen sowie Kompetenzen skizziert. Weiter folgen ein Überblick über die Montessori-Pädagogik, deren Erziehungsziele, Grundlagen sowie Methoden. Den Abschluss der Arbeit bildet ein Vergleich der Konzepte und Prinzipien der Montessori-Pädagogik mit den Methoden, die für das Lernen am Arbeitsplatz eingesetzt werden und damit dem Lebenslangen Lernen dienen.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Die vorliegenden Diplomarbeit bietet eine Übersicht über Filmbibliotheken, Filmarchiven und anderen Bibliotheken mit Filminformationsbeständen zum Thema. Zu diesem Zweck wurden Fragebögen an Einrichtungen verschickt, deren Arbeitsgebiet der Film im weiteren Sinne ist. Das methodische Vorgehen für diese Untersuchung wird ebenso aufgezeigt wie die sich daraus ergebende Übersicht über die Filminformationsbestände in Deutschland. Zum Vergleich des Umgangs mit der Filminformation in Deutschland und im Ausland werden einige Filminformationseinrichtungen in anderen Ländern betrachtet und beschrieben. Anschließend an die Darstellungen der Informationseinrichtungen wird der Versuch einer Systematisierung der unterschiedlichen Typen von Informationseinrichtungen und der verschiedenen Themenschwerpunkte der Bestände unternommen.
Pop-Up-Stores dienen diversen Unternehmen, von großen Konzernen bis hin zum kleinen Start-Up-Projekt, als einzigartige Möglichkeit, neuartige Produkte für potenzielle Kunden sichtbar zu machen, deren Attraktivität zu testen und unkonventionelles Marketing zu betreiben. Auch in Deutschland sind die Läden auf Zeit mittlerweile ein etabliertes Konzept. Insbesondere in Großstädten sind sie prägende Elemente von Einkaufszentren, Fußgängerzonen, etc., die durch ihr kurzzeitiges Erscheinen und ihre einzigartigen Angebote auch eine Antwort auf die dynamische Entwicklung von Innenstädten und das Innovationsbedürfnis von Konsumenten darstellen. Durch die begrenzte Verfügbarkeit, die damit zumindest suggerierte Exklusivität und den besonderen Eventcharakter erzeugen Pop-Up-Stores ein hohes Maß an Aufmerksamkeit, Mundpropaganda sowie Attraktivität und sind dabei für die durchführenden Unternehmen annähernd risikolos.
Ob und wie dieses Konzept auch für Bibliotheken geeignet ist, welche Vorteile Bibliotheken aus einem derartigen Projekt gegebenenfalls ziehen können und was bei der Umsetzung einer Pop-Up-Bibliothek zu beachten ist, ist Inhalt der vorliegenden Machbarkeitsstudie. Im Rahmen der ersten Recherchen wurde bereits ersichtlich, dass die Bandbreite von Pop-Up-Konzepten an sich sehr groß ist. Darüber hinaus zeigte sich auch, dass Bibliotheken auf unterschiedlichste Weise dazu in der Lage sind, diese Konzepte wiederum an die eigenen Bedürfnisse bzw. Gegebenheiten anzupassen: Vom Testen neuer Raum- oder Veranstaltungsangebote bis zum Schaffen temporärer Bibliotheksstandorte in bisher wenig bis nicht erschlossenen Stadtteilen, und nicht zuletzt als imagewirksame Öffentlichkeitsarbeit – die Möglichkeiten der Ausrichtung einer Pop-Up-Bibliothek sind so divers, wie die Bibliotheksarbeit an sich.
Die Digitalisierung der Geisteswissenschaften eröffnet Wissenschaftlerinnen und Wissenschaftlern unter anderem neue Möglichkeiten des kollaborativen Arbeitens, des offenen Publizierens oder der direkten und öffentlichkeitswirksamen Wissenskommunikation. Auch die Literaturrecherche als ein Grundpfeiler wissenschaftlichen Arbeitens erfährt schon seit Jahren einen stetigen Wandel. Bibliotheken befinden sich als Anbieter von Literatur, Medien und Rechercheinstrumenten in einem Spannungsfeld: Die Kerntätigkeitsbereiche der Erwerbung sowie der Vermittlung von Informationskompetenz unterliegen auch aufgrund der zunehmenden Digitalisierung veränderten Rahmenbedingungen, die meistens außerhalb der Reichweite der lokalen Bibliothek liegen. Diese Bedingungen beeinflussen sowohl die Tätigkeiten des Bibliothekspersonals als auch die Informationsversorgung der Bibliothekskundinnen und -kunden stark.
In diesem Artikel soll mit Bezug auf eine Universitätsbibliothek mittlerer Größe und mit Blick auf eine ihrer wichtigsten Zielgruppen, nämlich die der Studierenden, dargestellt werden, wie sich im Zuge der zunehmenden Digitalisierung Fragen der Erwerbungspolitik und unterschiedliche Wege der Literaturrecherche auf das wissenschaftliche Arbeiten auswirken. Ein besonderes
Augenmerk gilt dabei dem Bestandsaufbau im Fachreferat Germanistik im Gefüge der an der Universität zu versorgenden Fächer. An der Schnittstelle zu Forschung, Lehre und Studium sind es die Fachreferentinnen und Fachreferenten der Bibliothek, die sowohl die Rahmenbedingungen als auch die verschiedenen Möglichkeiten der Literaturrecherche proaktiv vermitteln müssen.
Im März 2021 fand erneut der langjährig etablierte „Erfahrungsaustausch: Fachreferate der Geisteswissenschaften“ statt, organisiert von Dorothee Graf (UB Duisburg-Essen), Alice Rabeler (ULB Bonn), Rosemarie Kosche (UB Duisburg-Essen) sowie Björn Gebert (ULB Münster). Ausgangspunkt der diesjährigen Veranstaltung war die Frage: „Was hat Corona im Fachreferat verändert? “ Die Veranstaltung, an der 80 Interessierte aus Deutschland und der Schweiz teilnahmen, gliederte sich in sechs inhaltliche Blöcke. Der Aufsatz fasst die Beiträge inhaltlich zusammen.
Über die vergangenen Jahrzehnte hat sich die Interne Unternehmenskommunikation stets auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und ihre Modelle zur Motivation und Integration von Mitarbeitern den Veränderungen im strategischen und operativen Management angepasst. Ging es in den 70er und 80er Jahren dabei noch um das Herstellen von Mitarbeiterzufriedenheit, drehte sich seit den 90er Jahren in der Folge des zunehmenden globalen Wettbewerbs dann alles um das Mitarbeiterengagement.<br /> Dieser Beitrag unternimmt einen Versuch, die Geschichte der Internen Unternehmens-kommunikation in Deutschland zu beleuchten. Dazu wird der Blickwinkel des Kommunikationsmanagements eingenommen, welches die Funktion der generellen Unternehmenskommunikation und damit auch die ihrer Teildisziplin für die Anspruchsgruppe der Mitarbeiter unter betriebswirt-schaftlichen Gesichtspunkten betrachtet und in den Wertschöpfungsprozess eines Unternehmens einordnet. <br /> Es wird gezeigt, dass und wie sich die Interne Unternehmenskommunikation über die vergangenen Jahrzehnte auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und diese unterstützt hat. Die jeweiligen Lösungsansätze der Internen Kommunikation dienten immer dazu, die Mitarbeiter zum Vorteil der Unternehmensführung in das Unternehmensgeschehen zu integrieren. <br /> Und so, wie sich im Laufe der Zeit das strategische und operative Management veränderte, entwickelte sich auch die hier zu beschreibende Disziplin weiter.<br /> Unterdessen ist der Wandel Normalität geworden, doch mehr als jeder dritte Veränderungsprozess kann auch heute noch vor allem durch eine mangelnde Integration der Mitarbeiter als nicht erfolgreich betrachtet werden. Aber mehr denn je ist die kreative Beteiligung der Betroffenen und die Übernahme von Eigenverant-wortung notwendig. Entsprechende Maßnahmen der Internen Unternehmenskommunikation müssen nun aus einem Modell für Mobilisierung erwachsen.<br /> Inzwischen stellen diese Zusammenhänge die Verantwortlichen für die Interne Kommunikation vor große Herausforderungen und erfordern ein hohes Maß an Professionalität, die aber in der Praxis noch längst nicht überall Einzug gehalten hat. So gibt dieser Beitrag auch einen Ausblick auf die aktuell zu erkennenden Unterstützungspotenziale der Internen Unternehmenskommunikation im Wertschöpfungsprozess.<br />
In diesem Beitrag erfahren Sie, warum das Wir-Gefühl vergangener Zeiten heutzutage nicht mehr fruchten kann und wie Mitarbeiterbindung in Zeiten des Wandels wertschöpfend herbeigeführt werden kann. Desweiteren wird geklärt, welche Bedeutung ein glaubwürdiges Wertesystem im Unternehmen für die Wertschöpfung hat, welche Kommunikationsaufgaben dem Management dabei zukommen und warum Verständnis bedeutsamer ist als das (Wir-)Gefühl.
Ob Veränderungsprojekte in Organisationen erfolgreich sind, hängt entscheidend davon ab, ob und wie die entwickelten Lösungen von den betroffenen Mitarbeitern angenommen und umgesetzt werden. Es sind nicht wirklich die Unternehmen, die sich verändern: Der Wandel muss in und mit den Menschen in den Unternehmen stattfinden. Dies kann aber nur durch Überzeugung gelingen und zwar im wesentlichen herbeigeführt durch Kommunikation. Von Bedeutung sind jedoch nicht so sehr die Massenmedien wie die Mitarbeiterzeitschrift, Broschüren oder das Intranet. Mit ihnen wird der Veränderungsprozess angestoßen und laufend unterstützt. Entscheidend für seinen Erfolg oder Misserfolg ist jedoch die geplante und organisierte persönliche Kommunikation vor allem zwischen dem Management und den Mitarbeitern. Führungskräfte müssen sich ihrer Rolle als Meinungsführer und Meinungsbildner bewusst werden und entsprechend handeln. Dazu gehört auch das Kommunikationsmanagement und der phasengerechte Einsatz von Kommunikationsinstrumenten zum gewünschten Zweck.
Noch bis vor wenigen Jahren galt die interne Kommunikation in den meisten Unternehmen im Vergleich zur Kommunikation mit externen Zielgruppen als deutlich weniger anspruchsvoll oder gar als in irgendeiner Weise wettbewerbsrelevant. Wurde sie lange als reine Sozialleistung betrachtet, rückt sie nun - insbesondere vor dem Hintergrund voranschreitender Globalisierung und ihren Auswirkungen auf die Wettbewerbsfähigkeit der Unternehmen - langsam als strategisches Führungsinstrument in das Bewusstsein vieler Unternehmenslenker. Denn mehr und mehr wird deutlich, dass die eigenen Mitarbeiter ausschlaggebender Faktor bei der Bewältigung von Veränderungen sind.
Mit der zunehmenden Digitalisierung hat die Informations- und Bibliothekslandschaft einen massiven Wandel erlebt. Insbesondere die Ausbreitung des Internets hat dafür gesorgt, dass man sich bei der Informationsrecherche nicht mehr nur auf die analogen Bibliotheksbestände beschränken muss. Ziel dieser Arbeit ist es, das wissenschaftliche Informationsverhalten von Studierenden im digitalen Zeitalter zu untersuchen. Unter Anwendung eines Systematic Literature Reviews werden dabei internationale Forschungsstudien der jüngsten elf Jahren analysiert und anschließend eine Handlungsempfehlung für Bibliotheken gegeben, wie sie die Informationskompetenz der Studierenden zeitgemäß fördern können. Unter anderem ging aus den Ergebnissen hervor, dass besonders Studienanfänger*innen Defizite im Bereich der wissenschaftlichen Recherche und Quellenevaluation haben.
Die Arbeit thematisiert nach Erläuterungen zu den Begriffen Rechtsinformation und E-Government die heterogene Informationslandschaft der frei zugänglichen Rechtsinformation in Deutschland. Normgeber, Gerichte und Parlamente auf Ebene des Bundes und der Länder gestalten auf vielfache Weise die Internetpräsentation der Gesetze, Entscheidungen und parlamentarischen Materialien. Das Gegenmodell zu dieser auf viele Internetadressen und Webseiten verteilten Rechtsinformation stellt das österreichische Rechtsinformationssystem des Bundes (RIS) dar, das als nationale E-Government-Anwendung über eine einzige Oberfläche den Zugriff auf die Gesetze, Entscheidungen und parlamentarischen Materialien ermöglicht. Das RIS als Blaupause und unter Beachtung der Anforderungen an E-Government-Anwendungen umreißt die Arbeit Rahmenbedingungen und Ausgestaltungsmöglichkeiten für einen Portalentwurf, der als Single Point of Entry für die staatliche Rechtsinformation Deutschlands konzeptioniert ist.
In der vorliegenden Bachelorarbeit wird thematisiert, wie Coding zu Zwecken der sich im Umbruch befindenden MINT-Bildung eingesetzt werden kann und welche Kompetenzen durch das Erlernen von Programmierfähigkeiten gefördert werden. Darüber hinaus wird ein Bezug zur Informatik als Herkunftswissenschaft des Coding hergestellt und die Relevanz einer frühzeitigen Aneignung von Programmierfähigkeiten in einer digitalen Gesellschaft beleuchtet. Eine Analyse der webbasierten Programmierplattformen Open Roberta Lab, Scratch, Sprite Lab von Code.org und TurtleCoder, die zur Vermittlung von Programmier-fähigkeiten bei Kindern genutzt werden können, gibt Aufschluss darüber, ob sich die benannten Programmierplattformen auch für den Einsatz in außerschulischen Bildungseinrichtungen, wie etwa öffentliche Bibliotheken, eignen.
Clinical scores and motion-capturing gait analysis are today’s gold standard for outcome measurement after knee arthroplasty, although they are criticized for bias and their ability to reflect patients’ actual quality of life has been questioned. In this context, mobile gait analysis systems have been introduced to overcome some of these limitations. This study used a previously developed mobile gait analysis system comprising three inertial sensor units to evaluate daily activities and sports. The sensors were taped to the lumbosacral junction and the thigh and shank of the affected limb. The annotated raw data was evaluated using our validated proprietary software. Six patients undergoing knee arthroplasty were examined the day before and 12 months after surgery. All patients reported a satisfactory outcome, although four patients still had limitations in their desired activities. In this context, feasible running speed demonstrated a good correlation with reported impairments in sports-related activities. Notably, knee flexion angle while descending stairs and the ability to stop abruptly when running exhibited good correlation with the clinical stability and proprioception of the knee. Moreover, fatigue effects were displayed in some patients. The introduced system appears to be suitable for outcome measurement after knee arthroplasty and has the potential to overcome some of the limitations of stationary gait labs while gathering additional meaningful parameters regarding the force limits of the knee.
Mikro-Blogging war im Jahr 2008 das Hype-Thema des Web2.0, doch was steckt eigentlich dahinter? Die folgende Arbeit stellt Nutzen und Funktionsweise verschiedener Mikro-Blogging-Dienste und -Systeme im Unternehmensumfeld vor. Weiterhin werden einzelne Anwendungsfälle beschrieben und an Hand praktischer Beispiele belegt. Die Potenziale im internen und externen Nutzen werden ermittelt, strukturiert und erläutert, so dass sich in den Ergebnissen zeigt, wo tatsächlich ein Mehrwert erkennbar ist und warum Unternehmen Mikro-Blogging einsetzen sollten. Aber auch Kritik, Risiken und Gefahren des Mikro-Blogging werden berücksichtigt.
NOA is a search engine for scientific images from open access publications based on full text indexing of all text referring to the images and filtering for disciplines and image type. Images will be annotated with Wikipedia categories for better discoverability and for uploading to WikiCommons. Currently we have indexed approximately 2,7 Million images from over 710 000 scientific papers from all fields of science.
Scientific papers from all disciplines contain many abbreviations and acronyms. In many cases these acronyms are ambiguous. We present a method to choose the contextual correct definition of an acronym that does not require training for each acronym and thus can be applied to a large number of different acronyms with only few instances. We constructed a set of 19,954 examples of 4,365 ambiguous acronyms from image captions in scientific papers along with their contextually correct definition from different domains. We learn word embeddings for all words in the corpus and compare the averaged context vector of the words in the expansion of an acronym with the weighted average vector of the words in the context of the acronym. We show that this method clearly outperforms (classical) cosine similarity. Furthermore, we show that word embeddings learned from a 1 billion word corpus of scientific exts outperform word embeddings learned from much larger general corpora.
Concreteness of words has been studied extensively in psycholinguistic literature. A number of datasets have been created with average values for perceived concreteness of words. We show that we can train a regression model on these data, using word embeddings and morphological features, that can predict these concreteness values with high accuracy. We evaluate the model on 7 publicly available datasets. Only for a few small subsets of these datasets prediction of concreteness values are found in the literature. Our results clearly outperform the reported results for these datasets.
Concreteness of words has been measured and used in psycholinguistics already for decades. Recently, it is also used in retrieval and NLP tasks. For English a number of well known datasets has been established with average values for perceived concreteness.
We give an overview of available datasets for German, their correlation and evaluate prediction algorithms for concreteness of German words. We show that these algorithms achieve similar results as for English datasets. Moreover, we show for all datasets there are no significant differences between a prediction model based on a regression model using word embeddings as features and a prediction algorithm based on word similarity according to the same embeddings.
Image captions in scientific papers usually are complementary to the images. Consequently, the captions contain many terms that do not refer to concepts visible in the image. We conjecture that it is possible to distinguish between these two types of terms in an image caption by analysing the text only. To examine this, we evaluated different features. The dataset we used to compute tf.idf values, word embeddings and concreteness values contains over 700 000 scientific papers with over 4,6 million images. The evaluation was done with a manually annotated subset of 329 images. Additionally, we trained a support vector machine to predict whether a term is a likely visible or not. We show that concreteness of terms is a very important feature to identify terms in captions and context that refer to concepts visible in images.
Malnutrition, nutritional deficiency, or undernutrition is an imbalanced nutritional status resulting from insufficient intake of nutrients to meet normal physiologic requirements. Malnutrition in childhood has both short-term consequences and long-term consequences on mental and physical health as well as the overall health development of children. Of all regions in the world, the Asia and the Pacific region has achieved the fastest rate of economic growth. There is no evidence that this rapid economic growth translates into a decline in malnutrition of children in Asian countries such as India.
The present investigation was conducted to investigate the in-vitro activity of ethanolic extract of roots of Centaurea behens by using DPPH radical scavenging activity, nitric oxide radical scavenging activity, hydrogen peroxide radical scavenging activity, hydroxyl radical. Result suggests that the extract possess significant antioxidant activity as compared to the standard ascorbic acid and thus further in vivo investigation is required to evaluate the medicinal significance of the extract which can be used for assessing the possible therapeutic importance of the drug.
Im Rahmen der Projektphase des 6. Semesters der Studiengänge Bachelor Informationsmanagement (BIM) und Bachelor medizinisches Informationsmanagement (BMI) wurde eine Webseite für die Forschung erstellt. Um die Notwendigkeit zu ermitteln, sowie den Wünschen und Bedürfnissen der Angestellten an der Hochschule nachkommen zu können, wurde eine Bedarfsanalyse durchgeführt. Der nachfolgende Beitrag zeigt die Ergebnisse in aufbereiteter Form. Nach einer kurzen Einleitung werden die Bereiche statistische und allgemeine Fragen, Fragen zu digitalen Forschungsdaten und Netzwerken, zur Forschungswebseite und zur Pflege der Daten ausgewertet dargestellt.
Background: Stereotactic radiosurgery (SRS) is an effective treatment for trigeminal neuralgia (TN). Nevertheless, a proportion of patients will experience recurrence and treatment-related sensory disturbances. In order to evaluate the predictors of efficacy and safety of image-guided non-isocentric radiosurgery, we analyzed the impact of trigeminal nerve volume and the nerve dose/volume relationship, together with relevant clinical characteristics.
Methods: Two-hundred and ninety-six procedures were performed on 262 patients at three centers. In 17 patients the TN was secondary to multiple sclerosis (MS). Trigeminal pain and sensory disturbances were classified according to the Barrow Neurological Institute (BNI) scale. Pain-free-intervals were investigated using Kaplan Meier analyses. Univariate and multivariate Cox regression analyses were performed to identify predictors.
Results: The median follow-up period was 38 months, median maximal dose 72.4 Gy, median target nerve volume 25mm3, and median prescription dose 60 Gy. Pain control rate (BNI I-III) at 6, 12, 24, 36, 48, and 60 months were 96.8, 90.9, 84.2, 81.4, 74.2, and 71.2%, respectively. Overall, 18% of patients developed sensory disturbances. Patients with volume ≥ 30mm3 were more likely to maintain pain relief (p = 0.031), and low integral dose (< 1.4 mJ) tended to be associated with more pain recurrence than intermediate (1.4–2.7 mJ) or high integral dose (> 2.7 mJ; low vs. intermediate: log-rank test, χ2 = 5.02, p = 0.019; low vs. high: log-rank test, χ2 = 6.026, p = 0.014). MS, integral dose, and mean dose were the factors associated with pain recurrence, while re-irradiation and MS were predictors for sensory disturbance in the multivariate analysis.
Conclusions: The dose to nerve volume ratio is predictive of pain recurrence in TN, and re-irradiation has a major impact on the development of sensory disturbances after non-isocentric SRS. Interestingly, the integral dose may differ significantly in treatments using apparently similar dose and volume constraints.
Die Masterarbeit analysiert in einer empirischen Experimentalstudie die Wirkung von CSR-Kommunikation auf Konsumenten in der Lebensmittelbranche. Dazu wurde eine quantitative Online-Befragung durchgeführt, in der mithilfe eines fiktiven Unternehmens untersucht wurde, inwiefern CSR-Kommunikation, die Glaubwürdigkeit der CSR-Kommunikation und die Reputation des Unternehmens das CSR-Image beeinflussen.
Purpose: Radiology reports mostly contain free-text, which makes it challenging to obtain structured data. Natural language processing (NLP) techniques transform free-text reports into machine-readable document vectors that are important for creating reliable, scalable methods for data analysis. The aim of this study is to classify unstructured radiograph reports according to fractures of the distal fibula and to find the best text mining method.
Materials & Methods: We established a novel German language report dataset: a designated search engine was used to identify radiographs of the ankle and the reports were manually labeled according to fractures of the distal fibula. This data was used to establish a machine learning pipeline, which implemented the text representation methods bag-of-words (BOW), term frequency-inverse document frequency (TF-IDF), principal component analysis (PCA), non-negative matrix factorization (NMF), latent Dirichlet allocation (LDA), and document embedding (doc2vec). The extracted document vectors were used to train neural networks (NN), support vector machines (SVM), and logistic regression (LR) to recognize distal fibula fractures. The results were compared via cross-tabulations of the accuracy (acc) and area under the curve (AUC).
Results: In total, 3268 radiograph reports were included, of which 1076 described a fracture of the distal fibula. Comparison of the text representation methods showed that BOW achieved the best results (AUC = 0.98; acc = 0.97), followed by TF-IDF (AUC = 0.97; acc = 0.96), NMF (AUC = 0.93; acc = 0.92), PCA (AUC = 0.92; acc = 0.9), LDA (AUC = 0.91; acc = 0.89) and doc2vec (AUC = 0.9; acc = 0.88). When comparing the different classifiers, NN (AUC = 0,91) proved to be superior to SVM (AUC = 0,87) and LR (AUC = 0,85).
Conclusion: An automated classification of unstructured reports of radiographs of the ankle can reliably detect findings of fractures of the distal fibula. A particularly suitable feature extraction method is the BOW model.
Key Points:
- The aim was to classify unstructured radiograph reports according to distal fibula fractures.
- Our automated classification system can reliably detect fractures of the distal fibula.
- A particularly suitable feature extraction method is the BOW model.
Im Rahmen der zunehmenden Digitalisierung in Kulturerbeeinrichtungen gewinnt die Kontextualisierung digitaler Sammlungen mittels Linked Open Data (LOD) an Bedeutung. So auch für das Forschungsprojekt Moritz aus Buxtehude, in dem die historische Kleidersammlung des Moritz von Sachsen-Lauenburg interdisziplinär erforscht wird. Für die Kontextualisierung historischer Kleidung gibt es bisher jedoch keine etablierten Metadatenstandards oder Plattformen. Um eine niedrigschwellige Möglichkeit aufzuzeigen, wie Kulturerbeeinrichtungen die Metadaten ihrer Kleidungssammlungen als LOD veröffentlichen können, wird geprüft, inwiefern Wikidata sich hierfür anbietet. Dazu wird zunächst ein Wikidata-Schema für Kleidungsstücke entwickelt, welches anschließend durch die Erfassung von acht exemplarischen Objekten des Forschungsprojekts Moritz aus Buxtehude getestet und optimiert wird. Ergebnisse sind ein Wikidata-Property-Schema zur Erfassung von Kleidungsstücken, konkrete Handlungsempfehlungen für die Erfassung der weiteren Moritz-Objekte und ähnlicher Sammlungen, sowie Beispiele für Visualisierungen der kontextualisierten Objektdaten mit Hilfe von Wikidata. Die Ergebnisse der Arbeit zeigen, dass sich historische Kleidungsstücke mit geringem finanziellen, technischen und personellen Aufwand kontextualisieren lassen. Um das Potenzial voll auszuschöpfen, bedarf es allerdings weiterhin der engen Zusammenarbeit und des Engagements von Fachexpert:innen aus dem Kulturerbesektor und Informationswissenschaftler:innen bzw. der Wikidata-Community.
Data and Information Science: Book of Abstracts at BOBCATSSS 2022 Hybrid Conference, 23rd - 25th of May 2022, Debrecen.
This year marks the 30th anniversary of the BOBCATSSS. The BOBCATSSS is an international, annual symposium designed for librarians and information professionals in a rapidly changing environment. Over the past 30 years, the conference has included exciting topics, great venues, interested guests and engaging presenters.
This year we would like to introduce the topics of the many papers presented in the Book of Abstracts for the first time in presence at the University of Debrecen and hybrid. The Book of Abstracts provides an overview of all presentations given at BOBCATSSS. Presentations are listed in alphabetical order by title and include speeches, Pecha Kuchas, posters and workshops.
The theme of BOBCATSSS is Data and Information Science. Data and information are the basis for decisions and processes in business, politics and science. Particularly important in the current era of digital transformation. This is exactly where this year's subthemes come in. They deal with data science, openness as well as institutional roles.
Der Bedeutungszuwachs von Online-Medien hat eine gesellschaftliche Debatte über mögliche Folgen dieser Entwicklung ausgelöst. Weit verbreitet ist zum Beispiel die Wahrnehmung, dass Online-Medien maßgeblich beeinflussen, wie insbesondere jüngere Menschen politische Prozesse sehen und bewerten. Vor dem Hintergrund theoretischer Ansätze wie dem Influence-of-Presumed-Media-Influence-Approach wurde untersucht, welche kommunikationspolitischen Maßnahmen von der Bevölkerung als Reaktion auf solche Wahrnehmungen als angemessen eingeschätzt werden. Hierzu wurde im Kontext der Landtagswahl in Nordrhein-Westfalen 2012 eine Online-Befragung durchgeführt (n = 485). Die Befunde zeigen, dass die Wahrnehmung starker politischer Online-Einflüsse auf jüngere Menschen vor allem zu einer gesteigerten Akzeptanz von Aufklärung und Erziehung führt, weniger aber zu einer gesteigerten Akzeptanz restriktiver Maßnahmen zur Einflussbeschränkung.
Das vorliegende Shortpaper befasst sich mit dem Thema Datenschnittstellen und Datenmapping im Bibliothekswesen für den Austausch von bibliografischen Daten. Ausgangspunkt der Arbeit ist die Schnittstelle Z39.50, welche den Austausch von Metadaten zwischen Bibliotheken als derzeitigen Standard bildet. Neben diesem Austauschformat sind die Darstellungsformate MAB, MARC 21, MARC-XML und als Weiterentwicklung von Z39.50 das SRU (Search/Retrieve via URL) genannt. Weiterhin wird auf das Linked Open Data Netzwerk Bezug genommen. Dieses Netzwerk, auch Semantic Web genannt, wird im Allgemeinen auch mit den Begriffen Web 3.0, Linked Open Data und Web of Data in Verbindung gebracht. Die technische Seite wird anhand von RDF (Resource Description Framework), XML (Extensible Markup Language) erläutert und im Weiteren wird auf die Wichtigkeit der CC0-Lizenzen (Creative Commons Lizenzen) eingegangen. Abschließend wird auf den Begriff Mapping im Kontext der Bibliothekslandschaft eingegangen und die Zusammenarbeit zwischen den Institutionen hervorgehoben.
Das Konzept soll eine Grundlage zur Bereitstellung von Open Educational Resources (OER) für Studierende der Hochschule Hannover sein. Entstanden ist dieses auf Grundlage eines Studierendenprojektes (Bereitstellung von OER auf einer geeigneten Plattform) des Studiengangs "Informationsmanagement – berufsbegleitend". Aufgrund der kurzen Projektzeit, Schwierigkeiten bei der Auswahl einer geeigneten Plattform und einer problematischen Inhaltsrecherche konnte keine langfristige Lösung zur Bereitstellung von OER gefunden werden. Dieses Konzept soll die Erfahrungen der Projektgruppe zusammenfassen und an die Bibliothek der Hochschule Hannover sowie das E-Learning-Center weitergegeben werden. Ergänzt wird das Konzept durch allgemeine Informationen zu OER, Vorschläge für die Bereitstellung und Ideen für das weitere Vorgehen.
Bibliotheken sind Lernorte. Der interne Organisationsaufbau von Bibliotheken weist hingegen bisher wenige Strukturen einer Lernenden Organisation auf. Um die Bereitstellung von Medien und Informationen für Bibliotheksnutzer aufrechtzuerhalten und stetig an deren Bedürfnissen auszurichten (z. B. im Kontext der fortschreitenden Digitalisierung), bedarf es eines gut ausgebildeten Bibliothekspersonals. Klassische Fortbildungskonzepte gehören ebenso dazu, wie der kontinuierliche, persönliche Lernprozess eines jeden Bibliotheksmitarbeiters. Die Methode „Working Out Loud“ kann eingesetzt werden, um diese persönlichen Fähigkeiten auszubauen und eine agile Arbeitsweise anzuregen. Daher wird überprüft, inwiefern Working Out Loud die Lernende Organisation unterstützen kann. Zunächst wird die Methode Working Out Loud und deren Anwendung bei Unternehmen vorgestellt. Dann werden die Kennzeichen von Lernenden Organisationen definiert und auf Bibliotheken angewandt. Angeschlossen wird eine Betrachtung des zwölf Wochenprogramms von Working Out Loud und deren Potential zur Unterstützung der Lernenden Bibliothek. Working Out Loud vermittelt Bibliotheksmitarbeitern durch gezielte Übungen eine offenere Arbeitseinstellung, die sie mit ihren Kollegen innerhalb und außerhalb der Bibliothek zu teilen lernen.
Fast 70 Jahre nach dem Zweiten Weltkrieg und den nationalsozialistischen Plünderungen und Enteignungen befinden sich noch immer konfiszierte Bücher in deutschen Bibliotheken. Die Rückgabe dieser unrechtmäßig in die Bibliotheken gelangten Bestände ist eine ebenso wichtige wie langwierige Aufgabe. In der vorliegenden Bachelorarbeit wird im ersten Teil das Vorgehen bei der Restitution von NS-verfolgungsbedingt entzogenem Kulturgut mit den möglichen Schwierigkeiten dargestellt. Im zweiten Teil wird die praktisch durchgeführte Provenienzforschung in der Stadtbibliothek Hannover beschrieben.
Dieses Paper geht auf eine Prüfungsleistung vom 14.02.2016 in der Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ im Wintersemester 2015/16 aus dem Studiengang Informationsmanagement (berufsbegleitend) der Hochschule Hannover unter Frau Dr. Ina Blümel zurück.
Das Ergebnis dieser Untersuchung ist eine umfassenden Literatur- und Internetrecherche zum Thema Open Government in Deutschland. Hierbei steht die Fragestellung "Welche Ziele hat die aktuelle Bundesregierung bis jetzt erreicht?" auf Basis des Koalitionsvertrags der 18.Legislaturperiode im Mittelpunkt. Es wird eine Übersicht über die Gesetzesgrundlage mit einem Fokus auf dem e-Government-Gesetz gegeben. Zudem wird der aktuelle Sachstand des Koalitionsvertrags betreffend Open Government an neun Punkten betrachtet und abschließend bewertet.
Die vorliegende Bachelorarbeit befasst sich mit den Themen Usability digitaler Bibliotheksangebote, Nutzerorientierung und Zielgruppendefinition von Öffentlichen Bibliotheken. Die Bearbeiterin untersucht die Website der Stadtbibliothek Wolfsburg.
Die Zielgruppen der Stadtbibliothek werden unter Berücksichtigung der demografischen Struktur der Region definiert. Ebenso werden die Entstehungsgeschichte der Stadt beschrieben und wirtschaftliche Einflüsse aufgezeigt. Eine regionale Besonderheit ist die Abhängigkeit der Stadt Wolfsburg zum Volkswagen-Konzern, welche sich einmal mehr durch aktuelle Ereignisse wie den „Abgasskandal bei Volkswagen“ aus dem Jahr 2015 zeigt. Diese regionalspezifischen Aspekte haben insgesamt eine große Relevanz für die zielgruppenorientierte und nutzerfreundliche Gestaltung der Bibliothekswebsite. Allgemein gültige Usability-Standards werden hier an individuelle Faktoren angepasst.
Unter Berücksichtigung der Zielgruppendefinition und mithilfe einer Kombination der Usability-Methoden Personas-Verfahren, der Recherchedokumentation im Stil eines Thinking-Aloud-Protokolls und dem Abgleich mit ausgewählten Usability-Kriterien aus dem BibEval-Kriterienkatalog der HTW Chur untersucht die Bearbeiterin den Internetauftritt der Stadtbibliothek Wolfsburg im Praxisteil dieser Bachelorarbeit. Eine zusammenfassende Auswertung zeigt Stärken und Schwächen der Website auf und nennt darüber hinaus Verbesserungspotenziale.
Diese Arbeit ist interessant für Bibliothekare, die sich mit der Usability und Nutzerorientierung von digitalen Inhalten nach den spezifischen Zielgruppen einer Institution und ihrem Umfeld auseinander setzen möchten.
Background: Maintenance of metal homeostasis is crucial in bacterial pathogenicity as metal starvation is the most important mechanism in the nutritional immunity strategy of host cells. Thus, pathogenic bacteria have evolved sensitive metal scavenging systems to overcome this particular host defence mechanism. The ruminant pathogen Mycobacterium avium ssp. paratuberculosis (MAP) displays a unique gut tropism and causes a chronic progressive intestinal inflammation. MAP possesses eight conserved lineage specific large sequence polymorphisms (LSP), which distinguish MAP from its ancestral M. avium ssp. hominissuis or other M. avium subspecies. LSP14 and LSP15 harbour many genes proposed to be involved in metal homeostasis and have been suggested to substitute for a MAP specific, impaired mycobactin synthesis.
Results: In the present study, we found that a LSP14 located putative IrtAB-like iron transporter encoded by mptABC was induced by zinc but not by iron starvation. Heterologous reporter gene assays with the lacZ gene under control of the mptABC promoter in M. smegmatis (MSMEG) and in a MSMEGΔfurB deletion mutant revealed a zinc dependent, metalloregulator FurB mediated expression of mptABC via a conserved mycobacterial FurB recognition site. Deep sequencing of RNA from MAP cultures treated with the zinc chelator TPEN revealed that 70 genes responded to zinc limitation. Remarkably, 45 of these genes were located on a large genomic island of approximately 90 kb which harboured LSP14 and LSP15. Thirty-five of these genes were predicted to be controlled by FurB, due to the presence of putative binding sites. This clustering of zinc responsive genes was exclusively found in MAP and not in other mycobacteria.
Conclusions: Our data revealed a particular genomic signature for MAP given by a unique zinc specific locus, thereby suggesting an exceptional relevance of zinc for the metabolism of MAP. MAP seems to be well adapted to maintain zinc homeostasis which might contribute to the peculiarity of MAP pathogenicity.
Im Rahmen der aktuellen Bildungsdebatte profilieren sich in zunehmendem Maße Museen und Bibliotheken als Akteure der kulturellen Bildung. Durch ihre ausdifferenzierten Angebote agieren sie dabei sowohl auf den formellen und außerschulischen Bildungs- wie auch unterhaltenden Freizeitmärkten, jeweils sowohl auf politischer sowie wirtschaftlicher und gesellschaftlicher Makro-, Meso- und Mikroebene. Dabei bietet sich insbesondere den vielen Museen, die über eine eigene Museumsbibliothek verfügen, eine signifikant potenzierte Möglichkeit, im Rahmen einer professionellen Öffentlichkeitsarbeit durch die Konzeptionierung ihrer Bibliothek zu einem Informations- und Kommunikationszentrum und deren Positionierung in der Produkt- und Kommunikationspolitik der Marketingstrategie des Museums, ihren (potentiellen) heterogenen Zielgruppen erweiterte und additive Angebote und dadurch neuartige Zugänge zu offerieren sowie die Einrichtung dadurch im Stadtraum öffentlichkeitswirksam neu zu verorten, indem eine derart strukturell und programmatisch revisionierte und professionell geführte Museumsbibliothek der Gesellschaft weitere Lern- wie auch Kommunikationsräume im Sinne eines Kulturzentrums eröffnet. Eine solch autonome und allseits anerkannte Museumsbibliothek, die als zentrale Abteilung des Museums eng mit den anderen Handlungsbereichen der Einrichtung, insbesondere jedoch der Museumspädagogik und der Kommunikationsabteilung zusammenarbeitet, bietet dem Museum des Weiteren durch ihre hybride Scharnierfunktion als museale wie auch bibliothekarische Einrichtung eine ideale Möglichkeit, sich als Ort der kulturellen Bildung innerhalb der (kulturellen) Bildungslandschaft der Region mit weiteren Anbietern dieser Ressorts, vor allem jedoch Bibliotheken und Schulen, kooperativ und öffentlichkeitswirksam zu vernetzen.
Dass die Stadt- und Staatstheater nicht in der Lage seien, sich auf die neuen Realitäten einer pluralisierten Stadtgesellschaft einzustellen und ihre Rolle neu zu definieren, sie stattdessen in Traditionen verharrten und „von allem zu viel und immer das gleiche“ spielten, ist ein im Rahmen der Stadttheaterdebatte häufig geäußerter Vorwurf. Ein sehr viel komplexeres und widersprüchlicheres Bild ergibt sich unter anderem aus der Analyse der Werkstatistiken des Deutschen Bühnenvereines wie auch der Theaterstatistiken. Sie legen nahe, dass sich seit Beginn der 1990er Jahre bedeutende Veränderungen in den Repertoires und Spielplänen der Stadt- und Staatstheater vollzogen haben, die sich als Versuch der Theater interpretieren lassen, sich neu in der Stadtgesellschaft der Gegenwart zu verorten. Der Aufsatz arbeitet die Bemühungen der Theater um eine größere Repertoirevielfalt und Neuverortung heraus, um anschließend die Frage zu diskutieren, welche Schlüsse sich hieraus sowohl für die Kulturpolitik wie auch die Theater ziehen lassen.
Einführung einer institutionellen Forschungsdateninfrastruktur an der Helmut-Schmidt-Universität
(2016)
Die vorliegende Bachelorarbeit untersucht den zur Einführung einer institutionellen Forschungsdateninfrastruktur zu berücksichtigenden Handlungsrahmen an der Helmut-Schmidt-Universität/ Universität der Bundeswehr Hamburg (HSU/ UniBw H) und gibt unter besonderer Berücksichtigung möglicher Aufgabenfelder der Universitätsbibliothek allgemeine Handlungsempfehlungen für deren Implementierung. Da sich die Arbeit sowohl an die Verantwortlichen zur Einführung einer Forschungsdateninfrastruktur an der HSU/ UniBw H als auch an Interessierte der akademischen Gemeinschaft richtet, werden die zum besseren Verständnis besonders relevanten Begriffe zunächst herausgestellt. Auf der Grundlage aktueller Forschungsliteratur und verfügbarer Praxiserfahrung anderer Universitäten wurde mittels Webseitenanalyse und der Auswertung von Fragebögen eine gesamtheitliche Beschreibung für die Implementierung einer institutionellen Forschungsdateninfrastruktur zum Abgleich mit der Ausgangssituation an der HSU/ UniBw H erstellt. Die Arbeit verdeutlicht in den daraus abgeleiteten Handlungsempfehlungen den zu berücksichtigenden allgemeinen Handlungsrahmen in seiner Komplexität und zeigt vor allem diesbezügliche Aufgabenfelder der Universitätsbibliothek von der Initiierung bis zum Abschluss der Implementierung auf. Im Wesentlichen wird hierbei herausgestellt, dass die Universitätsbibliothek als klassische Gedächtnisorganisation und zentraler Informationsdienstleister ihre Kompetenzen besonders bei der Entwicklung und Verwirklichung des Forschungsdatenmanagements sinnvoll einbringen und zukunftsorientiert erweitern kann und sollte. Auslegungsbestimmend ist die von der Universitätsleitung festzulegende Ziel- und Zweckbestimmung der institutionellen Forschungsdateninfrastruktur. Diese dient dem Forschungsdatenmanagement zur Skalierung und Bestimmung von Umfang, Komplexität und Anforderungen an die potentiellen Aufgabenbereiche insbesondere der Universitätsbibliothek. Somit leistet diese Bachelorarbeit einen grundlegenden Beitrag zur weiteren Strukturierung und Konkretisierung der initiatorischen Überlegungen der Universitätsbibliotheksleitung zu den Möglichkeiten der Einführung einer institutionellen Forschungsdateninfrastruktur an der HSU/ UniBw H.
Soziale Medien ermöglichen es ihren Nutzern besondere Beziehungen untereinander aufzubauen und zu vertiefen. Manche User bauen dabei eine weitreichende Followerschaft auf, die sogenannten Influencer. Die vorliegende Arbeit untersucht die Beziehung von Followern zu Influencer, indem der aktuelle Forschungsstand zu (trans-)parasozialen Beziehungen sowie gefühlter Interkonnektivität herangezogen wird. Mithilfe einer Online-Befragung werden die Auswirkungen einer intensiven parasozialen Beziehung zu Influencern auf verschiedene Erwartungsdimensionen untersucht. Die Ergebnisse werden vor dem Hintergrund der Theorie diskutiert und mögliche Forschungslücken herausgestellt.
Appropriate data models are essential for the systematic collection, aggregation, and integration of health data and for subsequent analysis. However, recommendations for modeling health data are often not publicly available within specific projects. Therefore, the project Zukunftslabor Gesundheit investigates recommendations for modeling. Expert interviews with five experts were conducted and analyzed using qualitative content analysis. Based on the condensed categories “governance”, “modeling” and “standards”, the project team generated eight hypotheses for recommendations on health data modeling. In addition, relevant framework conditions such as different roles, international cooperation, education/training and political influence were identified. Although emerging from interviewing a small convenience sample of experts, the results help to plan more extensive data collections and to create recommendations for health data modeling.
BACKGROUND: Even though physician rating websites (PRWs) have been gaining in importance in both practice and research, little evidence is available on the association of patients' online ratings with the quality of care of physicians. It thus remains unclear whether patients should rely on these ratings when selecting a physician. The objective of this study was to measure the association between online ratings and structural and quality of care measures for 65 physician practices from the German Integrated Health Care Network "Quality and Efficiency" (QuE). METHODS: Online reviews from two German PRWs were included which covered a three-year period (2011 to 2013) and included 1179 and 991 ratings, respectively. Information for 65 QuE practices was obtained for the year 2012 and included 21 measures related to structural information (N = 6), process quality (N = 10), intermediate outcomes (N = 2), patient satisfaction (N = 1), and costs (N = 2). The Spearman rank coefficient of correlation was applied to measure the association between ratings and practice-related information. RESULTS: Patient satisfaction results from offline surveys and the patients per doctor ratio in a practice were shown to be significantly associated with online ratings on both PRWs. For one PRW, additional significant associations could be shown between online ratings and cost-related measures for medication, preventative examinations, and one diabetes type 2-related intermediate outcome measure. There again, results from the second PRW showed significant associations with the age of the physicians and the number of patients per practice, four process-related quality measures for diabetes type 2 and asthma, and one cost-related measure for medication. CONCLUSIONS: Several significant associations were found which varied between the PRWs. Patients interested in the satisfaction of other patients with a physician might select a physician on the basis of online ratings. Even though our results indicate associations with some diabetes and asthma measures, but not with coronary heart disease measures, there is still insufficient evidence to draw strong conclusions. The limited number of practices in our study may have weakened our findings.
BACKGROUND: Over the past decade, physician-rating websites have been gaining attention in scientific literature and in the media. However, little knowledge is available about the awareness and the impact of using such sites on health care professionals. It also remains unclear what key predictors are associated with the knowledge and the use of physician-rating websites. OBJECTIVE: To estimate the current level of awareness and use of physician-rating websites in Germany and to determine their impact on physician choice making and the key predictors which are associated with the knowledge and the use of physician-rating websites. METHODS: This study was designed as a cross-sectional survey. An online panel was consulted in January 2013. A questionnaire was developed containing 28 questions; a pretest was carried out to assess the comprehension of the questionnaire. Several sociodemographic (eg, age, gender, health insurance status, Internet use) and 2 health-related independent variables (ie, health status and health care utilization) were included. Data were analyzed using descriptive statistics, chi-square tests, and t tests. Binary multivariate logistic regression models were performed for elaborating the characteristics of physician-rating website users. Results from the logistic regression are presented for both the observed and weighted sample. RESULTS: In total, 1505 respondents (mean age 43.73 years, SD 14.39; 857/1505, 57.25% female) completed our survey. Of all respondents, 32.09% (483/1505) heard of physician-rating websites and 25.32% (381/1505) already had used a website when searching for a physician. Furthermore, 11.03% (166/1505) had already posted a rating on a physician-rating website. Approximately 65.35% (249/381) consulted a particular physician based on the ratings shown on the websites; in contrast, 52.23% (199/381) had not consulted a particular physician because of the publicly reported ratings. Significantly higher likelihoods for being aware of the websites could be demonstrated for female participants (P<.001), those who were widowed (P=.01), covered by statutory health insurance (P=.02), and with higher health care utilization (P<.001). Health care utilization was significantly associated with all dependent variables in our multivariate logistic regression models (P<.001). Furthermore, significantly higher scores could be shown for health insurance status in the unweighted and Internet use in the weighted models. CONCLUSIONS: Neither health policy makers nor physicians should underestimate the influence of physician-rating websites. They already play an important role in providing information to help patients decide on an appropriate physician. Assuming there will be a rising level of public awareness, the influence of their use will increase well into the future. Future studies should assess the impact of physician-rating websites under experimental conditions and investigate whether physician-rating websites have the potential to reflect the quality of care offered by health care providers.
Objective: To evaluate the impact of different dissemination channels on the awareness and usage of hospital performance reports among referring physicians, as well as the usefulness of such reports from the referring physicians’ perspective.
Data sources/Study setting: Primary data collected from a survey with 277 referring physicians (response rate = 26.2%) in Nuremberg, Germany (03–06/2016).
Study design: Cluster-randomised controlled trial at the practice level. Physician practices were randomly assigned to one of two conditions: (1) physicians in the control arm could become aware of the performance reports via mass media channels (Mass Media, npr MM=132, nph MM=147); (2) physicians in the intervention arm also received a printed version of the report via mail (Mass and Special Media, npr MSM=117; nph MSM=130). <br> Principal findings: Overall, 68% of respondents recalled hospital performance reports and 21% used them for referral decisions. Physicians from the Mass and Special Media group were more likely to be aware of the performance reports (OR 4.16; 95% CI 2.16–8.00, p < .001) but not more likely to be influenced when referring patients into hospitals (OR 1.73; 95% CI 0.72–4.12, p > .05). On a 1 (very good) to 6 (insufficient) scale, the usefulness of the performance reports was rated 3.67 (±1.40). Aggregated presentation formats were rated more helpful than detailed hospital quality information.
Conclusions: Hospital quality reports have limited impact on referral practices. To increase the latter, concerns raised by referring physicians must be given more weight. Those principally refer to the underlying data, the design of the reports, and the lack of important information.
Background: Physician-rating websites have become a popular tool to create more transparency about the quality of health care providers. So far, it remains unknown whether online-based rating websites have the potential to contribute to a better standard of care. Objective: Our goal was to examine which health care providers use online rating websites and for what purposes, and whether health care providers use online patient ratings to improve patient care. Methods: We conducted an online-based cross-sectional study by surveying 2360 physicians and other health care providers (September 2015). In addition to descriptive statistics, we performed multilevel logistic regression models to ascertain the effects of providers' demographics as well as report card-related variables on the likelihood that providers implement measures to improve patient care. Results: Overall, more than half of the responding providers surveyed (54.66%, 1290/2360) used online ratings to derive measures to improve patient care (implemented measures: mean 3.06, SD 2.29). Ophthalmologists (68%, 40/59) and gynecologists (65.4%, 123/188) were most likely to implement any measures. The most widely implemented quality measures were related to communication with patients (28.77%, 679/2360), the appointment scheduling process (23.60%, 557/2360), and office workflow (21.23%, 501/2360). Scaled-survey results had a greater impact on deriving measures than narrative comments. Multilevel logistic regression models revealed medical specialty, the frequency of report card use, and the appraisal of the trustworthiness of scaled-survey ratings to be significantly associated predictors for implementing measures to improve patient care because of online ratings. Conclusions: Our results suggest that online ratings displayed on physician-rating websites have an impact on patient care. Despite the limitations of our study and unintended consequences of physician-rating websites, they still may have the potential to improve patient care.
Purpose: The calculation of aggregated composite measures is a widely used strategy to reduce the amount of data on hospital report cards. Therefore, this study aims to elicit and compare preferences of both patients as well as referring physicians regarding publicly available hospital quality information.
Methods: Based on systematic literature reviews as well as qualitative analysis, two discrete choice experiments (DCEs) were applied to elicit patients’ and referring physicians’ preferences. The DCEs were conducted using a fractional factorial design. Statistical data analysis was performed using multinomial logit models.
Results: Apart from five identical attributes, one specific attribute was identified for each study group, respectively. Overall, 322 patients (mean age 68.99) and 187 referring physicians (mean age 53.60) were included. Our models displayed significant coefficients for all attributes (p < 0.001 each). Among patients, “Postoperative complication rate” (20.6%; level range of 1.164) was rated highest, followed by “Mobility at hospital discharge” (19.9%; level range of 1.127), and ‘‘The number of cases treated” (18.5%; level range of 1.045). In contrast, referring physicians valued most the ‘‘One-year revision surgery rate’’ (30.4%; level range of 1.989), followed by “The number of cases treated” (21.0%; level range of 1.372), and “Postoperative complication rate” (17.2%; level range of 1.123).
Conclusion: We determined considerable differences between both study groups when calculating the relative value of publicly available hospital quality information. This may have an impact when calculating aggregated composite measures based on consumer-based weighting.
Background: Physician-rating websites are currently gaining in popularity because they increase transparency in the health care system. However, research on the characteristics and content of these portals remains limited.
Objective: To identify and synthesize published evidence in peer-reviewed journals regarding frequently discussed issues about physician-rating websites.
Methods: Peer-reviewed English and German language literature was searched in seven databases (Medline (via PubMed), the Cochrane Library, Business Source Complete, ABI/Inform Complete, PsycInfo, Scopus, and ISI web of knowledge) without any time constraints. Additionally, reference lists of included studies were screened to assure completeness. The following eight previously defined questions were addressed: 1) What percentage of physicians has been rated? 2) What is the average number of ratings on physician-rating websites? 3) Are there any differences among rated physicians related to socioeconomic status? 4) Are ratings more likely to be positive or negative? 5) What significance do patient narratives have? 6) How should physicians deal with physician-rating websites? 7) What major shortcomings do physician-rating websites have? 8) What recommendations can be made for further improvement of physician-rating websites?
Results: Twenty-four articles published in peer-reviewed journals met our inclusion criteria. Most studies were published by US (n=13) and German (n=8) researchers; however, the focus differed considerably. The current usage of physician-rating websites is still low but is increasing. International data show that 1 out of 6 physicians has been rated, and approximately 90% of all ratings on physician-rating websites were positive. Although often a concern, we could not find any evidence of "doctor-bashing". Physicians should not ignore these websites, but rather, monitor the information available and use it for internal and ex-ternal purpose. Several shortcomings limit the significance of the results published on physician-rating websites; some recommendations to address these limitations are presented.
Conclusions: Although the number of publications is still low, physician-rating websites are gaining more attention in research. But the current condition of physician-rating websites is lacking. This is the case both in the United States and in Germany. Further research is necessary to increase the quality of the websites, especially from the patients’ perspective.
Background: Physician-rating websites (PRWs) may lead to quality improvements in case they enable and establish a peer-to-peer communication between patients and physicians. Yet, we know little about whether and how physicians respond on the Web to patient ratings.
Objective: The objective of this study was to describe trends in physicians’ Web-based responses to patient ratings over time, to identify what physician characteristics influence Web-based responses, and to examine the topics physicians are likely to respond to.
Methods: We analyzed physician responses to more than 1 million patient ratings displayed on the German PRW, jameda, from 2010 to 2015. Quantitative analysis contained chi-square analyses and the Mann-Whitney U test. Quantitative content techniques were applied to determine the topics physicians respond to based on a randomly selected sample of 600 Web-based ratings and corresponding physician responses.
Results: Overall, physicians responded to 1.58% (16,640/1,052,347) of all Web-based ratings, with an increasing trend over time from 0.70% (157/22,355) in 2010 to 1.88% (6377/339,919) in 2015. Web-based ratings that were responded to had significantly worse rating results than ratings that were not responded to (2.15 vs 1.74, P<.001). Physicians who respond on the Web to patient ratings differ significantly from nonresponders regarding several characteristics such as gender and patient recommendation results (P<.001 each). Regarding scaled-survey rating elements, physicians were most likely to respond to the waiting time within the practice (19.4%, 99/509) and the time spent with the patient (18.3%, 110/600). Almost one-third of topics in narrative comments were answered by the physicians (30.66%, 382/1246).
Conclusions: So far, only a minority of physicians have taken the chance to respond on the Web to patient ratings. This is likely because of (1) the low awareness of PRWs among physicians, (2) the fact that only a few PRWs enable physicians to respond on the Web to patient ratings, and (3) the lack of an active moderator to establish peer-to-peer communication. PRW providers should foster more frequent communication between the patient and the physician and encourage physicians to respond on the Web to patient ratings. Further research is needed to learn more about the motivation of physicians to respond or not respond to Web-based patient ratings.
Purpose
This study aims to determine the intention to use hospital report cards (HRCs) for hospital referral purposes in the presence or absence of patient-reported outcomes (PROs) as well as to explore the relevance of publicly available hospital performance information from the perspective of referring physicians.
Methods
We identified the most relevant information for hospital referral purposes based on a literature review and qualitative research. Primary survey data were collected (May–June 2021) on a sample of 591 referring orthopedists in Germany and analyzed using structural equation modeling. Participating orthopedists were recruited using a sequential mixed-mode strategy and randomly allocated to work with HRCs in the presence (intervention) or absence (control) of PROs.
Results
Overall, 420 orthopedists (mean age 53.48, SD 8.04) were included in the analysis. The presence of PROs on HRCs was not associated with an increased intention to use HRCs (p = 0.316). Performance expectancy was shown to be the most important determinant for using HRCs (path coefficient: 0.387, p < .001). However, referring physicians have doubts as to whether HRCs can help them. We identified “complication rate” and “the number of cases treated” as most important for the hospital referral decision making; PROs were rated slightly less important.
Conclusions
This study underpins the purpose of HRCs, namely to support referring physicians in searching for a hospital. Nevertheless, only a minority would support the use of HRCs for the next hospital search in its current form. We showed that presenting relevant information on HRCs did not increase their use intention.
This paper aims to provide a structured overview of four open, participatory formats that are particularly applicable in inquiry-based teaching and learning contexts: hackathons, book sprints, barcamps, and learning circles. Using examples, mostly from the work and experience context of the Open Science Lab at TIB Hannover, we address concrete processes, working methods, possible outcomes and challenges.
The compilation offers an introduction to the topic and is intended to provide tools for testing in practice.
The Logical Observation Identifiers, Names and Codes (LOINC) is a common terminology used for standardizing laboratory terms. Within the consortium of the HiGHmed project, LOINC is one of the central terminologies used for health data sharing across all university sites. Therefore, linking the LOINC codes to the site-specific tests and measures is one crucial step to reach this goal. In this work we report our ongoing efforts in implementing LOINC to our laboratory information system and research infrastructure, as well as our challenges and the lessons learned. 407 local terms could be mapped to 376 LOINC codes of which 209 are already available to routine laboratory data. In our experience, mapping of local terms to LOINC is a widely manual and time consuming process for reasons of language and expert knowledge of local laboratory procedures.
Plugins erweitern die Funktionalität von WordPress und helfen Webseitenbetreibern beim Hinzufügen neuer Elemente oder Funktionen. Dabei muss der Betreiber selbst keinen komplexen Programmcode schreiben. Auch können diese Erweiterungen als Erleichterung bei der Pflege von Informationen und Inhalten dienen. In der vorliegenden Bachelorarbeit wird die Konzipierung, Umsetzung und Anwendung eines solchen Plugins für den Vergleich von Veranstaltungen beschrieben. Dabei findet es Anwendung auf einer Internetseite zum Thema Festivals. Die Informationen bezüglich der Festivals werden per Import in einer Tabelle gespeichert und für den Vergleich dargestellt. Eintragungen können auch händisch getätigt werden, woraus sich schließlich ergibt, dass das Plugin mit seiner Importfunktion eine zeitsparende und sinnvolle Erweiterung ist.
Im Social Web wird der Gatekeeper zum Gatewatcher. Unternehmen können medial eigene Inhalte an die relevanten Bezugsgruppen vermitteln, ohne auf einen Gatekeeper angewiesen zu sein. Die Relevanz der Inhalte wird allerdings durch das Publikum bestimmt. Die Nachrichtenwerttheorie, die ursprünglich auf die Selektion von Journalisten von Nachrichten geprägt war, muss uminterpretiert werden, um aktuell zu bleiben. Welche Nachrichtenfaktoren bestimmen also die Interaktion des Publikums und sorgen für wahre Relevanz in den Sozialen Medien?
Type 2 Diabetes Mellitus: Risk Evaluation and Advice in Undergraduate Students in Ashrafieh, Lebanon
(2016)
Type 2 diabetes mellitus (T2DM) is a chronic lifestyle disease. It has become evident that T2DM occurs even among the younger age groups.1 In Lebanon, T2DM has a major public health impact through high disease prevalence, significant downstream pathophysiologic effects, and enormous financial liabilities.2
Monitoring of clinical trials is a fundamental process required by regulatory agencies. It assures the compliance of a center to the required regulations and the trial protocol. Traditionally, monitoring teams relied on extensive on-site visits and source data verification. However, this is costly, and the outcome is limited. Thus, central statistical monitoring (CSM) is an additional approach recently embraced by the International Council for Harmonisation (ICH) to detect problematic or erroneous data by using visualizations and statistical control measures. Existing implementations have been primarily focused on detecting inlier and outlier data. Other approaches include principal component analysis and distribution of the data. Here we focus on the utilization of comparisons of centers to the Grand mean for different model types and assumptions for common data types, such as binomial, ordinal, and continuous response variables. We implement the usage of multiple comparisons of single centers to the Grand mean of all centers. This approach is also available for various non-normal data types that are abundant in clinical trials. Further, using confidence intervals, an assessment of equivalence to the Grand mean can be applied. In a Monte Carlo simulation study, the applied statistical approaches have been investigated for their ability to control type I error and the assessment of their respective power for balanced and unbalanced designs which are common in registry data and clinical trials. Data from the German Multiple Sclerosis Registry (GMSR) including proportions of missing data, adverse events and disease severity scores were used to verify the results on Real-World-Data (RWD).
Improving Risk Assessment in Clinical Trials: Toward a Systematic Risk-Based Monitoring Approach
(2021)
Regulatory authorities have encouraged the usage of a risk-based monitoring (RBM) system in clinical trials before trial initiation for detection of potential risks and inclusion of a mitigation plan in the monitoring strategy. Several RBM tools were developed after the International Council for Harmonization gave sponsors the flexibility to initiate an approach to enhance quality management in a clinical trial. However, various studies have demonstrated the need for improvement of the available RBM tools as each does not provide a comprehensive overview of the characteristics, focus, and application. This research lays out a rationale for a risk methodology assessment (RMA) within the RBM system. The core purpose of RMA is to deliver a scientifically based evaluation and decision of any potential risk in a clinical trial. Thereby, a monitoring plan can be developed to elude prior identified risk outcome. To demonstrate RMA’s theoretical approach in practice, a Shiny web application (R Foundation for Statistical Computing) was designed to describe the assessment process of risk analysis and visualization tools that eventually aid in focusing monitoring activities. RMA focuses on the identification of an individual risk and visualizes its weight on the trial. The scoring algorithm of the presented approach computes the assessment of the individual risk in a radar plot and computes the overall score of the trial. Moreover, RMA’s novelty lies in its ability to decrease biased decision making during risk assessment by categorizing risk influence and detectability; a characteristic pivotal to serve RBM in assessing risks, and in contributing to a better understanding in the monitoring technique necessary for developing a functional monitoring plan. Future research should focus on validating the power of RMAs to demonstrate its efficiency. This would facilitate the process of characterizing the strengths and weaknesses of RMA in practice.
Öffentliche Bibliotheken sind in der Digitalen Bildung von großer Bedeutung. Sie vermitteln digitale Kompetenzen, nutzen zunehmend neue Technologien und verleihen digitale Medien. Die Arbeit befasst sich mit der Förderung und Finanzierung digitaler Angebote in Bibliotheken. Zu Beginn wird ein Überblick über die Bibliotheksgesetzgebung in Deutschland gegeben. In diesem Zusammenhang wird die Forderung der Bibliotheken nach einer Normierung zur Pflichtaufgabe für Kommunen erörtert und ein Vergleich mit den europäischen Ländern Dänemark und Finnland gezogen. Eine Untersuchung der Drittmittelförderung auf Landesebene, Bundesebene und der Europäischen Kommission zeigt die Verortung der Bibliotheken in Förderprogrammen auf. Im Anschluss werden anhand von Best-Practice-Beispielen alternative Finanzierungsmöglichkeiten dargestellt. Meinungen von Vertretern aus Bibliotheken weisen auf die Vorteile und Nachteile von Drittmittelförderung, Fundraising, Rechtsformwechsel, Integration in die Stadtentwicklung oder die Entwicklung von Bibliothekskonzeptionen, Bibliotheksentwicklungsplänen sowie die Regelung durch Kulturfördergesetze hin. Ausgehend von den Ergebnissen der untersuchten Finanzierungmöglichkeiten wird abschließend die Notwendigkeit von Bibliotheksgesetzen diskutiert. Hieraus ergibt sich, dass Bibliotheksgesetze für eine einheitliche und zukunftsfähige Entwicklung der Bibliotheken in der Digitalen Bildung notwendig sind. Zugleich wird deutlich, dass die derzeit bestehenden Gesetze diese Anforderungen nicht leisten.
Nicht-standardisierte Erweiterungen von SKOS-Thesauri und ihre Auswirkungen auf die Kompatibilität
(2016)
Vorliegende Arbeit beschäftigt sich mit den Auswirkungen von selbst-definierten Extensions auf Kompatibilität von SKOS-Thesauri untereinander. Zu diesem Zweck werden als Grundlage zunächst die Funktionsweisen von RDF, SKOS, SKOS-XL und Dublin Core Metadaten erläutert und die verwendete Syntax geklärt. Es folgt eine Beschreibung des Aufbaus von konventionellen Thesauri inkl. der für sie geltenden Normen. Danach wird der Vorgang der Konvertierung eines konventionellen Thesaurus in SKOS dargestellt. Um dann die selbst-definierten Erweiterungen und ihre Folgen betrachten zu können, werden fünf SKOS-Thesauri beispielhaft beschrieben. Dazu gehören allgemeine Informationen, ihre Struktur, die verwendeten Erweiterungen und ein Schaubild, das die Struktur als Übersicht darstellt. Anhand dieser Thesauri wird dann beschrieben wie Mappings zwischen den Thesauri erstellt werden
und welche Herausforderungen dabei bestehen.
Hintergrund: Im Zeitalter der Digitalisierung kann der Einsatz von mobilen Apps helfen, Prozesse zu digitalisieren und bietet neue Möglichkeiten der Prozessgestaltung. Auch im Rahmen der Gesundheitsversorgung werden Apps mit dem Ziel eingesetzt Prozesse effizienter zu gestalten. Die Versorgung akuter Schlaganfälle ist ein besonders zeitkritischer Prozess, indem sich jede Minute, um die der Behandlungsprozess verkürzt wird, positiv auf das Behandlungsergebnis auswirken kann. Durch die Aktivitäten innerhalb des Versorgungsprozesses, die durch unterschiedliche Berufsgruppen verschiedener Fachabteilungen erfolgen, kann insbesondere die Kommunikation und Dokumentation während der Versorgung Herausforderungen mit sich bringen. Daher ist es wichtig den Gesamtprozess der Schlaganfallversorgung regelmäßig zu evaluieren um Optimierungspotenziale im Versorgungsprozess aufzudecken und zu nutzen.
Methoden: In dieser Masterarbeit wurde der Schlaganfallversorgungsprozess in der Medizinischen Hochschule Hannover (MHH) analysiert und ein Migrationsplan für die Implementierung der App Join der Firma Allm Inc. entwickelt, um dadurch eine Prozesstransformation zu erreichen, welche es ermöglichen soll Zeit in der Schlaganfallakutversorgung einzusparen. Übergeordnet soll die Prozesstransformation zu einem Zeitgewinn führen und dadurch die Versorgungsqualität gesteigert werden. Die App Join ermöglicht unter anderem die Kommunikation über einen Messenger-Dienst in Gruppenchats, wodurch ein Informationsaustausch mit allen am Behandlungsprozess Beteiligten gleichzeitig möglich ist. Zusätzlich können in Join qualitätsrelevante Merkmale der Schlaganfallversorgung elektronisch erfasst werden.
Ergebnisse: Mit der Einführung von Join konnte eine Prozesstransformation der Schlaganfallakutversorgung in der MHH geschaffen werden. Mit dem Instrument der Kommunikation in Gruppen-Chats in Join wurde eine Kommunikationsplattform geschaffen, die es ermöglicht, dass alle am Behandlungsprozess Beteiligten zu jedem Zeitpunkt gleichermaßen informiert werden können. Zusätzlich konnte die papierbasierte neurologisch-neuroradiologische Dokumentation in der MHH mit dem Join-Einsatz vollständig digitalisiert werden, sodass eine unmittelbare elektronische Verfügbarkeit der Daten für alle am Behandlungsprozess Beteiligten gegeben ist. Über die Entwicklung von Schnittstellen zwischen dem Krankenhausinformationssystem (KIS) der MHH und Join konnte Funktions- und Datenintegration zwischen den Systemen erreicht werden und dadurch der Join-Einsatz MHH-individuell optimiert werden.
Schlussfolgerung: Die Einführung der Join-App stellt eine mobile Kommunikations- und Dokumentationsunterstützung während der Krankenversorgung dar, welche im Pilotprojekt „Die Innere Uhr“ exemplarisch für den Einsatz weiterer unterstützender Apps im Klinikalltag angesehen werden kann.
Acute stroke care is a time-critical process. Improving communication
and documentation process may support a positive effect on medical outcome. To achieve this goal, a new system using a mobile application has been integrated into existing infrastructure at Hannover Medical School (MHH). Within a pilot project, this system has been brought into clinical daily routine in February 2022. Insights generated may support further applications in clinical use-cases.
„Grappa“ ist eine Middleware, die auf die Anbindung verschiedener Autobewerter an verschiedene E-Learning-Frontends respektive Lernmanagementsysteme (LMS) spezialisiert ist. Ein Prototyp befindet sich seit mehreren Semestern an der Hochschule Hannover mit dem LMS „moodle“ und dem Backend „aSQLg“ im Einsatz und wird regelmäßig evaluiert. Dieser Beitrag stellt den aktuellen Entwicklungsstand von Grappa nach diversen Neu- und Weiterentwicklungen vor. Nach einem Bericht über zuletzt gesammelte Erfahrungen mit der genannten Kombination von Systemen stellen wir wesentliche Neuerungen der moodle-Plugins, welche der Steuerung von Grappa aus moodle heraus dienen, vor. Anschließend stellen wir eine Erweiterung der bisherigen Architektur in Form eines neuentwickelten Grappa-php-Clients zur effizienteren Anbindung von LMS vor. Weiterhin berichten wir über die Anbindung eines weiteren Autobewerters „Graja“ für Programmieraufgaben in Java. Der Bericht zeigt, dass bereits wichtige Schritte für eine einheitliche Darstellung automatisierter Programmbewertung in LMS mit unterschiedlichen Autobewertern für die Studierenden absolviert sind. Die praktischen Erfahrungen zeigen aber auch, dass sowohl bei jeder der Systemkomponenten individuell, wie auch in deren Zusammenspiel via Grappa noch weitere Entwicklungsarbeiten erforderlich sind, um die Akzeptanz und Nutzung bei Studierenden sowie Lehrenden weiter zu steigern.
Ausführlicher Bericht/Beitrag zum Forschungsprojekt Grundsätze der Konzeptionsentwicklung und -lehre im modernen Kommunikationsmanagement an der Hochschule Hannover 2021/22.
Ziel des Beitrages ist die Verortung und Systematisierung von planerischen Prozessen innerhalb der externen Unternehmenskommunikation - also der Public Relations sowie die Diskussion des Verhältnisses von klassischen linearen vs. rekursiven „agilen“ Konzeptionierungstechniken im Kommunikationsmanagement.
Die zeitgenössische Überformung des fachwissenschaftlichen Diskurses im Feld der Public Relations von ursprünglich sozial- und kommunikationswissenschaftlicher Grundlegung hin zu einem betriebswirtschaftlichem Paradigma führt nicht nur zu einer heterogenen und inkonsistenten Verwendung zentraler Begrifflichkeiten wie „Strategie“, „Taktik“, „Konzept“ und „Ziele“ sondern verändert auch die Art, wie im Fachdiskurs Konzeptionstechniken und -lehre uneinheitlich in den Prozessen des Kommunikationsmanagement verankert und diskutiert werden.
In der Analyse historischer und aktueller Fachliteratur zum Thema zeigt sich, dass mehr oder weniger deutlich differenziert und zumeist implizit auf verschiedenen Ebenen des Kommunikationsmanagements planerische Prozesse (Strategien, Konzepte etc.) notwendig sind und eingefordert werden. Als vier grundsätzliche und differenzierbare Ebenen der Konzeptionspraxis wurden identifiziert: 1. Die kommunikative Gesamtstrategie, 2. PR-Rahmenkonzept, 3. PR-Programmplanung, 4. PR-Maßnahmenplanung. Diese Ebenen korrespondieren mit verschiedenen grundlegenden sozialwissenschaftlichen Modellen (Top-Ebene, Makro-, Meso- und Mikroebene nach Esser) und fachwissenschaftlichen Modellen (DPRG-Bezugsrahmen, Tätigkeitsbereiche der Unternehmenskommunikation u.a.).
Übergreifend wird herausgearbeitet, dass auf allen Ebenen die jeweilige Konzeptionspraxis auf die Vier-Phasen „Analyse“, „Zielstellung und Strategie“, „Aktion“ (Umsetzung, Implementierung), „Evaluation“ aufbaut und jeweilig eine eigene Verschriftlichung erfordert.
„Agile“ Planungsmethoden, die hier als „rekursiv“ mit sozialwissenschaftlichem Terminus exakter beschrieben werden können, sind insbesondere auf den unteren Ebenen der PR-Programmplanung wie auch operativen Maßnahmenebene als neue, sinnvolle Vorgehensweisen in der Konzeption und zukunftsfähige Ansätze.
Background: In many research areas it is necessary to find differences between treatment groups with several variables. For example, studies of microarray data seek to find a significant difference in location parameters from zero or one for ratios thereof for each variable. However, in some studies a significant deviation of the difference in locations from zero (or 1 in terms of the ratio) is biologically meaningless. A relevant difference or ratio is sought in such cases.
Results: This article addresses the use of relevance-shifted tests on ratios for a multivariate parallel two-sample group design. Two empirical procedures are proposed which embed the relevanceshifted test on ratios. As both procedures test a hypothesis for each variable, the resulting multiple testing problem has to be considered. Hence, the procedures include a multiplicity correction. Both procedures are extensions of available procedures for point null hypotheses achieving exact control of the familywise error rate. Whereas the shift of the null hypothesis alone would give straight-forward solutions, the problems that are the reason for the empirical considerations discussed here arise by the fact that the shift is considered in both directions and the whole parameter space in between these two limits has to be accepted as null hypothesis.
Conclusion: The first algorithm to be discussed uses a permutation algorithm, and is appropriate for designs with a moderately large number of observations. However, many experiments have limited sample sizes. Then the second procedure might be more appropriate, where multiplicity is corrected according to a concept of data-driven order of hypotheses.
A semiparametric approach for meta-analysis of diagnostic accuracy studies with multiple cut-offs
(2022)
The accuracy of a diagnostic test is often expressed using a pair of measures: sensitivity (proportion of test positives among all individuals with target condition) and specificity (proportion of test negatives among all individuals without targetcondition). If the outcome of a diagnostic test is binary, results from different studies can easily be summarized in a meta-analysis. However, if the diagnostic test is based on a discrete or continuous measure (e.g., a biomarker), several cut-offs within one study as well as among different studies are published. Instead of taking all information of the cut-offs into account in the meta-analysis, a single cut-off per study is often selected arbitrarily for the analysis, even though there are statistical methods for the incorporation of several cut-offs. For these methods, distributional assumptions have to be met and/or the models may not converge when specific data structures occur. We propose a semiparametric approach to overcome both problems. Our simulation study shows that the diagnostic accuracy is underestimated, although this underestimation in sensitivity and specificity is relatively small. The comparative approach of Steinhauser et al. is better in terms of coverage probability, but may lead to convergence problems. In addition to the simulation results, we illustrate the application of the semiparametric approach using a published meta-analysis for a diagnostic test differentiating between bacterial and viral meningitis in children.
Rezension zu:
Rösch, Hermann et al.: Bibliotheken und Informationsgesellschaft in Deutschland : eine Einführung / Hermann Rösch, Jürgen Seefeldt, Konrad Umlauf ; unter Mitarbeit von Albert Bilo und Eric W. Steinhauer ; mitbegründet von Engelbert Plassmann. – 3., neukonzipierte und aktualisierte Auflage. – Wiesbaden: Harrassowitz Verlag, 2019. – XIII, 329 Seiten. – ISBN 9783447066204 : EUR 39.80 (auch als EBook verfügbar)
Rezension zu der Doppelausstellung "Zeitenwende 1400" des Dommuseums Hildesheim und des Landesmuseums Hannover. Während die Ausstellung im Hildesheimer Dommuseum ausgehend von der Stadt und dem Hochstift Hildesheim sowie der weiteren Region eine kulturhistorische Gesamtschau der Zeit um 1400 präsentiert, stellt die Ausstellung im Landesmuseum Hannover die Goldene Tafel aus der Benediktinerabteikirche St. Michaelis in Lüneburg, ein Flügelaltarretabel aus den ersten Jahrzehnten des 15. Jahrhunderts, als herausragendes Kunstwerk des Spätmittelalters in den Mittelpunkt.
Einbände und Sammler - Joseph von Laßberg und das Lindauer Evangeliar (Pierpont Morgan Library Ms 1)
(2002)
Der Aufsatz schildert einen Teil der Besitzgeschichte des berühmten karolingischen Lindauer Evangeliars, das sich heute als wertvollstes Stück in der Pierpont Morgan Library in New York befindet. Von 1816 bis 1846 befand sich der Codex in Besitz des schwäbischen Handschriftensammlers Joseph von Laßberg, dem Schwager der Annette von Droste-Hülshoff.
Bibliotheken
(2018)
Gerade für Historiker*innen, die für ihre Arbeit vielfach nicht nur Fachliteratur, sondern auch Quelleneditionen und handschriftliche Materialien benötigen, sind Bibliotheken die zentralen Informationseinrichtungen. Der Beitrag stellt in kompakter Form die wichtigsten digitalen Informationsressourcen und Infrastruktureinrichtungen für die Geschichtswissenschaft vor.
Der Bachelorstudiengang „Bibliotheks- und Informationsmanagement“ der Hochschule für den öffentlichen Dienst in Bayern (HföD) zeichnet sich durch seinen starken Praxisbezug aus. Mit der spezifischen Ausrichtung auf die wissenschaftlichen Bibliotheken, dem mehrstufigen Auswahlverfahren der Studierenden, der Gestaltung der beiden Praxismodule, der Konzeption des theoretischen Unterrichts und den begleitenden Veranstaltungen sowie den Strukturen, in die der Studiengang eingebunden ist, werden in dem vorliegenden Aufsatz die wichtigsten Elemente für diese starke Praxisbezogenheit vorgestellt.
Clio-Guide: Bibliotheken
(2023)
Das Kapitel definiert den Begriff Bibliothek, erläutert die wichtigsten Aufgaben und Dienstleistungen von Bibliotheken und stellt die wichtigsten Elemente des deutschen Bibliothekswesens vor. Darüber hinaus werden typologisch die wichtigsten Gattungen bibliothekarischer Informationsressourcen und -systeme darbestellt. Die behandelten Beispiele berücksichtigen insbesondere die Bedürfnisse von Forschung und Lehre in den historisch arbeitenden Fächern.
Die vollständig aktualisierte und erweiterte Neuauflage des etablierten Werks bietet Informationsspezialistinnen und -spezialisten aus allen Sparten einen umfassenden Überblick über die Entwicklungen und die Typologie wissenschaftlicher Informationsressourcen. Darauf aufbauend werden rund 430 Informationsressourcen, die für die allgemeine und fachspezifische Informationsrecherche von besonderer Bedeutung sind, in ihren Inhalten und Funktionalitäten sowie ihrer Bedeutung vorgestellt. Klassische bibliothekarische Ressourcentypen wie Bibliothekskataloge, Bibliographien, Nachschlagewerke und Portale für Fachinformationen werden dabei ebenso berücksichtigt wie Forschungsdatenverzeichnisse, Patent- und Normdatenbanken, Angebote zu Statistiken, Open-Access- und Open-Educational-Resources-Publikationen sowie Datenbanken zu Zeitungen, Bildern, Filmen und Audiomaterialien. Die Verbindung von einführender Typologie und konkreter Vorstellung zentraler Ressourcen sorgt dafür, dass das hier vermittelte Grundwissen unmittelbar in der beruflichen Praxis einsetzbar ist.
In diesem Beitrag werden Spezifika der Hochschulen und Ausbildungseinrichtungen, die in der KIBA organisiert sind, mit ihren Studiengängen, Weiterbildungsprogrammen, Forschungsschwerpunkten und didaktischen Konzepten vorgestellt. Es wird gezeigt, wie diese Einrichtungen mit ihrer Berufungs- und Einstellungspolitik, strategischen Allianzen und übergeordneten fachlichen und politischen Zusammenschlüssen sowie mit der Profilierung ihrer Studiengänge auf neue Anforderungen des Marktes und der Berufspraxis reagieren. Berücksichtigt werden dabei Positionen und Strategien zur Digitalisierung aus der Politik sowie ihren Beratungsgremien, in der sich die Inhalte bibliotheks- und informationswissenschaftlicher Ausbildung und Forschung verorten lassen. Insgesamt wird deutlich, wie schwierig es heute ist zu definieren, was die Bibliotheks- und die Informationswissenschaft im Kern ausmacht, um im Spannungsfeld der Herausforderungen an wissenschaftliche und öffentliche Bibliotheken, den Anforderungen der Wirtschaft im Bereich Informations- und Wissensmanagement, der Digitalisierung und Langzeitarchivierung von Kulturerbe, um nur einige Felder zu nennen, Ausbildungsprogramme bedarfsgerecht zu profilieren und die bibliotheks- und informationswissenschaftlichen Institute, Fachbereiche und Ausbildungseinrichtungen politisch abzusichern und ausreichend mit Ressourcen auszustatten.
Die aktualisierte 2. Auflage des Findbuchs zum Nachlass des Filmmachers Rudolf W. Kipp (1919 bis 1990) umfasst auch die in der ersten Auflage nicht enthaltene Nachlieferung von 2002 sowie einen biografischen Artikel zu Rudolf Kipp aus dem Lexikon CineGraph. Die Materialien sind systematisch gegliedert und über ein Filmtitelregister erschlossen.
Regional knowledge map is a tool recently demanded by some actors in an institutional level to help regional policy and innovation in a territory. Besides, knowledge maps facilitate the interaction between the actors of a territory and the collective learning. This paper reports the work in progress of a research project which objective is to define a methodology to efficiently design territorial knowledge maps, by extracting information of big volumes of data contained in diverse sources of information related to a region. Knowledge maps facilitate management of the intellectual capital in organisations. This paper investigates the value to apply this tool to a territorial region to manage the structures, infrastructures and the resources to enable regional innovation and regional development. Their design involves the identification of information sources that are required to find which knowledge is located in a territory, which actors are involved in innovation, and which is the context to develop this innovation (structures, infrastructures, resources and social capital). This paper summarizes the theoretical background and framework for the design of a methodology for the construction of knowledge maps, and gives an overview of the main challenges for the design of regional knowledge maps.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Hate Speech hat im Zeitalter des Web 2.0 eine neue Dimension und Dynamik angenommen. Der Wunsch nach Regulierung ist moralisch begründbar und erste Staaten haben bereits reagiert. Dabei sind die Verfechter der freien Rede tief gespalten. Wo endet das Recht auf freie Meinungsäußerung und wann sollte Hassrede strafbar sein? Die Vereinten Nationen liefern mit dem Rabat Plan of Action eine Hilfestellung für eine qualifizierte Entscheidung. In dieser Studienarbeit werden die Gefahren der Hate Speech und damit die Chancen ihrer Regulierung wie auch deren Risiken aus ethischer Sicht erörtert und die Bedeutung des Rabat Threshold Test vor diesem Hintergrund beleuchtet; ehe sie mit einer persönlichen Stellungnahme schließt.
Im Bereich der wissenschaftlichen Recherche gibt das Abstract einen ersten Überblick über den Inhalt und die Ergebnisse eines Forschungsartikels. Das Format des Abstracts wird seit einigen Jahren auch in audiovisueller Form umgesetzt. Der Autor eines Papers kann zusätzlich zu seinem Artikel ein sogenanntes Video Abstract einreichen. Für die Erstellung eines Video Abstracts geben die Verlage bestimmte Richtlinien vor, die der Autor bei der Produktion einhalten soll. Diese Arbeit hat sich zum Ziel gesetzt, einen Standardisierungsansatz für institutionelle Bedingungen, auch Video Abstract Author Guidelines genannt, zu erarbeiten. Zu diesem Zweck wurden mit zwei Untersuchungen sowohl die Produktionsweise von Video Abstracts als auch die vom Verlag aufgestellten Guidelines analysiert. Mit den Ergebnissen der Untersuchungen wurde eine Handlungsempfehlung für die Verlage entwickelt. Außerdem ging aus den Ergebnissen hervor, dass einige Richtlinien Defizite aufweisen, welche die Verlage beheben sollten.