Refine
Year of publication
Document Type
- Article (182)
- Bachelor Thesis (90)
- Conference Proceeding (50)
- Master's Thesis (33)
- Part of a Book (17)
- Study Thesis (15)
- Book (14)
- Report (8)
- Doctoral Thesis (6)
- Working Paper (5)
Has Fulltext
- yes (427)
Is part of the Bibliography
- no (427)
Keywords
- Bibliothek (31)
- Informationsmanagement (17)
- Wissenschaftliche Bibliothek (15)
- Ausbildung (14)
- Öffentliche Bibliothek (14)
- Student (13)
- Digitalisierung (12)
- Informationskompetenz (12)
- Benutzerfreundlichkeit (11)
- Information Retrieval (11)
Institute
- Fakultät III - Medien, Information und Design (427) (remove)
Influence on persistence and adherence with oral bisphosphonates on fracture rates in osteoporosis
(2009)
Background and Aim:
Oral bisphosphonates have been shown to reduce the risk of fractures in patients with osteoporosis. It can be assumed that the clinical effectiveness of oral bisphosphonates depends on persistence with therapy.
Methods:
The influence of persistence with and adherence to oral bisphosphonates on fracture risk in a real-life setting was investigated. Data from 4451 patients with a defi ned index prescription of bisphosphonates were included. Fracture rates within 180, 360, and 720 days after index prescription were compared between persistent and non-persistent patients. In an extended Cox regression model applying multiple event analysis, the influence of adherence was analyzed. Persistence was defined as the duration of continuous therapy; adherence was measured in terms of the medication possession ratio (MPR).
Results:
In patients with a fracture before index prescription, fracture rates were reduced by 29% (p = 0.025) comparing persistent and non-persistent patients within 180 days after the index prescription and by 45% (p < 0.001) within 360 days. The extended Cox regression model showed that good adherence (MPR ≥ 0.8) reduced fracture risk by about 39% (HR 0.61, 95% CI 0.47–0.78; p < 0.01).
Conclusions:
In patients with osteoporosis-related fractures, good persistence and adherence to oral bisphosphonates reduced fracture risk significantly.
Prozessanalyse der Dokumentation von MRP-Variations unter Berücksichtigung der Variation Regulation
(2011)
Fundierte Nachweise über Wirksamkeit, Sicherheit und Qualität eines Präparates sind die Voraussetzung für dessen Vermarktung. Diese Nachweise sind in einem Zulassungsdossier konsolidiert. Sämtliche Änderungen im Dossier müssen in Zulassungsverfahren beantragt werden, welche wiederum in einer regulatorischen Datenbank dokumentiert werden müssen. Seit Anfang 2010 reguliert die Variation Regulation derartige Änderungsanzeigen für europäisch harmonisierte Zulassungsverfahren. Im Rahmen einer Fallstudie wurden die regulatorischen und dokumentarischen Prozesse in der Regulatory Affairs Abteilung der Abbott Products GmbH analysiert. Im Fokus stand hierbei die Erfassung von Änderungsanzeigen innerhalb des Verfahrens der gegenseitigen Anerkennung in die Datenbank IRIS und in welcher Form sich die neue Verordnung auf diese Prozesse auswirken würde. Hierzu wurde in öffentlichen Publikationen und internen Dokumenten recherchiert. Interviews generierten empirische Daten zu Prozessabläufen, Konflikten und Optimierungspotentialen. Durch das ARIS-Konzept wurde ein umfangreiches Ist-Modell modelliert, das neben Geschäftsprozessen auch Informationswege, Kommunikationsflüsse und Beteiligte darstellt. In einer Risikoanalyse wurden allgemeine Kriterien für die Gefährdung einer benötigten Dokumentationsqualität in den gegenwärtigen Abläufen aufgestellt. In Verbindung mit den Resultaten der Interviews wurden detaillierte Schwachstellen benannt und im Ist-Modell kenntlich gemacht. Es zeigten sich vor allem Risiken in den Bereichen Standardisierung, Kommunikation, Fachwissen und Systemschwächen, welche hauptsächlich durch die Mitarbeiter erzeugt werden. Dies wurde durch eine quantitative Auswertung bestätigt. Optimierungsvorschläge wurden unterbreitet und teilweise bewertet. Die Verodnung (EG) Nr. 1234/2008 wurde ausführlich beschrieben, deren Neuerungen hervorgehoben und Auswirkungen auf die regulatorischen und dokumentarischen Aspekte erörtert. Eine ausführlichere Evaluierung des Einflusses der Variation Regulation ist jedoch empfehlenswert, da hier nur allgemeine Aspekte aufgegriffen wurden. Diese Arbeit stellt die Grundlagen, Methoden und Ergebnisse dieses Projektes vor und mündet in einer Reflektion und Bewertung. Das Ist-Modell wird weiterhin als Übersicht der Prozesse genutzt. Andere Ergebnisse dieser Arbeit werden für weiterführende Evaluationen und Projekte verwendet.
Die Diversität innerhalb von Gesellschaften wird zunehmen – dafür sorgen Herausforderungen infolge der Globalisierung. Durch den demografischen sowie digitalen Wandel sehen sich Unternehmen mit steigenden Anforderungen ihrer Zielgruppen konfrontiert. Für ihre Wettbewerbsfähigkeit benötigen Organisationen die unterschiedlichen Kenntnisse und Fähigkeiten ihrer Mitarbeitenden. Je klüger sie diese Perspektivenvielfalt einsetzen, desto besser können sie sich am Markt behaupten. Dazu gehört, die eigene Belegschaft zu Perspektivwechseln zu befähigen. Gerade die Interne Kommunikation sollte diversitätssensibel gestaltet sein, um Perspektivenvielfalt im Unternehmen zu fördern. Durch die Erkenntnisse aus der Theorie ergibt sich ein neuer kommunikativer Ansatz auf Augenhöhe, der bisher wenig berücksichtigt wurde: Die diversitätssensible Interne Kommunikation. Zum Abschluss der Arbeit wird der Begriff nicht nur definiert, sondern vor allem ein Modell entwickelt, das die Bausteine diversitätssensibler Interner Kommunikation beinhaltet. Gerade die vier Instrumente persönliche Kommunikation, Dialogorientierung, Polyphonie sowie inklusive Sprache machen die Besonderheit des Ansatzes aus. Es geht dabei darum, wie die Interne Kommunikation ihren diversitätssensiblen Job gestalten muss. Hier wird vor allem die Strategie verändert. Ein Aspekt ist die Medienwahl, wobei sich im Kontext von Perspektivenvielfalt insbesondere die persönliche Kommunikation eignet sowie ein Wandel hin zu dialogorientierten Kommunikationsformen zu beobachten ist. Dialog meint hier nicht die klassische Informationsübermittlung, sondern das Verstehen anderer Perspektiven sowie das Hinterfragen des eigenen Standpunktes. Gerade Heterogenität und kontroverse Meinungen sind zuträglich für die Wandlungsfähigkeit des Unternehmens. Das Konzept der Polyphonie geht von Vielstimmigkeit im Unternehmen aus. Die Interne Kommunikation sollte mehrstimmig unterschiedliche Perspektiven einbeziehen. Weiterhin bedeutsam ist die gewählte Sprache, welche bestenfalls inklusiv sein sollte. Dies bedeutet, Kommunikator:innen sollten sich um einen gendergerechten, diskriminierungsfreien und barrierefreien Sprachgebrauch bemühen. Abschließend kann festgestellt werden, dass Perspektivenvielfalt auch in der Kommunikation von Unternehmen eine immer größere Rolle spielen wird. Deshalb wird es sich zukünftig für Kommunikator:innen lohnen, eine Kompetenz in dem Bereich aufzubauen. Denn: Vielfalt kann für Organisationen messbare Vorzüge bereitstellen, die sich positiv auf die unternehmerische Entwicklung auswirken.
Aim
Musculoskeletal disorders are a major public health problem in most developed countries. As a main cause of chronic pain, they have resulted in an increasing prescription of opioids worldwide. With regard to the situation in Germany, this study aimed at estimating the prevalence of musculoskeletal diseases such as chronic low back pain (CLBP) and hip/knee osteoarthritis (OA) and at depicting the applied treatment patterns.
Subject and methods
German claims data from the InGef Research Database were analyzed over a 6-year period (2011–2016). The dataset contains over 4 million people, enrolled in German statutory health insurances. Inpatient and outpatient diagnoses were considered for case identification of hip/knee OA and CLBP. The World Health Organization (WHO) analgesic ladder was applied to categorize patients according to their pain management interventions. Information on demographics, comorbidities, and adjuvant medication was collected.
Results
In 2016, n = 2,693,481 individuals (50.5% female, 49.5% male) were assigned to the study population; 62.5% of them were aged 18–60 years. In 2016, n = 146,443 patients (5.4%) with CLBP and n = 307,256 patients (11.4%) with hip/knee OA were identified. Of those with pre-specified pain management interventions (CLBP: 66.3%; hip/knee OA: 65.1%), most patients received WHO I class drugs (CLBP: 73.6%; hip/knee OA: 68.7%) as the highest level.
Conclusion
This study provides indications that CLBP and hip/knee OA are common chronic pain conditions in Germany, which are often subjected to pharmacological pain management. Compared to non-opioid analgesic prescriptions of the WHO I class, the dispensation of WHO class II and III opioids was markedly lower, though present to a considerable extent.
Vergleich von webbasierten Programmierschnittstellen zum Zugriff auf kontrollierte Vokabulare
(2016)
Diese Arbeit beschäftigt sich mit der Analyse von Webschnittstellen für kontrollierte Vokabulare von Informationseinrichtungen. Hierfür werden zunächst einige relevante Arten solcher Vokabulare vorgestellt. Außerdem wird ein Überblick über die in diesem Zusammenhang verwendeten Technologien und Standards für den maschinellen Datenaustausch über das World Wide Web gegeben. Darauf aufbauend werden schließlich die Schnittstellen von vier in der Bibliothekswelt viel genutzten Vokabularen miteinander verglichen. Zu diesem Zweck wird jedes Begriffssystem kurz vorgestellt und die Funktionalitäten der entsprechenden API untersucht. Danach werden die Untersuchungsobjekte nach ausgewählten Kriterien einander gegenübergestellt. Im Abschluss werden die Ergebnisse des Vergleichs präsentiert.
Objective
To revise the German guidelines and recommendations for ensuring Good Epidemiological Practice (GEP) that were developed in 1999 by the German Society for Epidemiology (DGEpi), evaluated and revised in 2004, supplemented in 2008, and updated in 2014.
Methods
The executive board of the DGEpi tasked the third revision of the GEP. The revision was arrived as a result of a consensus-building process by a working group of the DGEpi in collaboration with other working groups of the DGEpi and with the German Association for Medical Informatics, Biometry and Epidemiology, the German Society of Social Medicine and Prevention (DGSMP), the German Region of the International Biometric Society (IBS-DR), the German Technology, Methods and Infrastructure for Networked Medical Research (TMF), and the German Network for Health Services Research (DNVF). The GEP also refers to related German Good Practice documents (e.g. Health Reporting, Cartographical Practice in the Healthcare System, Secondary Data Analysis).
Results
The working group modified the 11 guidelines (after revision: 1 ethics, 2 research question, 3 study protocol and manual of operations, 4 data protection, 5 sample banks, 6 quality assurance, 7 data storage and documentation, 8 analysis of epidemiological data, 9 contractual framework, 10 interpretation and scientific publication, 11 communication and public health) and modified and supplemented the related recommendations. All participating scientific professional associations adopted the revised GEP.
Conclusions
The revised GEP are addressed to everyone involved in the planning, preparation, execution, analysis, and evaluation of epidemiological research, as well as research institutes and funding bodies.
Usability-Studie des TIB-Portals: eine Evaluation der Website der Technischen Informationsbibliothek
(2017)
In den letzten Jahren gewinnt das Thema Usability von Websites auch für Bibliotheken zunehmend an Bedeutung. In dieser Bachelorarbeit wird die Benutzerfreundlichkeit des neugestalteten Internetauftritts der Technischen Informationsbibliothek (TIB) in Hannover für die Zielgruppe der Studierenden der Leibniz Universität Hannover (LUH) untersucht. Auslöser für die Neugestaltung stellt die Stiftungswerdung der TIB dar. Im theoretischen Teil der Arbeit werden Grundlagen und Anwendungsbereiche von Usability in verschiedenen Normen dargestellt. Mit den empirischen Methoden der heuristischen Evaluation, dem Experteninterview und dem Usability-Testing, das von der Thinking-Aloud-Methode begleitet wird, werden Stärken und Schwächen des TIB-Portals analysiert. Im Anschluss werden Empfehlungen zur Verbesserung der Anwenderfreundlichkeit des Webauftritts der TIB benannt. Die Studie zeigt, dass die Aufmachung der Website durchaus noch Verbesserungspotential für die Zielgruppe der Studierenden aufweist. Zugleich wird festgestellt, dass neben der Anwenderfreundlichkeit auch noch andere Aspekte die Gestaltung der Webpräsenz der TIB beeinflussen.
Der Befund zum demografischen Wandel ist eindeutig: Die Bevölkerung in Deutschland altert und schrumpft. Dieser Prozess wird sich zunehmend auf den Arbeitsmarkt auswirken. Altersstrukturen in Unternehmen verschieben sich. Mit den absehbaren Verrentungswellen droht ein Verlust an Erfahrungswissen und Know-how, wenn Unternehmen diesem nicht mit Maßnahmen zum Wissenstransfer entgegentreten. Parallel verändert sich das Verhältnis von Alter, Ruhestand und Arbeit. Menschen im Rentenalter leben heute länger und gesünder, sie sind leistungsfähig und ihre Motivation zur nachberuflichen Aktivität steigt. Insbesondere ehemalige Fach- und Führungskräfte beteiligen sich trotz eines durch den Rentenbezug gesicherten Lebensunterhalts zunehmend als sogenannte Senior-Experten am Arbeitsmarkt oder engagieren sich freiwillig.
Vor dem Hintergrund dieser Entwicklung geht diese Masterarbeit der Frage nach, welche Bedeutung der Wissenstransfer beim Einsatz von Senior-Experten hat und untersucht Faktoren, die ihn beeinflussen. Die Arbeit stützt sich methodisch auf eine umfassende Literaturanalyse, einen typenbildenden Vergleich von Senior-Experten-Organisationen sowie auf eine qualitative Erhebung in Form von Leitfadeninterviews. Der theoretische Teil befasst sich mit drei Themenkomplexen: Alter und Arbeit, Wissensmanagement sowie Expertiseforschung. Im Mittelpunkt der Arbeit stehen relevante individuelle Einflussfaktoren, Begriffe, Institutionen und Methoden. Der empirische Teil steuert Erfahrungswerte aus der organisationalen Praxis bei.
Die Auswertung ergibt, dass Senior-Experten aufgrund ihrer Leistungsfähigkeit und Leistungsbereitschaft prädestiniert dafür sind, ihre Ressourcen zu nutzen, um ihr in vielen Berufsjahren erworbenes Wissen an die nächste Generation weiterzugeben. Der Wissenstransfer stellt das vorrangige Ziel beim Einsatz von Senior-Experten dar und nimmt folglich einen hohen Stellenwert ein. Das Bewusstsein für Faktoren, die den Wissenstransfer beeinflussen, kann hingegen noch geschärft werden. Wissenstransfermethoden mit einer personalisierten Herangehensweise können den Austausch von komplexem, schwer artikulierbarem Erfahrungs- und Expertenwissen fördern.
Der demografische Wandel wird in den nächsten Jahren große Auswirkungen auf die Gesellschaft und auch Unternehmen haben. Die vorliegende Arbeit untersucht, wie Unternehmen davon betroffen sein werden und wie den negativen Auswirkungen mit Hilfe von Wissens- und Demografiemanagement begegnet werden kann. Zunächst wird die Prognose der Bevölkerungsentwicklung der Bundesrepublik Deutschland bis zum Jahr 2060 vorgestellt. Anschließend folgt eine Skizzierung der Herausforderungen, denen sich Unternehmen stellen müssen. Dieses sind die Alterung der Belegschaft, der voraussichtliche Fachkräftemangel und das massive Ausscheiden von Mitarbeitern in den nächsten zehn bis fünfzehn Jahren. Die Arbeit beschreibt, welche Bedeutung Kompetenzmanagement, lebenslanges Lernen und Wissensmanagement bei der Bewältigung dieser Herausforderungen haben. Eine Befragung einiger Unternehmen rundet die gewonnenen Erkenntnisse ab. Den Abschluss bilden Handlungsempfehlungen in Hinsicht auf die Unternehmenskultur, das Personal- und Wissensmanagements und die Arbeitsgestaltung.
Discovery and efficient reuse of technology pictures using Wikimedia infrastructures. A proposal
(2016)
Multimedia objects, especially images and figures, are essential for the visualization and interpretation of research findings. The distribution and reuse of these scientific objects is significantly improved under open access conditions, for instance in Wikipedia articles, in research literature, as well as in education and knowledge dissemination, where licensing of images often represents a serious barrier.
Whereas scientific publications are retrievable through library portals or other online search services due to standardized indices there is no targeted retrieval and access to the accompanying images and figures yet. Consequently there is a great demand to develop standardized indexing methods for these multimedia open access objects in order to improve the accessibility to this material.
With our proposal, we hope to serve a broad audience which looks up a scientific or technical term in a web search portal first. Until now, this audience has little chance to find an openly accessible and reusable image narrowly matching their search term on first try - frustratingly so, even if there is in fact such an image included in some open access article.
Die Aufnahme von Computerspielen in den Bibliotheksbestand stellt viele Einrichtungen vor neue Herausforderungen, da diese Medien vermehrt nicht in physischer Form vertrieben werden. Welche grundlegenden Überlegungen kommen auf Bibliotheken und ihre Mitarbeiter zu, wenn sie Konzepte zum Einsatz digitaler Spiele erarbeiten und mit diesen Medien erfolgreich arbeiten wollen? Anhand von Best-Practice-Beispielen werden innovative Ideen aufgezeigt, die abseits eines reinen Verleihkonzepts Bibliotheken in Spiel- und Lernorte verwandeln, in denen alle Medien gleichberechtigt als Informationsträger nebeneinander eingesetzt werden. Ausgehend von der Geschichte der Computerspiele über die Beleuchtung der Zusammenhänge zwischen der Nutzung digitaler Spiele und der Steigerung von (Lern-)Kompetenzen zeigt diese Arbeit abschließend ein Konzept, wie digitale und analoge Spielstrategien verknüpft und Nutzern ein einzigartiges Spielerlebnis im Bibliotheksraum geboten werden kann.
Content-Gestaltung und Einsatzmöglichkeiten von Augmented Reality in Öffentlichen Bibliotheken
(2019)
Augmented Reality (AR), die Erweiterung der Realität durch computergenerierte Zusatzobjekte, kommt bisher hauptsächlich in Wissenschaftlichen Bibliotheken (WB) zum Einsatz. Diese Arbeit beschäftigt sich deshalb mit den Einsatzmöglichkeiten von AR in Öffentlichen Bibliotheken (ÖB). Betrachtet wird dabei die Realisierung von AR über eigenständig gestalteten Content mittels Anbietern im Internet und dazugehörigen Browser-Apps. Dies stellt eine kostengünstige und barrierefreie Alternative zur Programmierung von Apps dar. Dafür wird zunächst ein theoretischer Überblick gegeben, indem AR definiert wird und die technischen Grundlagen, wie Trackingverfahren und Interfaces, erläutert werden. Darauf folgen, zur Un-termauerung der Diskrepanz zwischen WB und ÖB, Beispiele für umgesetzte Projekte aus beiden Sparten. Anschließend wird auf die allgemeinen Einsatzgebiete und Potenziale von AR sowie die Aufgaben von ÖBs eingegangen. Die daraus abgeleiteten Einsatzmöglichkeiten von AR für Öffentliche Bibliotheken, Navigation und Orientierung, Bestandserweiterung, Veranstaltungen, Öffentlichkeitsarbeit/Marketing/Werbung sowie Informationskompetenz, werden erläutert. Zur Content-Gestaltung werden zunächst Grundvoraussetzungen genannt und die Funktionsweise der AR-Anbieter im Internet erklärt. Im Anschluss werden die Anbieter Blippar, HP Reveal, Layar, ROAR, Wikitude und Zappar, auf Grundlage eines zuvor erstellten Kriterienkatalogs, hinsichtlich ihres Funktionsumfangs verglichen. Im Ergebnis zeigt sich, dass sich die Anbieter zwar alle ähneln, bezüglich spezieller Funktionen und Kosten aber unterscheiden. Am besten schneidet dabei Zappar ab. Ergänzend werden danach die verschiedenen Arten von Content näher betrachtet. Zur Veranschaulichung der leichten Realisierbarkeit von AR werden zwei praktische Beispiele umgesetzt. Zum Abschluss werden Grenzen und Probleme, auch aus rechtlicher Perspektive, betrachtet. Diese schränken die Content-Gestaltung und die Einsatzmöglichkeiten nur wenig ein, womit die Content-Gestaltung von AR für den Einsatz in ÖBs sehr gut geeignet ist.
Harmonisation of German Health Care Data Using the OMOP Common Data Model – A Practice Report
(2023)
Data harmonization is an important step in large-scale data analysis and for generating evidence on real world data in healthcare. With the OMOP common data model, a relevant instrument for data harmonization is available that is being promoted by different networks and communities. At the Hannover Medical School (MHH) in Germany, an Enterprise Clinical Research Data Warehouse (ECRDW) is established and harmonization of that data source is the focus of this work. We present MHH’s first implementation of the OMOP common data model on top of the ECRDW data source and demonstrate the challenges concerning the mapping of German healthcare terminologies to a standardized format.
Öffentliche Bibliotheken haben die Aufgabe, Medien und Veranstaltungen für alle zur Ausleihe und Nutzung bereitzustellen. Das Angebot der Informationseinrichtungen soll die gesellschaftliche Vielfalt widerspiegeln und Schwarze, Indigene und People of Color (kurz BIPoC – Black, Indigenous, People of Color) im Bestand repräsentieren. In diesem Zusammenhang gibt es Uneinigkeiten darüber, wie Bücher und audiovisuelle Medien behandelt werden sollen, die rassistische Inhalte haben. Ziel der Arbeit ist es, dies mithilfe leitfadengestützter Expert:inneninterviews herauszufinden und auch zu prüfen, wie BIPoC besser im Bibliotheksbestand repräsentiert werden können. Daraus sollen Empfehlungen für die rassismuskritische Bestandsentwicklung abgeleitet werden. In den Leitfadeninterviews nehmen Expert:innen Stellung zu der Frage, wann umstrittene Medien aus dem Bibliotheksbestand ausgesondert werden sollten und wie sie in Veranstaltungen und durch Texte kontextualisiert werden können. Sie nennen auch Kriterien zur Identifikation rassismuskritischer Medien. Dadurch konnte herausgefunden werden, dass Empfehlungslisten nur nach Überprüfung verwendet und Medien von und über BIPoC nicht durch eine Sonderaufstellung, sondern im regulären Bestand aufgestellt werden sollten. Empfehlungen der Bibliothek sollten selbstgewählt sein und in temporäre Ausstellungen eingebunden werden. Die Expertinnen empfehlen die bibliotheksübergreifende Vernetzung und Kooperation mit Menschen, die eine entsprechende Expertise haben. Damit die Angestellten entsprechende Maßnahmen für den Bibliotheksbestand entwickeln können, müssen sie weitergebildet werden. Bei der Medienauswahl und Maßnahmenentwicklung ist in jedem Fall ein machtkritisches Vorgehen notwendig.
Eine belastbare Datengrundlage ist notwendig sowohl für die Planung und Integration von Publikationsfonds an Hochschulen als auch im Hinblick auf Transformationsverträge zwischen Bibliotheken und wissenschaftlichen Verlagen. In den letzten Jahren hat sich der Datenservice Unpaywall diesbezüglich zu einem wichtigen Instrument für die Identifizierung von Open Access entwickelt. In dieser Arbeit sollen die Zuverlässigkeit sowie die Belastbarkeit des Datenservices auf Grundlage der zeitlichen Transformation des Dienstes untersucht werden. In diesem Zusammenhang werden elf Datenbanksnapshots des Services, die zwischen 2018 und 2020 erschienen sind, ausgewertet und Modifikationen über einen längeren Zeitraum herausgestellt. Ferner soll anhand einer vollständigen Erhebung aller Zeitschriftenartikel der Publikationsjahre 2008 bis 2018 analysiert werden, inwiefern sich Open Access im Publikationsaufkommen zwischen verschiedenen Snapshots verändert hat.
Die vorliegende Bachelorarbeit untersucht Onboarding-Prozesse wissenschaftlicher Bibliotheken, insbesondere anhand einer Analyse der Universitätsbibliothek der Friedrich-Alexander-Universität Erlangen-Nürnberg. Im ersten Teil werden organisationstheoretische und interdisziplinäre Grundlagen beleuchtet. Dabei liegt ein Fokus auf den Herausforderungen, Nutzen und Zielen von Onboarding-Maßnahmen in Abhängigkeit ihres Zeitpunktes und der Zielgruppe. Im Praxisteil werden die gewonnenen Erkenntnisse auf die spezifischen Anforderungen von wissenschaftlichen Bibliotheken angewendet. Die Analyse von Onboarding-Prozessen der Universitätsbibliothek der Friedrich-Alexander-Universität Erlangen-Nürnberg beinhaltet eine Mitarbeitendenbefragung von Onboardees und beteiligten Personen. Die Ergebnisse werden nach der SWOT-Methode eingeordnet. Anschließend folgen Konzepte zur Entwicklung von Arbeitsmaterialien, Unterlagen interner Kommunikation und ein Datenbankkonzept.
Schließlich erfolgt eine ableitende Handlungsempfehlung für eine effektive Umsetzung von Onboarding in wissenschaftlichen Bibliotheken. Das Fazit fasst die wichtigsten Erkenntnisse zusammen, während der Anhang alle Informationen zu den durchgeführten Befragungen, deren Auswertung und die erstellten Arbeitsmaterialien bzw. deren Konzept enthält.
Die Nutzerverfolgung im Internet durch die Verwendung von Browsercookies ist gängige Praxis, doch haben diverse datenschutzrechtliche Entwicklungen der letzten Jahre zugunsten der Verbraucher diese Form des Trackings in vielerlei Hinsicht eingeschränkt und auch die Usability von Websites maßgeblich beeinträchtigt. Um weiterhin eine Personalisierung von Werbung und anderen Inhalten unter Wahrung der Nutzbarkeit und Rechte der Nutzer zu gewährleisten, ist es unausweichlich, eine neue Methode zur Identifizierung von Besuchern zu etablieren. Das Ziel dieser Arbeit ist, verschiedene Trackingtechnologien unter Berücksichtigung gegebener Rahmenbedingungen im Rechtsraum der Europäischen Union in ihrer Funktionsweise zu vergleichen und die nach derzeitigem Stand realistische Nachfolgetechnologie zum Tracking via Cookies zu benennen – Fingerprinting. Dieses überzeugt in Bezug auf seine Langlebigkeit und rechtliche Vereinbarkeit, den Implementierungsaufwand sowie den Umfang der sammelbaren Daten. Darauf aufbauend ist eine statistische Untersuchung zur Verbreitung von Methoden aus dem Feld des Fingerprintings auf den meistgenutzten Internetseiten durchgeführt worden. Dabei ergibt sich, dass Informationen, die zur Erstellung eines Fingerprints genutzt werden können, von fast allen Websites abgefragt werden, jedoch durchschnittlich nur wenige verschiedene Arten von Fingerprints genutzt werden. Auf einigen Websites werden durch größere dritte Unternehmen Fingerprints erfasst, der Opt-in-Status hingegen hat in den meisten Fällen für die Praktizierung von Fingerprinting keine Relevanz. Da Fingerprinting auch für schädliche Zwecke, zum Beispiel das Verteilen von potenterer Schadsoftware, verwendet werden kann, ist die Reaktion von Browserentwicklern und -nutzern auf die Entwicklung von derzeitigen und zukünftigen Fingerprintingkonzepten ungewiss, und auch die rechtliche Lage der nächste Jahre hängt von angekündigten Verordnungen ab, die in ihrem Inhalt noch nicht bekannt sind.
Background
Chronic obstructive pulmonary disease (COPD) causes significant morbidity and mortality worldwide. Estimation of incidence, prevalence and disease burden through routine insurance data is challenging because of under-diagnosis and under-treatment, particularly for early stage disease in health care systems where outpatient International Classification of Diseases (ICD) diagnoses are not collected. This poses the question of which criteria are commonly applied to identify COPD patients in claims datasets in the absence of ICD diagnoses, and which information can be used as a substitute. The aim of this systematic review is to summarize previously reported methodological approaches for the identification of COPD patients through routine data and to compile potential criteria for the identification of COPD patients if ICD codes are not available.
Methods
A systematic literature review was performed in Medline via PubMed and Google Scholar from January 2000 through October 2018, followed by a manual review of the included studies by at least two independent raters. Study characteristics and all identifying criteria used in the studies were systematically extracted from the publications, categorized, and compiled in evidence tables.
Results
In total, the systematic search yielded 151 publications. After title and abstract screening, 38 publications were included into the systematic assessment. In these studies, the most frequently used (22/38) criteria set to identify COPD patients included ICD codes, hospitalization, and ambulatory visits. Only four out of 38 studies used methods other than ICD coding. In a significant proportion of studies, the age range of the target population (33/38) and hospitalization (30/38) were provided. Ambulatory data were included in 24, physician claims in 22, and pharmaceutical data in 18 studies. Only five studies used spirometry, two used surgery and one used oxygen therapy.
Conclusions
A variety of different criteria is used for the identification of COPD from routine data. The most promising criteria set in data environments where ambulatory diagnosis codes are lacking is the consideration of additional illness-related information with special attention to pharmacotherapy data. Further health services research should focus on the application of more systematic internal and/or external validation approaches.
Aim:
To characterize palliative care patients, to estimate the incidence, prevalence, and 1-year all-cause mortality in patients in Germany who received palliative care treatment.
Subject and methods:
The study analyzed the InGef Research Database, which covers 4 million people insured in German statutory health insurance companies. Specific outpatient and inpatient reimbursement codes were used to capture cases with palliative conditions. The prevalence was ascertained for the year 2015. The incidence was calculated for patients without documented palliative care services in the year before the observation period. The Kaplan–Meier method was used to analyze the 1-year all-cause mortality.
Results:
The incidence rate of palliative conditions was 41.3 and 34.9 per 10,000 persons in women and men, respectively. The prevalence per 10,000 persons was 61.3 in women and 51.1 in men. The 1-year all-cause mortality among patients receiving their first palliative care treatment was 67.5%. Mortality was lower in patients receiving general outpatient palliative care treatment (AAPV; 60.8%) compared to patients receiving specialized outpatient palliative care treatment (SAPV; 86.1%) or inpatient palliative care treatment (90.6%). Within the first 30 days, mortality was particularly high (~43.0%).
Conclusions:
In Germany, more than 400,000 patients per year receive palliative care treatment, which is lower compared to estimates of the number of persons with a potential need for palliative care. This gap was observed particularly in younger to middle-aged individuals. The findings indicate a demand for methodologically sound studies to investigate the public health burden and to quantify the unmet need for palliative care in Germany.
Social Software ist aus dem Alltag von Internetnutzern nicht mehr wegzudenken und hat mittlerweile auch in Bibliotheken Einzug gehalten. Die folgende Arbeit stellt die Fotocommunity Flickr vor und zeigt ihre Einsatzmöglichkeiten in Bibliotheken auf. Anhand von praktischen Beispielen werden Anwendungen erkannt und analysiert, gleichzeitig anschaulich demonstriert. Außerdem werden potentielle Einsätze in Informationseinrichtungen von Flickrs Funktionsvielfalt abgeleitet. Dabei thematisiert die Arbeit Flickr unter anderem als Bilddatenbank, als Instrument für die Unterstützung der Öffentlichkeitsarbeit und stellt digitale Bildersammlungen vor. Die Arbeit verdeutlicht damit, wie durch den Einsatz von Social Software Prozesse im Bibliotheksumfeld bereichert werden können.
Institutional Repositories als zukunftsorientiertes Instrument der wissenschaftlichen Kommunikation
(2008)
Die zunehmende Finanzknappheit der öffentlichen Haushalte, die technische Entwicklung und der ständig wachsende Konkurrenzkampf in Forschung und Lehre veranlassen Universitäten und andere Institutionen dazu, über neue Kommunikationsformen nachzudenken, durch die Synergieeffekte zu erreichen sind. Weltweit führen heute unterschiedliche wissenschaftliche Einrichtungen Institutional Repositories ein bzw. nutzen sie bereits. Diese Arbeit beschreibt Entwicklungen und Hintergründe, die die Einrichtung von Institutional Repositories betreffen. Darüber hinaus werden internationale Projekte zur Einführung von institutionellen Archiven erläutert und miteinander verglichen. Anschließend beleuchtet die Autorin dieser Arbeit Fragen im Zusammenhang mit der Veröffentlichung wissenschaftlicher Literatur, wie z.B. Open Access, Selbstarchivierung, rechtliche Probleme bzw. den Aufbau und das Management eines Institutional Repositories. Die Verfasserin der Arbeit entwickelt einen Vorschlag für einen Arbeitsablauf eines Institutional Repositories.
Chronic kidney disease is one of the main causes of mortality worldwide. It affects more than 800 million patients globally, accounting for approximately 10% of the general population. The significant burden of the disease prompts healthcare systems to implement adequate preventive and therapeutic measures. This systematic review and meta-analysis aimed to provide a concise summary of the findings published in the existing body of research about the influence that mobile health technology has on the outcomes of patients with the disease. A comprehensive systematic literature review was conducted from inception until March 1st, 2023. This systematic review and meta-analysis included all clinical trials that compared the efficacy of mobile app-based educational programs to that of more conventional educational treatment for the patients. Eleven papers were included in the current analysis, representing 759 CKD patients. 381 patients were randomly assigned to use the mobile apps, while 378 individuals were assigned to the control group. The mean systolic blood pressure was considerably lower in the mobile app group (MD -4.86; 95%-9.60, -0.13; p=0.04). Meanwhile, the mean level of satisfaction among patients who used the mobile app was considerably greater (MD 0.75; 95% CI 0.03, 1.46; p=0.04). Additionally, the mean self-management scores in the mobile app groups were significantly higher (SMD 0.534; 95% CI 0.201, 0.867; p=0.002). Mobile health applications are potentially valuable interventions for patients. This technology improved the self-management of the disease, reducing the mean levels of systolic blood pressure with a high degree of patient satisfaction.
Im Bereich der wissenschaftlichen Recherche gibt das Abstract einen ersten Überblick über den Inhalt und die Ergebnisse eines Forschungsartikels. Das Format des Abstracts wird seit einigen Jahren auch in audiovisueller Form umgesetzt. Der Autor eines Papers kann zusätzlich zu seinem Artikel ein sogenanntes Video Abstract einreichen. Für die Erstellung eines Video Abstracts geben die Verlage bestimmte Richtlinien vor, die der Autor bei der Produktion einhalten soll. Diese Arbeit hat sich zum Ziel gesetzt, einen Standardisierungsansatz für institutionelle Bedingungen, auch Video Abstract Author Guidelines genannt, zu erarbeiten. Zu diesem Zweck wurden mit zwei Untersuchungen sowohl die Produktionsweise von Video Abstracts als auch die vom Verlag aufgestellten Guidelines analysiert. Mit den Ergebnissen der Untersuchungen wurde eine Handlungsempfehlung für die Verlage entwickelt. Außerdem ging aus den Ergebnissen hervor, dass einige Richtlinien Defizite aufweisen, welche die Verlage beheben sollten.
Hate Speech hat im Zeitalter des Web 2.0 eine neue Dimension und Dynamik angenommen. Der Wunsch nach Regulierung ist moralisch begründbar und erste Staaten haben bereits reagiert. Dabei sind die Verfechter der freien Rede tief gespalten. Wo endet das Recht auf freie Meinungsäußerung und wann sollte Hassrede strafbar sein? Die Vereinten Nationen liefern mit dem Rabat Plan of Action eine Hilfestellung für eine qualifizierte Entscheidung. In dieser Studienarbeit werden die Gefahren der Hate Speech und damit die Chancen ihrer Regulierung wie auch deren Risiken aus ethischer Sicht erörtert und die Bedeutung des Rabat Threshold Test vor diesem Hintergrund beleuchtet; ehe sie mit einer persönlichen Stellungnahme schließt.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Regional knowledge map is a tool recently demanded by some actors in an institutional level to help regional policy and innovation in a territory. Besides, knowledge maps facilitate the interaction between the actors of a territory and the collective learning. This paper reports the work in progress of a research project which objective is to define a methodology to efficiently design territorial knowledge maps, by extracting information of big volumes of data contained in diverse sources of information related to a region. Knowledge maps facilitate management of the intellectual capital in organisations. This paper investigates the value to apply this tool to a territorial region to manage the structures, infrastructures and the resources to enable regional innovation and regional development. Their design involves the identification of information sources that are required to find which knowledge is located in a territory, which actors are involved in innovation, and which is the context to develop this innovation (structures, infrastructures, resources and social capital). This paper summarizes the theoretical background and framework for the design of a methodology for the construction of knowledge maps, and gives an overview of the main challenges for the design of regional knowledge maps.
Die aktualisierte 2. Auflage des Findbuchs zum Nachlass des Filmmachers Rudolf W. Kipp (1919 bis 1990) umfasst auch die in der ersten Auflage nicht enthaltene Nachlieferung von 2002 sowie einen biografischen Artikel zu Rudolf Kipp aus dem Lexikon CineGraph. Die Materialien sind systematisch gegliedert und über ein Filmtitelregister erschlossen.
In diesem Beitrag werden Spezifika der Hochschulen und Ausbildungseinrichtungen, die in der KIBA organisiert sind, mit ihren Studiengängen, Weiterbildungsprogrammen, Forschungsschwerpunkten und didaktischen Konzepten vorgestellt. Es wird gezeigt, wie diese Einrichtungen mit ihrer Berufungs- und Einstellungspolitik, strategischen Allianzen und übergeordneten fachlichen und politischen Zusammenschlüssen sowie mit der Profilierung ihrer Studiengänge auf neue Anforderungen des Marktes und der Berufspraxis reagieren. Berücksichtigt werden dabei Positionen und Strategien zur Digitalisierung aus der Politik sowie ihren Beratungsgremien, in der sich die Inhalte bibliotheks- und informationswissenschaftlicher Ausbildung und Forschung verorten lassen. Insgesamt wird deutlich, wie schwierig es heute ist zu definieren, was die Bibliotheks- und die Informationswissenschaft im Kern ausmacht, um im Spannungsfeld der Herausforderungen an wissenschaftliche und öffentliche Bibliotheken, den Anforderungen der Wirtschaft im Bereich Informations- und Wissensmanagement, der Digitalisierung und Langzeitarchivierung von Kulturerbe, um nur einige Felder zu nennen, Ausbildungsprogramme bedarfsgerecht zu profilieren und die bibliotheks- und informationswissenschaftlichen Institute, Fachbereiche und Ausbildungseinrichtungen politisch abzusichern und ausreichend mit Ressourcen auszustatten.
Die vollständig aktualisierte und erweiterte Neuauflage des etablierten Werks bietet Informationsspezialistinnen und -spezialisten aus allen Sparten einen umfassenden Überblick über die Entwicklungen und die Typologie wissenschaftlicher Informationsressourcen. Darauf aufbauend werden rund 430 Informationsressourcen, die für die allgemeine und fachspezifische Informationsrecherche von besonderer Bedeutung sind, in ihren Inhalten und Funktionalitäten sowie ihrer Bedeutung vorgestellt. Klassische bibliothekarische Ressourcentypen wie Bibliothekskataloge, Bibliographien, Nachschlagewerke und Portale für Fachinformationen werden dabei ebenso berücksichtigt wie Forschungsdatenverzeichnisse, Patent- und Normdatenbanken, Angebote zu Statistiken, Open-Access- und Open-Educational-Resources-Publikationen sowie Datenbanken zu Zeitungen, Bildern, Filmen und Audiomaterialien. Die Verbindung von einführender Typologie und konkreter Vorstellung zentraler Ressourcen sorgt dafür, dass das hier vermittelte Grundwissen unmittelbar in der beruflichen Praxis einsetzbar ist.
Rezension zu:
Rösch, Hermann et al.: Bibliotheken und Informationsgesellschaft in Deutschland : eine Einführung / Hermann Rösch, Jürgen Seefeldt, Konrad Umlauf ; unter Mitarbeit von Albert Bilo und Eric W. Steinhauer ; mitbegründet von Engelbert Plassmann. – 3., neukonzipierte und aktualisierte Auflage. – Wiesbaden: Harrassowitz Verlag, 2019. – XIII, 329 Seiten. – ISBN 9783447066204 : EUR 39.80 (auch als EBook verfügbar)
Rezension zu der Doppelausstellung "Zeitenwende 1400" des Dommuseums Hildesheim und des Landesmuseums Hannover. Während die Ausstellung im Hildesheimer Dommuseum ausgehend von der Stadt und dem Hochstift Hildesheim sowie der weiteren Region eine kulturhistorische Gesamtschau der Zeit um 1400 präsentiert, stellt die Ausstellung im Landesmuseum Hannover die Goldene Tafel aus der Benediktinerabteikirche St. Michaelis in Lüneburg, ein Flügelaltarretabel aus den ersten Jahrzehnten des 15. Jahrhunderts, als herausragendes Kunstwerk des Spätmittelalters in den Mittelpunkt.
Einbände und Sammler - Joseph von Laßberg und das Lindauer Evangeliar (Pierpont Morgan Library Ms 1)
(2002)
Der Aufsatz schildert einen Teil der Besitzgeschichte des berühmten karolingischen Lindauer Evangeliars, das sich heute als wertvollstes Stück in der Pierpont Morgan Library in New York befindet. Von 1816 bis 1846 befand sich der Codex in Besitz des schwäbischen Handschriftensammlers Joseph von Laßberg, dem Schwager der Annette von Droste-Hülshoff.
Bibliotheken
(2018)
Gerade für Historiker*innen, die für ihre Arbeit vielfach nicht nur Fachliteratur, sondern auch Quelleneditionen und handschriftliche Materialien benötigen, sind Bibliotheken die zentralen Informationseinrichtungen. Der Beitrag stellt in kompakter Form die wichtigsten digitalen Informationsressourcen und Infrastruktureinrichtungen für die Geschichtswissenschaft vor.
Der Bachelorstudiengang „Bibliotheks- und Informationsmanagement“ der Hochschule für den öffentlichen Dienst in Bayern (HföD) zeichnet sich durch seinen starken Praxisbezug aus. Mit der spezifischen Ausrichtung auf die wissenschaftlichen Bibliotheken, dem mehrstufigen Auswahlverfahren der Studierenden, der Gestaltung der beiden Praxismodule, der Konzeption des theoretischen Unterrichts und den begleitenden Veranstaltungen sowie den Strukturen, in die der Studiengang eingebunden ist, werden in dem vorliegenden Aufsatz die wichtigsten Elemente für diese starke Praxisbezogenheit vorgestellt.
Clio-Guide: Bibliotheken
(2023)
Das Kapitel definiert den Begriff Bibliothek, erläutert die wichtigsten Aufgaben und Dienstleistungen von Bibliotheken und stellt die wichtigsten Elemente des deutschen Bibliothekswesens vor. Darüber hinaus werden typologisch die wichtigsten Gattungen bibliothekarischer Informationsressourcen und -systeme darbestellt. Die behandelten Beispiele berücksichtigen insbesondere die Bedürfnisse von Forschung und Lehre in den historisch arbeitenden Fächern.
A semiparametric approach for meta-analysis of diagnostic accuracy studies with multiple cut-offs
(2022)
The accuracy of a diagnostic test is often expressed using a pair of measures: sensitivity (proportion of test positives among all individuals with target condition) and specificity (proportion of test negatives among all individuals without targetcondition). If the outcome of a diagnostic test is binary, results from different studies can easily be summarized in a meta-analysis. However, if the diagnostic test is based on a discrete or continuous measure (e.g., a biomarker), several cut-offs within one study as well as among different studies are published. Instead of taking all information of the cut-offs into account in the meta-analysis, a single cut-off per study is often selected arbitrarily for the analysis, even though there are statistical methods for the incorporation of several cut-offs. For these methods, distributional assumptions have to be met and/or the models may not converge when specific data structures occur. We propose a semiparametric approach to overcome both problems. Our simulation study shows that the diagnostic accuracy is underestimated, although this underestimation in sensitivity and specificity is relatively small. The comparative approach of Steinhauser et al. is better in terms of coverage probability, but may lead to convergence problems. In addition to the simulation results, we illustrate the application of the semiparametric approach using a published meta-analysis for a diagnostic test differentiating between bacterial and viral meningitis in children.
Background: In many research areas it is necessary to find differences between treatment groups with several variables. For example, studies of microarray data seek to find a significant difference in location parameters from zero or one for ratios thereof for each variable. However, in some studies a significant deviation of the difference in locations from zero (or 1 in terms of the ratio) is biologically meaningless. A relevant difference or ratio is sought in such cases.
Results: This article addresses the use of relevance-shifted tests on ratios for a multivariate parallel two-sample group design. Two empirical procedures are proposed which embed the relevanceshifted test on ratios. As both procedures test a hypothesis for each variable, the resulting multiple testing problem has to be considered. Hence, the procedures include a multiplicity correction. Both procedures are extensions of available procedures for point null hypotheses achieving exact control of the familywise error rate. Whereas the shift of the null hypothesis alone would give straight-forward solutions, the problems that are the reason for the empirical considerations discussed here arise by the fact that the shift is considered in both directions and the whole parameter space in between these two limits has to be accepted as null hypothesis.
Conclusion: The first algorithm to be discussed uses a permutation algorithm, and is appropriate for designs with a moderately large number of observations. However, many experiments have limited sample sizes. Then the second procedure might be more appropriate, where multiplicity is corrected according to a concept of data-driven order of hypotheses.
Ausführlicher Bericht/Beitrag zum Forschungsprojekt Grundsätze der Konzeptionsentwicklung und -lehre im modernen Kommunikationsmanagement an der Hochschule Hannover 2021/22.
Ziel des Beitrages ist die Verortung und Systematisierung von planerischen Prozessen innerhalb der externen Unternehmenskommunikation - also der Public Relations sowie die Diskussion des Verhältnisses von klassischen linearen vs. rekursiven „agilen“ Konzeptionierungstechniken im Kommunikationsmanagement.
Die zeitgenössische Überformung des fachwissenschaftlichen Diskurses im Feld der Public Relations von ursprünglich sozial- und kommunikationswissenschaftlicher Grundlegung hin zu einem betriebswirtschaftlichem Paradigma führt nicht nur zu einer heterogenen und inkonsistenten Verwendung zentraler Begrifflichkeiten wie „Strategie“, „Taktik“, „Konzept“ und „Ziele“ sondern verändert auch die Art, wie im Fachdiskurs Konzeptionstechniken und -lehre uneinheitlich in den Prozessen des Kommunikationsmanagement verankert und diskutiert werden.
In der Analyse historischer und aktueller Fachliteratur zum Thema zeigt sich, dass mehr oder weniger deutlich differenziert und zumeist implizit auf verschiedenen Ebenen des Kommunikationsmanagements planerische Prozesse (Strategien, Konzepte etc.) notwendig sind und eingefordert werden. Als vier grundsätzliche und differenzierbare Ebenen der Konzeptionspraxis wurden identifiziert: 1. Die kommunikative Gesamtstrategie, 2. PR-Rahmenkonzept, 3. PR-Programmplanung, 4. PR-Maßnahmenplanung. Diese Ebenen korrespondieren mit verschiedenen grundlegenden sozialwissenschaftlichen Modellen (Top-Ebene, Makro-, Meso- und Mikroebene nach Esser) und fachwissenschaftlichen Modellen (DPRG-Bezugsrahmen, Tätigkeitsbereiche der Unternehmenskommunikation u.a.).
Übergreifend wird herausgearbeitet, dass auf allen Ebenen die jeweilige Konzeptionspraxis auf die Vier-Phasen „Analyse“, „Zielstellung und Strategie“, „Aktion“ (Umsetzung, Implementierung), „Evaluation“ aufbaut und jeweilig eine eigene Verschriftlichung erfordert.
„Agile“ Planungsmethoden, die hier als „rekursiv“ mit sozialwissenschaftlichem Terminus exakter beschrieben werden können, sind insbesondere auf den unteren Ebenen der PR-Programmplanung wie auch operativen Maßnahmenebene als neue, sinnvolle Vorgehensweisen in der Konzeption und zukunftsfähige Ansätze.
„Grappa“ ist eine Middleware, die auf die Anbindung verschiedener Autobewerter an verschiedene E-Learning-Frontends respektive Lernmanagementsysteme (LMS) spezialisiert ist. Ein Prototyp befindet sich seit mehreren Semestern an der Hochschule Hannover mit dem LMS „moodle“ und dem Backend „aSQLg“ im Einsatz und wird regelmäßig evaluiert. Dieser Beitrag stellt den aktuellen Entwicklungsstand von Grappa nach diversen Neu- und Weiterentwicklungen vor. Nach einem Bericht über zuletzt gesammelte Erfahrungen mit der genannten Kombination von Systemen stellen wir wesentliche Neuerungen der moodle-Plugins, welche der Steuerung von Grappa aus moodle heraus dienen, vor. Anschließend stellen wir eine Erweiterung der bisherigen Architektur in Form eines neuentwickelten Grappa-php-Clients zur effizienteren Anbindung von LMS vor. Weiterhin berichten wir über die Anbindung eines weiteren Autobewerters „Graja“ für Programmieraufgaben in Java. Der Bericht zeigt, dass bereits wichtige Schritte für eine einheitliche Darstellung automatisierter Programmbewertung in LMS mit unterschiedlichen Autobewertern für die Studierenden absolviert sind. Die praktischen Erfahrungen zeigen aber auch, dass sowohl bei jeder der Systemkomponenten individuell, wie auch in deren Zusammenspiel via Grappa noch weitere Entwicklungsarbeiten erforderlich sind, um die Akzeptanz und Nutzung bei Studierenden sowie Lehrenden weiter zu steigern.
Acute stroke care is a time-critical process. Improving communication
and documentation process may support a positive effect on medical outcome. To achieve this goal, a new system using a mobile application has been integrated into existing infrastructure at Hannover Medical School (MHH). Within a pilot project, this system has been brought into clinical daily routine in February 2022. Insights generated may support further applications in clinical use-cases.
Hintergrund: Im Zeitalter der Digitalisierung kann der Einsatz von mobilen Apps helfen, Prozesse zu digitalisieren und bietet neue Möglichkeiten der Prozessgestaltung. Auch im Rahmen der Gesundheitsversorgung werden Apps mit dem Ziel eingesetzt Prozesse effizienter zu gestalten. Die Versorgung akuter Schlaganfälle ist ein besonders zeitkritischer Prozess, indem sich jede Minute, um die der Behandlungsprozess verkürzt wird, positiv auf das Behandlungsergebnis auswirken kann. Durch die Aktivitäten innerhalb des Versorgungsprozesses, die durch unterschiedliche Berufsgruppen verschiedener Fachabteilungen erfolgen, kann insbesondere die Kommunikation und Dokumentation während der Versorgung Herausforderungen mit sich bringen. Daher ist es wichtig den Gesamtprozess der Schlaganfallversorgung regelmäßig zu evaluieren um Optimierungspotenziale im Versorgungsprozess aufzudecken und zu nutzen.
Methoden: In dieser Masterarbeit wurde der Schlaganfallversorgungsprozess in der Medizinischen Hochschule Hannover (MHH) analysiert und ein Migrationsplan für die Implementierung der App Join der Firma Allm Inc. entwickelt, um dadurch eine Prozesstransformation zu erreichen, welche es ermöglichen soll Zeit in der Schlaganfallakutversorgung einzusparen. Übergeordnet soll die Prozesstransformation zu einem Zeitgewinn führen und dadurch die Versorgungsqualität gesteigert werden. Die App Join ermöglicht unter anderem die Kommunikation über einen Messenger-Dienst in Gruppenchats, wodurch ein Informationsaustausch mit allen am Behandlungsprozess Beteiligten gleichzeitig möglich ist. Zusätzlich können in Join qualitätsrelevante Merkmale der Schlaganfallversorgung elektronisch erfasst werden.
Ergebnisse: Mit der Einführung von Join konnte eine Prozesstransformation der Schlaganfallakutversorgung in der MHH geschaffen werden. Mit dem Instrument der Kommunikation in Gruppen-Chats in Join wurde eine Kommunikationsplattform geschaffen, die es ermöglicht, dass alle am Behandlungsprozess Beteiligten zu jedem Zeitpunkt gleichermaßen informiert werden können. Zusätzlich konnte die papierbasierte neurologisch-neuroradiologische Dokumentation in der MHH mit dem Join-Einsatz vollständig digitalisiert werden, sodass eine unmittelbare elektronische Verfügbarkeit der Daten für alle am Behandlungsprozess Beteiligten gegeben ist. Über die Entwicklung von Schnittstellen zwischen dem Krankenhausinformationssystem (KIS) der MHH und Join konnte Funktions- und Datenintegration zwischen den Systemen erreicht werden und dadurch der Join-Einsatz MHH-individuell optimiert werden.
Schlussfolgerung: Die Einführung der Join-App stellt eine mobile Kommunikations- und Dokumentationsunterstützung während der Krankenversorgung dar, welche im Pilotprojekt „Die Innere Uhr“ exemplarisch für den Einsatz weiterer unterstützender Apps im Klinikalltag angesehen werden kann.
Nicht-standardisierte Erweiterungen von SKOS-Thesauri und ihre Auswirkungen auf die Kompatibilität
(2016)
Vorliegende Arbeit beschäftigt sich mit den Auswirkungen von selbst-definierten Extensions auf Kompatibilität von SKOS-Thesauri untereinander. Zu diesem Zweck werden als Grundlage zunächst die Funktionsweisen von RDF, SKOS, SKOS-XL und Dublin Core Metadaten erläutert und die verwendete Syntax geklärt. Es folgt eine Beschreibung des Aufbaus von konventionellen Thesauri inkl. der für sie geltenden Normen. Danach wird der Vorgang der Konvertierung eines konventionellen Thesaurus in SKOS dargestellt. Um dann die selbst-definierten Erweiterungen und ihre Folgen betrachten zu können, werden fünf SKOS-Thesauri beispielhaft beschrieben. Dazu gehören allgemeine Informationen, ihre Struktur, die verwendeten Erweiterungen und ein Schaubild, das die Struktur als Übersicht darstellt. Anhand dieser Thesauri wird dann beschrieben wie Mappings zwischen den Thesauri erstellt werden
und welche Herausforderungen dabei bestehen.
Öffentliche Bibliotheken sind in der Digitalen Bildung von großer Bedeutung. Sie vermitteln digitale Kompetenzen, nutzen zunehmend neue Technologien und verleihen digitale Medien. Die Arbeit befasst sich mit der Förderung und Finanzierung digitaler Angebote in Bibliotheken. Zu Beginn wird ein Überblick über die Bibliotheksgesetzgebung in Deutschland gegeben. In diesem Zusammenhang wird die Forderung der Bibliotheken nach einer Normierung zur Pflichtaufgabe für Kommunen erörtert und ein Vergleich mit den europäischen Ländern Dänemark und Finnland gezogen. Eine Untersuchung der Drittmittelförderung auf Landesebene, Bundesebene und der Europäischen Kommission zeigt die Verortung der Bibliotheken in Förderprogrammen auf. Im Anschluss werden anhand von Best-Practice-Beispielen alternative Finanzierungsmöglichkeiten dargestellt. Meinungen von Vertretern aus Bibliotheken weisen auf die Vorteile und Nachteile von Drittmittelförderung, Fundraising, Rechtsformwechsel, Integration in die Stadtentwicklung oder die Entwicklung von Bibliothekskonzeptionen, Bibliotheksentwicklungsplänen sowie die Regelung durch Kulturfördergesetze hin. Ausgehend von den Ergebnissen der untersuchten Finanzierungmöglichkeiten wird abschließend die Notwendigkeit von Bibliotheksgesetzen diskutiert. Hieraus ergibt sich, dass Bibliotheksgesetze für eine einheitliche und zukunftsfähige Entwicklung der Bibliotheken in der Digitalen Bildung notwendig sind. Zugleich wird deutlich, dass die derzeit bestehenden Gesetze diese Anforderungen nicht leisten.
Improving Risk Assessment in Clinical Trials: Toward a Systematic Risk-Based Monitoring Approach
(2021)
Regulatory authorities have encouraged the usage of a risk-based monitoring (RBM) system in clinical trials before trial initiation for detection of potential risks and inclusion of a mitigation plan in the monitoring strategy. Several RBM tools were developed after the International Council for Harmonization gave sponsors the flexibility to initiate an approach to enhance quality management in a clinical trial. However, various studies have demonstrated the need for improvement of the available RBM tools as each does not provide a comprehensive overview of the characteristics, focus, and application. This research lays out a rationale for a risk methodology assessment (RMA) within the RBM system. The core purpose of RMA is to deliver a scientifically based evaluation and decision of any potential risk in a clinical trial. Thereby, a monitoring plan can be developed to elude prior identified risk outcome. To demonstrate RMA’s theoretical approach in practice, a Shiny web application (R Foundation for Statistical Computing) was designed to describe the assessment process of risk analysis and visualization tools that eventually aid in focusing monitoring activities. RMA focuses on the identification of an individual risk and visualizes its weight on the trial. The scoring algorithm of the presented approach computes the assessment of the individual risk in a radar plot and computes the overall score of the trial. Moreover, RMA’s novelty lies in its ability to decrease biased decision making during risk assessment by categorizing risk influence and detectability; a characteristic pivotal to serve RBM in assessing risks, and in contributing to a better understanding in the monitoring technique necessary for developing a functional monitoring plan. Future research should focus on validating the power of RMAs to demonstrate its efficiency. This would facilitate the process of characterizing the strengths and weaknesses of RMA in practice.
Monitoring of clinical trials is a fundamental process required by regulatory agencies. It assures the compliance of a center to the required regulations and the trial protocol. Traditionally, monitoring teams relied on extensive on-site visits and source data verification. However, this is costly, and the outcome is limited. Thus, central statistical monitoring (CSM) is an additional approach recently embraced by the International Council for Harmonisation (ICH) to detect problematic or erroneous data by using visualizations and statistical control measures. Existing implementations have been primarily focused on detecting inlier and outlier data. Other approaches include principal component analysis and distribution of the data. Here we focus on the utilization of comparisons of centers to the Grand mean for different model types and assumptions for common data types, such as binomial, ordinal, and continuous response variables. We implement the usage of multiple comparisons of single centers to the Grand mean of all centers. This approach is also available for various non-normal data types that are abundant in clinical trials. Further, using confidence intervals, an assessment of equivalence to the Grand mean can be applied. In a Monte Carlo simulation study, the applied statistical approaches have been investigated for their ability to control type I error and the assessment of their respective power for balanced and unbalanced designs which are common in registry data and clinical trials. Data from the German Multiple Sclerosis Registry (GMSR) including proportions of missing data, adverse events and disease severity scores were used to verify the results on Real-World-Data (RWD).
Type 2 Diabetes Mellitus: Risk Evaluation and Advice in Undergraduate Students in Ashrafieh, Lebanon
(2016)
Type 2 diabetes mellitus (T2DM) is a chronic lifestyle disease. It has become evident that T2DM occurs even among the younger age groups.1 In Lebanon, T2DM has a major public health impact through high disease prevalence, significant downstream pathophysiologic effects, and enormous financial liabilities.2