Refine
Year of publication
Document Type
- Article (184)
- Bachelor Thesis (90)
- Conference Proceeding (52)
- Master's Thesis (33)
- Part of a Book (17)
- Study Thesis (15)
- Book (14)
- Report (8)
- Doctoral Thesis (6)
- Working Paper (5)
Has Fulltext
- yes (431)
Is part of the Bibliography
- no (431)
Keywords
- Bibliothek (31)
- Informationsmanagement (17)
- Wissenschaftliche Bibliothek (15)
- Ausbildung (14)
- Öffentliche Bibliothek (14)
- Student (13)
- Digitalisierung (12)
- Informationskompetenz (12)
- Benutzerfreundlichkeit (11)
- Information Retrieval (11)
Institute
- Fakultät III - Medien, Information und Design (431) (remove)
In den letzten Jahren hat sich der Auskunftsdienst in wissenschaftlichen Bibliotheken gewandelt. Die bibliothekarische Auskunft setzt zahlreiche unterschiedliche Kommunikationsformen ein, um dem Kunden die gewünschten Informationen zukommen zu lassen. Neben den konventionellen Auskunftsmitteln setzen die Bibliotheken verstärkt auf die elektronischen Auskunftsdienste. Seit dem Jahr 2004 haben Chatbots als Auskunftsmittel einen festen Platz in diesem Bereich. Chatbots sind virtuelle Assistenten, die mit Hilfe einer hinterlegten Datenbank die Fragen der Kunden beantworten. Die vorliegende Arbeit stellt die vier Chatbots ASKademicus, Stella, Albot und Hugo Blotius näher vor. Anhand von verschiedener Literatur wird eine Checkliste für eine Qualitätsüberprüfung von Chatbots erarbeitet. Am Beispiel von Hugo Blotius, dem Chatbot der Österreichischen National-bibliothek aus Wien werden die Chatbots analysiert und bewertet. Das Ziel dieser Arbeit ist es, die Thematik der Chatbots näher zu betrachten und deren Nutzungsberechtigung im Bibliothekswesen nachzuweisen. Die durchgeführte Analyse konnte eine Nutzungsberechtigung der bibliothekarischen Chatbots belegen und Hugo Blotius als wertvolle Ergänzung des Auskunftsangebotes der Bibliothek bestätigen.
Background: After kidney transplantation, immunosuppressive therapy causes impaired cellular immune defense leading to an increased risk of viral complications. Trough level monitoring of immunosuppressants is insufficient to estimate the individual intensity of immunosuppression. We have already shown that virus-specific T cells (Tvis) correlate with control of virus replication as well as with the intensity of immunosuppression. The multicentre IVIST01-trial should prove that additional steering of immunosuppressive and antiviral therapy by Tvis levels leads to better graft function by avoidance of over-immunosuppression (for example, viral infections) and drug toxicity (for example, nephrotoxicity).
Methods/design: The IVIST-trial starts 4 weeks after transplantation. Sixty-four pediatric kidney recipients are randomized either to a non-intervention group that is only treated conservatively or to an intervention group with additional monitoring by Tvis. The randomization is stratified by centre and cytomegalovirus (CMV) prophylaxis. In both groups the immunosuppressive medication (cyclosporine A and everolimus) is adopted in the same target range of trough levels. In the non-intervention group the immunosuppressive therapy (cyclosporine A and everolimus) is only steered by classical trough level monitoring and the antiviral therapy of a CMV infection is performed according to a standard protocol. In contrast, in the intervention group the dose of immunosuppressants is individually adopted according to Tvis levels as a direct measure of the intensity of immunosuppression in addition to classical trough level monitoring. In case of CMV infection or reactivation the antiviral management is based on the individual CMV-specific immune defense assessed by the CMV-Tvis level. Primary endpoint of the study is the glomerular filtration rate 2 years after transplantation; secondary endpoints are the number and severity of viral infections and the incidence of side effects of immunosuppressive and antiviral drugs.
Discussion: This IVIST01-trial will answer the question whether the new concept of steering immunosuppressive and antiviral therapy by Tvis levels leads to better future graft function. In terms of an effect-related drug monitoring, the study design aims to realize a personalization of immunosuppressive and antiviral management after transplantation. Based on the IVIST01-trial, immunomonitoring by Tvis might be incorporated into routine care after kidney transplantation.
Internetpräsenzen von Bibliotheken müssen zunehmend mit kommerziellen oder frei zugänglichen Informationsangeboten konkurrieren. Um sich von diesen Angeboten abzuheben, müssen nicht nur, wie gehabt, qualitativ hochwertige Informationen bereitgestellt werden - der Zugang zu diesen Informationen muss nutzerfreundlich gestaltet werden und sich an Usability-Standards orientieren, um für den Nutzer attraktiv zu sein.
In der Bachelorarbeit wird eine Studie zur Usability der Website der Landesbibliothek Oldenburg durchgeführt. Nach einer Einführung in die Thematik der Usability und der Analyse des IST-Zustandes der Website erfolgt eine Evaluation anhand von vier Methoden. Basierend auf Evaluationen mittels Personas, Heuristiken, Thinking-Aloud-Tests und einer Logfile-Analyse werden Usability-Probleme der Website ermittelt und anschließend Empfehlungen zur Verbesserung der Usability gegeben.
Normdaten in Wikidata
(2014)
Wikidata ist eine freie, gemeinsame Datenbank und Projekt der Wikimedia-Foundation. Ziel ist es, strukturierte Daten zu zentralisieren und nutzbar zu machen. Dieses Handbuch bietet mit detaillierten und bebilderten Texten eine Anleitung zur Unterstützung des Wikidata-Projektes. Ein theoretischer und ein praktischer Teil erläutern die wichtigsten Begriffe und erklären Wikidata Schritt für Schritt. Dabei wird ein Schwerpunkt auf das Thema Normdaten in Wikidata gelegt. Ein Glossar sowie eine FAQ am Ende des Handbuchs geben Hilfestellung bei Begriffen und Fragen.
Dieses Handbuch entstand im Rahmen eines Projektseminars im Sommersemester 2014 an der Hochschule Hannover. Alle Inhalte des Handbuchs stehen auf http://hshdb.github.io/normdaten-in-wikidata unter den Bedingungen der CC-BY-SA Lizenz zur freien Verfügung.
The drugs we use to treat any condition – from an innocuous cough to a life-threatening cancer – are the outcome of painstaking human clinical trials. These trials are the only way to credibly determine the safety and efficacy of drugs. In recent years there has been a clear shift in clinical trial sites from core developed countries like USA, European countries to developing countries like India, China, South American countries. This shift is related to challenges and opportunities like costs of trials, recruitment issues, and regulatory challenges in developed vs. developing countries. Developing countries and developed countries have their unique disease burden patterns based on various parameters like but not limited to age, health care facilities, health insurance, sanitary conditions, environmental issues, education, nutrition
and GDP. Previous studies have reported that many of the important global diseases are not much explored in clinical trials and many published clinical trials have very less international health relevance. This study was aimed at finding the correlation between disease burdens, number of clinical trials done and trial success rates. We compared 2005 - 2010 Global Burden of Disease data for Germany, India and number of clinical trials from clinicaltrials.gov database done in the same period. Our findings indicated that there was a good correlation between the disease burden and clinical trials for Germany in 2005 and 2010. For India in 2005 there was a moderate positive correlation, 2010 data showed the improvement in India in terms of match between disease burden and clinical trials. But careful observation of the data shows still a need for more trials on Communicable, maternal, neonatal and nutritional disorders.
Nanotechnology is emerging as one of the key technologies of the 21st century and is expected to enable developments across a wide range of sectors that can benefit citizens. Nanomedicine is an application of nanotechnology in the areas of healthcare, disease diagnosis, treatment and prevention of disease. Nanomedicines pose problem of nanotoxicity related to factors like size, shape, specific surface area, surface morphology, and crystallinity. Currently, nanomedicines are regulated as medicinal products or as medical devices and there is no specific regulatory framework for nanotechnology-based products neither in the EU nor in the USA. This review presents a scheme for classification and regulatory approval process for nanotechnology based medicines.
Background: Epidemiological and experimental studies suggest that exposure to ultrafine particles (UFP) might aggravate the allergic inflammation of the lung in asthmatics.
Methods: We exposed 12 allergic asthmatics in two subgroups in a double-blinded randomized cross-over design, first to freshly generated ultrafine carbon particles (64 μg/m3; 6.1 ± 0.4 × 105 particles/cm3 for 2 h) and then to filtered air or vice versa with a 28-day recovery period in-between. Eighteen hours after each exposure, grass pollen was instilled into a lung lobe via bronchoscopy. Another 24 hours later, inflammatory cells were collected by means of bronchoalveolar lavage (BAL). (Trial registration: NCT00527462)
Results: For the entire study group, inhalation of UFP by itself had no significant effect on the allergen induced
inflammatory response measured with total cell count as compared to exposure with filtered air (p = 0.188). However, the subgroup of subjects, which inhaled UFP during the first exposure, exhibited a significant increase in total BAL cells (p = 0.021), eosinophils (p = 0.031) and monocytes (p = 0.013) after filtered air exposure and subsequent allergen challenge 28 days later. Additionally, the potential of BAL cells to generate oxidant radicals was
significantly elevated at that time point. The subgroup that was exposed first to filtered air and 28 days later to UFP did not reveal differences between sessions.
Conclusions: Our data demonstrate that pre-allergen exposure to UFP had no acute effect on the allergic inflammation. However, the subgroup analysis lead to the speculation that inhaled UFP particles might have a long-term effect on the inflammatory course in asthmatic patients. This should be reconfirmed in further studies with an appropriate study design and sufficient number of subjects.
Background: Maintenance of metal homeostasis is crucial in bacterial pathogenicity as metal starvation is the most important mechanism in the nutritional immunity strategy of host cells. Thus, pathogenic bacteria have evolved sensitive metal scavenging systems to overcome this particular host defence mechanism. The ruminant pathogen Mycobacterium avium ssp. paratuberculosis (MAP) displays a unique gut tropism and causes a chronic progressive intestinal inflammation. MAP possesses eight conserved lineage specific large sequence polymorphisms (LSP), which distinguish MAP from its ancestral M. avium ssp. hominissuis or other M. avium subspecies. LSP14 and LSP15 harbour many genes proposed to be involved in metal homeostasis and have been suggested to substitute for a MAP specific, impaired mycobactin synthesis.
Results: In the present study, we found that a LSP14 located putative IrtAB-like iron transporter encoded by mptABC was induced by zinc but not by iron starvation. Heterologous reporter gene assays with the lacZ gene under control of the mptABC promoter in M. smegmatis (MSMEG) and in a MSMEGΔfurB deletion mutant revealed a zinc dependent, metalloregulator FurB mediated expression of mptABC via a conserved mycobacterial FurB recognition site. Deep sequencing of RNA from MAP cultures treated with the zinc chelator TPEN revealed that 70 genes responded to zinc limitation. Remarkably, 45 of these genes were located on a large genomic island of approximately 90 kb which harboured LSP14 and LSP15. Thirty-five of these genes were predicted to be controlled by FurB, due to the presence of putative binding sites. This clustering of zinc responsive genes was exclusively found in MAP and not in other mycobacteria.
Conclusions: Our data revealed a particular genomic signature for MAP given by a unique zinc specific locus, thereby suggesting an exceptional relevance of zinc for the metabolism of MAP. MAP seems to be well adapted to maintain zinc homeostasis which might contribute to the peculiarity of MAP pathogenicity.
Clinical scores and motion-capturing gait analysis are today’s gold standard for outcome measurement after knee arthroplasty, although they are criticized for bias and their ability to reflect patients’ actual quality of life has been questioned. In this context, mobile gait analysis systems have been introduced to overcome some of these limitations. This study used a previously developed mobile gait analysis system comprising three inertial sensor units to evaluate daily activities and sports. The sensors were taped to the lumbosacral junction and the thigh and shank of the affected limb. The annotated raw data was evaluated using our validated proprietary software. Six patients undergoing knee arthroplasty were examined the day before and 12 months after surgery. All patients reported a satisfactory outcome, although four patients still had limitations in their desired activities. In this context, feasible running speed demonstrated a good correlation with reported impairments in sports-related activities. Notably, knee flexion angle while descending stairs and the ability to stop abruptly when running exhibited good correlation with the clinical stability and proprioception of the knee. Moreover, fatigue effects were displayed in some patients. The introduced system appears to be suitable for outcome measurement after knee arthroplasty and has the potential to overcome some of the limitations of stationary gait labs while gathering additional meaningful parameters regarding the force limits of the knee.
Research information, i.e., data about research projects, organisations, researchers or research outputs such as publications or patents, is spread across the web, usually residing in institutional and personal web pages or in semi-open databases and information systems. While there exists a wealth of unstructured information, structured data is limited and often exposed following proprietary or less-established schemas and interfaces. Therefore, a holistic and consistent view on research information across organisational and national boundaries is not feasible. On the other hand, web crawling and information extraction techniques have matured throughout the last decade, allowing for automated approaches of harvesting, extracting and consolidating research information into a more coherent knowledge graph. In this work, we give an overview of the current state of the art in research information sharing on the web and present initial ideas towards a more holistic approach for boot-strapping research information from available web sources.
The dependency of word similarity in vector space models on the frequency of words has been noted in a few studies, but has received very little attention. We study the influence of word frequency in a set of 10 000 randomly selected word pairs for a number of different combinations of feature weighting schemes and similarity measures. We find that the similarity of word pairs for all methods, except for the one using singular value decomposition to reduce the dimensionality of the feature space, is determined to a large extent by the frequency of the words. In a binary classification task of pairs of synonyms and unrelated words we find that for all similarity measures the results can be improved when we correct for the frequency bias.
Der Arbeitsalltag von Wissenschaftlerinnen und Wissenschaftlern hat sich in den letzten Jahren dramatisch verändert. Forschen, Schreiben und Publizieren sind mittlerweile stark durch netzbasierte Anwendungen geprägt. Das digitale Zeitalter aber hat nicht nur neue technische Werkzeuge hervorgebracht, sondern auch neue Wege eröffnet, um Wissen zu generieren und zu verbreiten. Dies gilt sowohl innerhalb der akademischen Welt als auch über diese hinaus. Das Arbeiten mit dem Netz stellt unsere bisherigen etablierten wissenschaftlichen Praktiken in Frage. Forschung wird zunehmend vernetzt, kollaborativ, multimedial, trans- bzw. interdisziplinär durchgeführt. Das vorliegende Handbuch beschreibt diese sich herausbildenden wissenschaftlichen Praktiken. Ziel der Autoren war es dabei, ein praxisnahes und leicht verständliches Handbuch zu schreiben.
Im Rahmen der aktuellen Bildungsdebatte profilieren sich in zunehmendem Maße Museen und Bibliotheken als Akteure der kulturellen Bildung. Durch ihre ausdifferenzierten Angebote agieren sie dabei sowohl auf den formellen und außerschulischen Bildungs- wie auch unterhaltenden Freizeitmärkten, jeweils sowohl auf politischer sowie wirtschaftlicher und gesellschaftlicher Makro-, Meso- und Mikroebene. Dabei bietet sich insbesondere den vielen Museen, die über eine eigene Museumsbibliothek verfügen, eine signifikant potenzierte Möglichkeit, im Rahmen einer professionellen Öffentlichkeitsarbeit durch die Konzeptionierung ihrer Bibliothek zu einem Informations- und Kommunikationszentrum und deren Positionierung in der Produkt- und Kommunikationspolitik der Marketingstrategie des Museums, ihren (potentiellen) heterogenen Zielgruppen erweiterte und additive Angebote und dadurch neuartige Zugänge zu offerieren sowie die Einrichtung dadurch im Stadtraum öffentlichkeitswirksam neu zu verorten, indem eine derart strukturell und programmatisch revisionierte und professionell geführte Museumsbibliothek der Gesellschaft weitere Lern- wie auch Kommunikationsräume im Sinne eines Kulturzentrums eröffnet. Eine solch autonome und allseits anerkannte Museumsbibliothek, die als zentrale Abteilung des Museums eng mit den anderen Handlungsbereichen der Einrichtung, insbesondere jedoch der Museumspädagogik und der Kommunikationsabteilung zusammenarbeitet, bietet dem Museum des Weiteren durch ihre hybride Scharnierfunktion als museale wie auch bibliothekarische Einrichtung eine ideale Möglichkeit, sich als Ort der kulturellen Bildung innerhalb der (kulturellen) Bildungslandschaft der Region mit weiteren Anbietern dieser Ressorts, vor allem jedoch Bibliotheken und Schulen, kooperativ und öffentlichkeitswirksam zu vernetzen.
Schriftliche Nachlässe werden in deutschen Bibliotheken in einer langen Tradition ge-sammelt und verwaltet. In der vorliegenden Bachelorarbeit werden die Besonderheit von schriftlichen Nachlässen und die Entwicklung der Nachlassbearbeitung erläutert. Zunächst werden zur Einführung in die Thematik Begriffsdefinitionen, die Bedeutung sowie die Entwicklungen in der Bearbeitung von Nachlässen dargelegt. An die Einführungen werden die Frage nach der Zuständigkeit zur Übernahme eines Nachlasses und der damit zusammenhängende Kompetenzstreitfall angeknüpft. Im Folgenden wird die Erwerbung thematisiert. Dazu werden die verschiedenen Erwerbungsarten vorgestellt und die möglichen rechtlichen Probleme in der Erwerbung aufgezeigt. Die Bearbeitung von Nachlässen wird anhand von Kassation, Ordnung, Erschließung und Maßnahmen zur Bestandserhaltung dargestellt. Die Thematik der schriftlichen Nachlässe wird mit Aspekten und Fragen der Nutzung abgeschlossen. Der theoretischen Abhandlung folgt die Dokumentation der Ordnung und Erschließung der Fotografien-Sammlung aus dem Nachlass von Robert Michel und Ella Bergmann-Michel, die mit der Vorstellung des Künstlerpaares und dessen Nachlass beginnt. Danach folgt die Erläuterung der praktischen Aufgabe im Hinblick auf Zielsetzung, Ausgangssituation, Vorbereitung und Durchführung. Abgeschlossen wird die Dokumentation mit Empfehlungen für die zukünftige Bearbeitung der Fotografien und des gesamten Nachlasses.
Distributional semantics tries to characterize the meaning of words by the contexts in which they occur. Similarity of words hence can be derived from the similarity of contexts. Contexts of a word are usually vectors of words appearing near to that word in a corpus. It was observed in previous research that similarity measures for the context vectors of two words depend on the frequency of these words. In the present paper we investigate this dependency in more detail for one similarity measure, the Jensen-Shannon divergence. We give an empirical model of this dependency and propose the deviation of the observed Jensen-Shannon divergence from the divergence expected on the basis of the frequencies of the words as an alternative similarity measure. We show that this new similarity measure is superior to both the Jensen-Shannon divergence and the cosine similarity in a task, in which pairs of words, taken from Wordnet, have to be classified as being synonyms or not.
Metadaten für das digitale Archiv des Niedersächsischen Landesamts für Denkmalpflege : ein Konzept
(2013)
Das Niedersächsische Landesamt für Denkmalpflege (NLD) ist die zentrale Fachbehörde für den Denkmalschutz in Niedersachsen. Ihre Funktionen sind im Niedersächsischen Denkmalschutzgesetz festgelegt. Sie führt das Verzeichnis der Kulturdenkmale in Niedersachsen und ist zentrale Archivstelle. Die Archivbestände der beiden fachlichen Bereiche Archäologie und Bau- und Kunstdenkmalpflege sollen im Fachinformationssystem ADABweb digital erschlossen werden, so dass sie mit den Objektdaten verknüpft werden können. Das Metadatenschema für die Archivalien soll sich an relevanten Standards orientieren und mit diesen weitgehend interoperabel sein. Zugleich sind die besonderen Informationsbedürfnisse der Denkmalpflege zu berücksichtigen.
Mitarbeiterzeitschriften nehmen in der internen Kommunikation von Unternehmen und Non-Profit-Organisationen über 100 Jahre eine zentrale Rolle ein und verlieren auch durch Einzug der Sozialen Medien nicht an Bedeutung. Seit 2007 befinden sich die Mitarbeiterzeitschriften der Arbeitsstelle für innerbetriebliche Kommunikation an der Hochschule Hannover. Das Mitarbeiterzeitschriftenarchiv besteht aus über 750 Zeitschriftentiteln, die bisher öffentlich nicht verzeichnet sind. Im theoretischen Teil der vorliegenden Bachelorarbeit verdeutlichen die geschichtlichen, funktionalen, inhaltlichen Darstellungen der Publikationsform wie wichtig diese für die berufliche Praxis sowie für die sozialwissenschaftliche und linguistische Forschung sind. Mittels eines Fragebogens lässt sich das Bestandsmanagement beispielhaft an einigen deutschen Bibliotheken und Archiven darstellen. Anhand einer Bestandsanalyse und einer fach- und bibliotheksspezifischen Bestandsbewertung des Mitarbeiterzeitschriftenarchivs der Hochschule Hannover leiten sich bestands- und ressourcentechnische Handlungsempfehlungen für die Bibliothek der Hochschule Hannover ab und zeigen eine Möglichkeit wie das Mitarbeiterzeitschriftenarchiv zukünftig weitergeführt wird. Zum Schluss der Bachelorarbeit kommen u.a. die Urheberrechtsproblematik bei der Digitalisierung sowie Vorschläge zur Anbindung an eine Virtuelle Forschungsumgebung als auch die digitale Abgabe der Mitarbeiterzeitschrift zur Sprache.
Regional Innovation Systems describe the relations between actors, structures and infrastructures in a region in order to stimulate innovation and regional development. For these systems the collection and organization of information is crucial. In the present paper we investigate the possibilities to extract information from websites of companies. First we describe regional innovation systems and the information types that are necessary to create them. Then we discuss the possibilities of text mining and keyword extraction techniques to extract this information from company websites. Finally, we describe a small scale experiment in which keywords related to economic sectors and commodities are extracted from the websites of over 200 companies. This experiment shows what the main challenges are for information extraction from websites for regional innovation systems.
Automatische Spracherkennungssysteme (Automatic Speech Recognition - ASR) können derzeit nicht alle Wörter korrekt erkennen und daher noch keine guten Transkriptionen erstellen. Die Qualität der automatischen Spracherkennung wird von vielen Faktoren beeinflusst. Einer davon ist das Vokabular. Je vielfältiger und komplexer die Themen, desto größer die Anzahl der fachspezifischen Wörter ist, die erkannt werden müssen, desto schwieriger ist die Erkennungsaufgabe und desto schlechter sind die Transkriptionsergebnisse. Die Sprachmodelle von automatischen Spracherkennungssystemen müssen durch Training angepasst werden, damit sie auch bei Gebieten mit speziellem Vokabular gute Resultate erzielen können. In dieser Arbeit wird untersucht, ob der prozentuale Anteil der korrekt erkannten Wörter durch Training des Sprachmodells der automatischen Spracherkennung mit fachspezifischer Terminologie wirksam gesteigert werden kann. Anhand von Ergebnissen der durchgeführten Experimente wird dargelegt, welche Anzahl und Art von Daten benötigt wird, um den Prozentsatz der falsch erkannten Wörter zu senken. Die Ergebnisse der Domänen-Adaption bilden die Basis für den anschließenden Vergleich des fachspezifischen Vokabulars in Vorlesungsvideos und wissenschaftlichen Publikationen, um die Unterschiede hinsichtlich der verwendeten Fachsprache aufzuzeigen. Grundlage und Ausgangspunkt für die gesamte Untersuchung stellt die Erkennung der Fachterminologie und ihre Unterscheidung von der Allgemeinsprache dar.
Complications may occur after a liver transplantation, therefore proper monitoring and care in the post-operation phase plays a very important role. Sometimes, monitoring and care for patients from abroad is difficult due to a variety of reasons, e.g., different care facilities. The objective of our research for this paper is to design, implement and evaluate a home monitoring and decision support infrastructure for international children who underwent liver transplant operation. A point-of-care device and the PedsQL questionnaire were used in patients’ home environment for measuring the blood parameters and assessing quality of life. By using a tablet PC and a specially developed software, the measured results were able to be transmitted to the health care providers via internet. So far, the developed infrastructure has been evaluated with four international patients/families transferring 38 records of blood test. The evaluation showed that the home monitoring and decision support infrastructure is technically feasible and is able to give timely alarm in case of abnormal situation as well as may increase parent’s feeling of safety for their children.
Fall events and their severe consequences represent not only a threatening problem for the affected individual, but also cause a significant burden for health care systems. Our research work aims to elucidate some of the prospects and problems of current sensor-based fall risk assessment approaches. Selected results of a questionnaire-based survey given to experts during topical workshops at international conferences are presented. The majority of domain experts confirmed that fall risk assessment could potentially be valuable for the community and that prediction is deemed possible, though limited. We conclude with a discussion of practical issues concerning adequate outcome parameters for clinical studies and data sharing within the research community. All participants agreed that sensor-based fall risk assessment is a promising and valuable approach, but that more prospective clinical studies with clearly defined outcome measures are necessary.
Background: Physician-rating websites are currently gaining in popularity because they increase transparency in the health care system. However, research on the characteristics and content of these portals remains limited.
Objective: To identify and synthesize published evidence in peer-reviewed journals regarding frequently discussed issues about physician-rating websites.
Methods: Peer-reviewed English and German language literature was searched in seven databases (Medline (via PubMed), the Cochrane Library, Business Source Complete, ABI/Inform Complete, PsycInfo, Scopus, and ISI web of knowledge) without any time constraints. Additionally, reference lists of included studies were screened to assure completeness. The following eight previously defined questions were addressed: 1) What percentage of physicians has been rated? 2) What is the average number of ratings on physician-rating websites? 3) Are there any differences among rated physicians related to socioeconomic status? 4) Are ratings more likely to be positive or negative? 5) What significance do patient narratives have? 6) How should physicians deal with physician-rating websites? 7) What major shortcomings do physician-rating websites have? 8) What recommendations can be made for further improvement of physician-rating websites?
Results: Twenty-four articles published in peer-reviewed journals met our inclusion criteria. Most studies were published by US (n=13) and German (n=8) researchers; however, the focus differed considerably. The current usage of physician-rating websites is still low but is increasing. International data show that 1 out of 6 physicians has been rated, and approximately 90% of all ratings on physician-rating websites were positive. Although often a concern, we could not find any evidence of "doctor-bashing". Physicians should not ignore these websites, but rather, monitor the information available and use it for internal and ex-ternal purpose. Several shortcomings limit the significance of the results published on physician-rating websites; some recommendations to address these limitations are presented.
Conclusions: Although the number of publications is still low, physician-rating websites are gaining more attention in research. But the current condition of physician-rating websites is lacking. This is the case both in the United States and in Germany. Further research is necessary to increase the quality of the websites, especially from the patients’ perspective.
We compare the effect of different segmentation strategies for passage retrieval of user generated internet video. We consider retrieval of passages for rather abstract and complex queries that go beyond finding a certain object or constellation of objects in the visual channel. Hence the retrieval methods have to rely heavily on the recognized speech. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video no author defined paragraph structure is available. We compare retrieval results from 5 different types of segments: segments defined by shot boundaries, prosodic segments, fixed length segments, a sliding window and semantically coherent segments based on speech transcripts. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusions are (1) that fixed length and coherent segments are clearly superior to segments based on speaker turns or shot boundaries; (2) that the retrieval results highly depend on the right choice for the segment length; and (3) that results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently fewer segments have to be considered at retrieval time.
BACKGROUND: Over the past decade, physician-rating websites have been gaining attention in scientific literature and in the media. However, little knowledge is available about the awareness and the impact of using such sites on health care professionals. It also remains unclear what key predictors are associated with the knowledge and the use of physician-rating websites. OBJECTIVE: To estimate the current level of awareness and use of physician-rating websites in Germany and to determine their impact on physician choice making and the key predictors which are associated with the knowledge and the use of physician-rating websites. METHODS: This study was designed as a cross-sectional survey. An online panel was consulted in January 2013. A questionnaire was developed containing 28 questions; a pretest was carried out to assess the comprehension of the questionnaire. Several sociodemographic (eg, age, gender, health insurance status, Internet use) and 2 health-related independent variables (ie, health status and health care utilization) were included. Data were analyzed using descriptive statistics, chi-square tests, and t tests. Binary multivariate logistic regression models were performed for elaborating the characteristics of physician-rating website users. Results from the logistic regression are presented for both the observed and weighted sample. RESULTS: In total, 1505 respondents (mean age 43.73 years, SD 14.39; 857/1505, 57.25% female) completed our survey. Of all respondents, 32.09% (483/1505) heard of physician-rating websites and 25.32% (381/1505) already had used a website when searching for a physician. Furthermore, 11.03% (166/1505) had already posted a rating on a physician-rating website. Approximately 65.35% (249/381) consulted a particular physician based on the ratings shown on the websites; in contrast, 52.23% (199/381) had not consulted a particular physician because of the publicly reported ratings. Significantly higher likelihoods for being aware of the websites could be demonstrated for female participants (P<.001), those who were widowed (P=.01), covered by statutory health insurance (P=.02), and with higher health care utilization (P<.001). Health care utilization was significantly associated with all dependent variables in our multivariate logistic regression models (P<.001). Furthermore, significantly higher scores could be shown for health insurance status in the unweighted and Internet use in the weighted models. CONCLUSIONS: Neither health policy makers nor physicians should underestimate the influence of physician-rating websites. They already play an important role in providing information to help patients decide on an appropriate physician. Assuming there will be a rising level of public awareness, the influence of their use will increase well into the future. Future studies should assess the impact of physician-rating websites under experimental conditions and investigate whether physician-rating websites have the potential to reflect the quality of care offered by health care providers.
Regional knowledge map is a tool recently demanded by some actors in an institutional level to help regional policy and innovation in a territory. Besides, knowledge maps facilitate the interaction between the actors of a territory and the collective learning. This paper reports the work in progress of a research project which objective is to define a methodology to efficiently design territorial knowledge maps, by extracting information of big volumes of data contained in diverse sources of information related to a region. Knowledge maps facilitate management of the intellectual capital in organisations. This paper investigates the value to apply this tool to a territorial region to manage the structures, infrastructures and the resources to enable regional innovation and regional development. Their design involves the identification of information sources that are required to find which knowledge is located in a territory, which actors are involved in innovation, and which is the context to develop this innovation (structures, infrastructures, resources and social capital). This paper summarizes the theoretical background and framework for the design of a methodology for the construction of knowledge maps, and gives an overview of the main challenges for the design of regional knowledge maps.
Bitte recht freundlich!
(2013)
Die vorliegende Arbeit untersucht die Wirkung von Spitzenführungspersonal-Fotos. Sie liefert Antworten auf die Frage, welche Mimik und welche Gestik auf solchen Fotos bei den betrachtenden Personen die positivste Wirkung erzeugt und welche Wirkungsunterschiede existieren, in Abhängigkeit davon, wer das Foto betrachtet und in Abhängigkeit davon, ob auf dem Foto eine weibliche oder männliche Person zu sehen ist.
Beim Betrachten von Portraitfotos entstehen bei Menschen automatisch und unbewusst Vorstellungen über die Eigenschaften der abgebildeten Person, so genannte implizite Persönlichkeitstheorien.
Die Untersuchung wurde als Online-Befragung in Form einer Bildbewertungsstudie durchgeführt. Als Stimulusmaterial wurden jeweils 16 Fotos einer weiblichen und einer männlichen Spitzenführungskraft produziert, welche unterschiedliche Kombinationen aus Gestiken und Mimiken zeigten, die nach den Attributen Glaubwürdigkeit, Sympathie, Attraktivität, Kompetenz und Entschlossenheit bewertet wurden.
Weibliche Spitzenführungskräfte wirken am positivsten, wenn sie eine zugewandte Gestik zeigen. Besonders glaubwürdig wirken sie, wenn sie dazu ein Zahnlächeln zeigen. Kompetenz und Entschlossenheit wird bei weiblichen Spitzenführungskräften am stärksten durch eine Kombination aus einem Schmunzeln und einer zugewandten Gestik vermittelt – Attraktivität und Sympathie durch eine Kombination aus Lachen und einer zugewandten Gestik. Kompetenz und Entschlossenheit werden bei männlichen Spitzenführungskräften ebenfalls durch eine Kombination aus Schmunzeln und einer zugewandten Gestik am stärksten vermittelt. Glaubwürdigkeit wird durch eine Kombination aus Schmunzeln und einer vorgebeugten Gestik am stärksten vermittelt – Attraktivität und Sympathie durch eine Kombination aus Lachen und einer vorgebeugten Gestik.
This paper describes the approach of the Hochschule Hannover to the SemEval 2013 Task Evaluating Phrasal Semantics. In order to compare a single word with a two word phrase we compute various distributional similarities, among which a new similarity measure, based on Jensen-Shannon Divergence with a correction for frequency effects. The classification is done by a support vector machine that uses all similarities as features. The approach turned out to be the most successful one in the task.
Das Buch ist sowohl eine Einführung in die Themen Linked Data, Open Data und Open Linked Data als es auch den konkreten Bezug auf Bibliotheken behandelt. Hierzu werden konkrete Anwendungsprojekte beschrieben. Der Band wendet sich dabei sowohl an Personen aus der Bibliothekspraxis als auch an Personen aus dem Bibliotheksmanagement, die noch nicht mit dem Thema vertraut sind.
Digitale 3D-Modelle der Architektur – z.B. Modelle von Gebäuden, Inneneinrichtungsgegenständen und Bauteilen – haben innerhalb der letzten fünf Jahrzehnte sowohl die analogen, auf Papier basierenden Zeichnungen als auch die physischen Modelle aus ihrer planungs-, ausführungs- und dokumentationsunterstützenden Rolle verdrängt. Als Herausforderungen bei der Integration von 3D-Modellen in digitale Bibliotheken und Archive sind zunächst die meist nur rudimentäre Annotation mit Metadaten seitens der Autoren und die nur implizit in den Modellen vorhandenen
Informationen zu nennen. Aus diesen Defiziten resultiert ein aktuell starkes Interesse an inhaltsbasierter Erschließung durch vernetzte Nutzergruppen oder durch automatisierte Verfahren, die z.B. aufgrund von Form- oder Strukturmerkmalen eine automatische Kategorisierung von 3D-Modellen anhand gegebener Schemata ermöglichen. Die teilweise automatische Erkennung von objektinhärenter Semantik vergrößert die Menge an diskreten und semantisch unterscheidbaren Einheiten. Darüber hinaus sind digitale 3D-Modelle zumeist hierarchisch aufgebaut; sie enthalten weitere komplexe Modelle, die wiederum in sich geschachtelt sein können und in einzelnen Fällen einen eigenständigen Nachweis als 3D-Modell wünschenswert machen. 3D-Modelle als Content im World Wide Web können sowohl untereinander als auch mit anderen textuellen wie nichttextuellen Objekten verknüpft werden, also Teil von aggregierten Dokumenten sein. Eine weitere Notwendigkeit ist die Vernetzung mit inhaltlich relevanten Ereignissen, Orten, Begriffen, Personen oder realen Objekten sowie die explizite Beschreibung der Relationen zwischen dem Modell selbst und diesen Entitäten seines spezifischen Kontextes. Die Aggregationen bzw. der Modellkontext sowie die inhärenten Entitäten erfordern Instrumente der Organisation, um dem Benutzer bei der Suche nach Informationen einen Mehrwert zu bieten, insbesondere dann, wenn textbasiert nach Informationen zum Modell und zu dessen Kontext gesucht wird. In der vorliegenden Arbeit wird ein Metadatenmodell zur gezielten Strukturierung von Information entwickelt, welche aus 3D-Architekturmodellen gewonnen wird. Mittels dieser Strukturierung kann das Modell mit weiterer Information vernetzt werden. Die Anwendung etablierter Ontologien sowie der Einsatz von URIs machen die Informationen nicht nur explizit, sondern beinhalten auch eine semantische Information über die Relation selbst, sodass eine Interoperabilität zu anderen verfügbaren Daten im Sinne der Grundprinzipien des Linked-Data-Ansatzes gewährleistet wird. Diese Herangehensweise hat im Gegensatz zu einem Ansatz, der Metadaten als Records auffasst, das Potenzial, Relationen zu jeglichen modellrelevanten Entitäten im Suchraum herzustellen und zugleich diese Relationen für weitere wissensbildende Prozesse verfügbar zu machen.
Der Bedeutungszuwachs von Online-Medien hat eine gesellschaftliche Debatte über mögliche Folgen dieser Entwicklung ausgelöst. Weit verbreitet ist zum Beispiel die Wahrnehmung, dass Online-Medien maßgeblich beeinflussen, wie insbesondere jüngere Menschen politische Prozesse sehen und bewerten. Vor dem Hintergrund theoretischer Ansätze wie dem Influence-of-Presumed-Media-Influence-Approach wurde untersucht, welche kommunikationspolitischen Maßnahmen von der Bevölkerung als Reaktion auf solche Wahrnehmungen als angemessen eingeschätzt werden. Hierzu wurde im Kontext der Landtagswahl in Nordrhein-Westfalen 2012 eine Online-Befragung durchgeführt (n = 485). Die Befunde zeigen, dass die Wahrnehmung starker politischer Online-Einflüsse auf jüngere Menschen vor allem zu einer gesteigerten Akzeptanz von Aufklärung und Erziehung führt, weniger aber zu einer gesteigerten Akzeptanz restriktiver Maßnahmen zur Einflussbeschränkung.
Indirekte Medienwirkungen, wie sie im Rahmen des Influence-of-Presumed-Media-Influence-Approachs und des Third-Person-Effekts diskutiert werden, sind im Hinblick auf einzelne politische Ereignisse und für Online-Medien bislang nur selten geprüft worden. Aus diesem Grund wurde der unterstellte Einfluss verschiedener On- und Offline-Medien auf Meinungsbildung und Mobilisierung im Kontext der Volksabstimmung zum Umbau des Stuttgarter Hauptbahnhofes im November 2011 („Stuttgart 21“) untersucht. Daneben stehen Konsequenzen der Einflusswahrnehmungen im Fokus des Beitrags. Als Grundlage dient eine Online-Befragung der baden-württembergischen Bevölkerung mit Internetanschluss (n = 502). Die Befragten schreiben Zeitungen und Fernsehen einen stärkeren politischen Einfluss zu als den in der Studie berücksichtigten Online-Medien, und zwar sowohl auf die Meinungsbildung als auch auf die Mobilisierung. Zudem führt ein unterstellter großer und negativ bewerteter Medieneinfluss auf die Bevölkerung bei einigen Befragtengruppen zu einer Verstärkung von Kommunikationsaktivitäten – verbunden mit dem Ziel, diesen unterstellten Einfluss zu korrigieren. Die vermuteten negativen Einflüsse führen aber auch dazu, dass eine schärfere Kontrolle des Internets befürwortet wird.
Die Nutzung des Like-Buttons wurde bisher nur oberflächlich und vor allem auf den US-Raum begrenzt erforscht. Dabei lag der Fokus ausschließlich auf wirtschaftlich orientierten Unternehmen und dem monetären Wert, den ein Fan für dieses hat. In der vorliegenden Untersuchung wird eine erweiterte Perspektive gewählt. Aus Sicht deutschsprachiger Nutzer wird erforscht, welche Motive und Bedürfnisse eine Person dazu veranlassen, sich freiwillig per Gefällt-mir zu verknüpfen. Hierzu wird der Uses and Gratifications-Ansatz herangezogen. Es stehen nicht Unternehmen, sondern generell alle Formen von Organisationen im Fokus. Gleichzeitig wird untersucht, wie diese Beziehungen verlaufen: Welche Erwartungen stellen Fans? Welche Handlungen nehmen sie wie häufig vor und welchen Effekt hat eine Fanbeziehung auf die Einstellung eines Nutzers gegenüber einer Organisation? Die Motive hinter der Nutzung des Gefällt mir-Buttons sind umfangreicher, als es bisherige Forschung vermuten ließ. Fans wollen informiert werden, sie wollen ihr Gefallen schnell und einfach bekunden und sich durch die Verknüpfung selbst darstellen. Weniger wichtig, aber dennoch von Relevanz sind die Motive der Partizipation und Unterstützung, der Empfehlung, der Vorteilssuche, der Unterhaltung sowie der Netzwerkerweiterung und Gruppenzugehörigkeit. Die Verwendung des Like-Buttons dient somit der Befriedigung einer ganzen Reihe von Nutzungsbedürfnissen. Der Verlauf der Beziehungen zwischen Organisationen und Usern ist eher von Passivität geprägt. Fans wollen zwar informiert werden und stellen konkrete Ansprüche an die Art und Form von Organisationsmeldungen, sie wollen aber nur selten wirklich direkt mit einem Unternehmen, einem Verein o.ä. interagieren. Langweilen die Meldungen einer Organisation, werden zu viele oder nicht relevante Informationen an die Fans weitergeben, zögern diese nicht, eine Verknüpfung zu beenden. Ein Effekt der Fanschaft auf die Einstellung von Nutzern gegenüber der jeweiligen Organisation konnte nur bedingt festgestellt werden. Letztere zieht einen Gewinn nicht aus einer erhöhten Ausgabebereitschaft seiner Fans, sondern aus deren stärkerer Aufmerksamkeit gegenüber Organisationsmeldungen.
We compare the effect of different text segmentation strategies on speech based passage retrieval of video. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video, using speech transcripts, no author defined segmentation is available. We compare retrieval results from 4 different types of segments based on the speech channel of the video: fixed length segments, a sliding window, semantically coherent segments and prosodic segments. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusion is that the retrieval results highly depend on the right choice for the segment length. However, results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently less segments have to be considered at retrieval time.
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
Automatic classification of scientific records using the German Subject Heading Authority File (SWD)
(2012)
The following paper deals with an automatic text classification method which does not require training documents. For this method the German Subject Heading Authority File (SWD), provided by the linked data service of the German National Library is used. Recently the SWD was enriched with notations of the Dewey Decimal Classification (DDC). In consequence it became possible to utilize the subject headings as textual representations for the notations of the DDC. Basically, we we derive the classification of a text from the classification of the words in the text given by the thesaurus. The method was tested by classifying 3826 OAI-Records from 7 different repositories. Mean reciprocal rank and recall were chosen as evaluation measure. Direct comparison to a machine learning method has shown that this method is definitely competitive. Thus we can conclude that the enriched version of the SWD provides high quality information with a broad coverage for classification of German scientific articles.
Fast 70 Jahre nach dem Zweiten Weltkrieg und den nationalsozialistischen Plünderungen und Enteignungen befinden sich noch immer konfiszierte Bücher in deutschen Bibliotheken. Die Rückgabe dieser unrechtmäßig in die Bibliotheken gelangten Bestände ist eine ebenso wichtige wie langwierige Aufgabe. In der vorliegenden Bachelorarbeit wird im ersten Teil das Vorgehen bei der Restitution von NS-verfolgungsbedingt entzogenem Kulturgut mit den möglichen Schwierigkeiten dargestellt. Im zweiten Teil wird die praktisch durchgeführte Provenienzforschung in der Stadtbibliothek Hannover beschrieben.
Mining geriatric assessment data for in-patient fall prediction models and high-risk subgroups
(2012)
Background: Hospital in-patient falls constitute a prominent problem in terms of costs and consequences. Geriatric institutions are most often affected, and common screening tools cannot predict in-patient falls consistently. Our objectives are to derive comprehensible fall risk classification models from a large data set of geriatric in-patients’ assessment data and to evaluate their predictive performance (aim#1), and to identify high-risk subgroups from the data (aim#2).
Methods: A data set of n = 5,176 single in-patient episodes covering 1.5 years of admissions to a geriatric hospital were extracted from the hospital’s data base and matched with fall incident reports (n = 493). A classification tree model was induced using the C4.5 algorithm as well as a logistic regression model, and their predictive performance was evaluated. Furthermore, high-risk subgroups were identified from extracted classification rules with a support of more than 100 instances.
Results: The classification tree model showed an overall classification accuracy of 66%, with a sensitivity of 55.4%, a specificity of 67.1%, positive and negative predictive values of 15% resp. 93.5%. Five high-risk groups were identified, defined by high age, low Barthel index, cognitive impairment, multi-medication and co-morbidity.
Conclusions: Our results show that a little more than half of the fallers may be identified correctly by our model, but the positive predictive value is too low to be applicable. Non-fallers, on the other hand, may be sorted out with the model quite well. The high-risk subgroups and the risk factors identified (age, low ADL score, cognitive impairment, institutionalization, polypharmacy and co-morbidity) reflect domain knowledge and may be used to screen certain subgroups of patients with a high risk of falling. Classification models derived from a large data set using data mining methods can compete with current dedicated fall risk screening tools, yet lack diagnostic precision. High-risk subgroups may be identified automatically from existing geriatric assessment data, especially when combined with domain knowledge in a hybrid classification model. Further work is necessary to validate our approach in a controlled prospective setting.
Wearable sensors in healthcare and sensor-enhanced health information systems: all our tomorrows?
(2012)
Wearable sensor systems which allow for remote or self-monitoring of health-related parameters are regarded as one means to alleviate the consequences of demographic change. This paper aims to summarize current research in wearable sensors as well as in sensor-enhanced health information systems. Wearable sensor technologies are already advanced in terms of their technical capabilities and are frequently used for cardio-vascular monitoring. Epidemiologic predictions suggest that neuro-psychiatric diseases will have a growing impact on our health systems and thus should be addressed more intensively. Two current project examples demonstrate the benefit of wearable sensor technologies: long-term, objective measurement under daily-life, unsupervised conditions. Finally, up-to-date approaches for the implementation of sensor-enhanced health information systems are outlined. Wearable sensors are an integral part of future pervasive, ubiquitous and person-centered health
care delivery. Future challenges include their integration into sensor-enhanced health information systems and sound evaluation studies involving measures of workload reduction and costs.
The present investigation was conducted to investigate the in-vitro activity of ethanolic extract of roots of Centaurea behens by using DPPH radical scavenging activity, nitric oxide radical scavenging activity, hydrogen peroxide radical scavenging activity, hydroxyl radical. Result suggests that the extract possess significant antioxidant activity as compared to the standard ascorbic acid and thus further in vivo investigation is required to evaluate the medicinal significance of the extract which can be used for assessing the possible therapeutic importance of the drug.
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompetenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Bereichen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wissensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Exzellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besaßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rückmeldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden.
Die vorliegende Bachelor-Arbeit beschäftigt sich mit den Aspekten des Social Media Marketings. Dazu gehören die strategische Planung, das Monitoring sowie Richtlinien zum Umgang mit dem Medium und mit Krisen, die gemeinsam den Rahmen des Engagements im Social Web bilden. Die Verfasserin zeigt die grundlegenden Eigenschaften des Mediums Social Web und seiner Plattformen auf. Der Dialog und der Austausch sind zentraler Bestandteil von Social Media. Zudem behandelt die Arbeit die Notwendigkeit eines Social Media Engagements für Unternehmen und welche Voraussetzungen die Basis bilden. Einzelne Aspekte werden durch Beispiele aus der Praxis veranschaulicht sowie Thesen mit Statistiken und Aussagen von Experten belegt. Am Ende der Arbeit gibt die Verfasserin einen Ausblick auf die mögliche Wandlung von Social Media sowie die mobile Nutzung des Social Web und die daraus resultierenden Veränderungen.
Die vorliegenden Bachelorarbeit befasst sich mit der Analyse und der zunehmenden Wichtigkeit von Social Media im emotionalen Wirtschaftszweig Profifußball. Hierzu werden verschiedenste Social-Media- und Web 2.0-Angebote vorgestellt und Fakten zum Einsatz in der freien Wirtschaft präsentiert. Unter Berücksichtigung des Wandels zu mehr Kommerzialisierung im Profifußball, fällt die Analyse der aktuellen Präsenz der Bundesligisten auf Facebook, Twitter und Co kritisch aus. Besonders im Vergleich mit europäischen Vereinen zeigt sich ein großer Nachholbedarf deutscher Clubs. Abschließend folgt der Versuch einer Strategiebewertung anhand des Bundesligisten SV Werder Bremen. Die Auswertung von offiziellen und inoffiziellen Angeboten sowie die Analyse Diskussionen über den Verein, zeigen vielfältige Ergebnisse und Möglichkeiten für die Umsetzung einer umfangreichen Social-Media-Strategie. Mögliche Inhalte einer solchen Umsetzung auf relevanten Plattformen bilden den Abschluss der vorliegenden Arbeit.
Hintergrund und Fragestellung: Die korrekte intraoperative Positionierung und Einstellung eines mobilen Bildverstärkers (auch C-Bogen) kann zurzeit theoretisch mit Hilfe von Lehrbüchern erlernt, am Gerät selbst aber nur ohne visuelle Rückmeldung, d.h. ohne ein zur Ausrichtung korrespondierendes Röntgenbild, trainiert werden. Hieraus ergibt sich die Fragestellung, inwiefern das Training der Handhabung und richtigen Einstellung des C-Bogens in verschiedenen Operationsszenarien durch ein C-Bogen Simulationssystem als Teil eines CBT-Systems (Computer Based Training) unterstützt werden kann. Methoden: In Kooperation mit Ärzten aus Unfallchirurgie und Radiologie wurde das computer-basierte Trainingssystem virtX entwickelt. virtX kann dem Nutzer verschiedene Aufgaben zur Einstellung eines C-Bogens stellen und die Ausführung und das Ergebnis bewerten. Die Aufgaben können mit Hilfe eines Autorensystems erstellt und vom Trainierenden in verschiedenen Modi erfüllt werden: im rein virtuellen Modus oder im kombinierten virtuell-realen Modus. Im rein virtuellen Modus steuert der Nutzer den virtuellen C-Bogen in einem virtuellen OP-Saal mittels einer grafisch-interaktiven Benutzungsoberfläche. Im virtuell-realen Modus hingegen wird die Ausrichtung eines realen C-Bogens erfasst und auf den virtuellen C-Bogen übertragen. Während der Aufgabenerfüllung kann der Benutzer zu jeder Zeit ein realitätsnahes, virtuelles Röntgenbild erzeugen und dabei alle Parameter wie Blendenstellung, Röntgenintensität, etc. wie bei einem realen C-Bogen steuern. virtX wurde auf einem dreitägigen Kurs für OP-Personal mit 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 79 einen ausgefüllten Evaluations-Fragebogen ab. Das Durchschnittsalter der 62 weiblichen und 15 männlichen Teilnehmer (zwei o.A.) lag bei 34 ± 9 Jahren, die Berufserfahrung bei 8,3 ± 7,6 Jahren. 18 Personen (23%) gaben an, gelegentlich mit einem C-Bogen zu arbeiten, 61 (77%) arbeiteten regelmäßig damit. Über 83% der befragten Teilnehmer empfanden virtX als eine sinnvolle Ergänzung zur herkömmlichen Ausbildung am C-Bogen. Das virtuelle Röntgen wurde mit einer Zustimmung von 91% der befragten Teilnehmer als besonders wichtig für das Verständnis der Arbeitsweise eines C-Bogens beurteilt. Ebenso erhielt der kombinierte virtuell-reale Modus mit 84% Zustimmung einen vergleichsweise hohen Stellenwert. Schlussfolgerung: Die Befragung zeichnet ein positives Bild der Akzeptanz des virtX-System als substanzielle Ergänzung zur herkömmlichen Ausbildung am C-Bogen.
Hintergrund und Fragestellung: Die durch röntgentechnische Diagnoseverfahren in der Medizin entstehende Strahlenbelastung für Patient und Personal soll laut Strahlenschutzverordnung so gering wie möglich gehalten werden. Um dieses zu erreichen ist ein professioneller und bedachter Umgang mit den Röntgengeräten unabdingbar. Dieses Verhalten kann derzeit jedoch nur theoretisch vermittelt werden, da sich ein Üben mit realer Strahlung von selbst verbietet. Daher stellt sich die Frage wie man die Strahlenschutzausbildung durch eine verbesserte Vermittlung der komplexen Thematik unterstützen kann. Methoden: Das CBT-System (Computer Based Training) virtX, welches das Erlernen der korrekten Handhabung mobiler Röntgengeräte unterstützt, wurde um Aspekte aus dem Bereich des Strahlenschutzes erweitert. Es wurde eine prototypische Visualisierung der entstehenden Streustrahlung sowie die Darstellung des Nutzstrahlenganges integriert. Des Weiteren wurde die Berechnung und Anzeige der virtuellen Einfallsdosis für das durchstrahlte Volumen sowie für den Bereich des Bildverstärkers hinzugefügt. Für die Berechnung und Visualisierung all dieser Komponenten werden die in virtX parametrisierbaren C-Bogen-Einstellungen, z.B. Stellung der Blenden, Positionierung des Röntgengerätes zum durchstrahlten Volumen und Strahlenintensität, herangezogen. Das so erweiterte System wurde auf einem dreitägigen Kurs für OP-Personal mit über 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 55 einen ausgefüllten Evaluations-Fragebogen ab (Responserate 82%). Das Durchschnittsalter der 39 weiblichen und 15 männlichen Teilnehmer (einer o.A.) lag bei 33±8 Jahren, die Berufserfahrung bei 9,37±7 Jahren. Die Erfahrung mit dem C-Bogen wurde von einem Teilnehmer (2%) mit „Keine oder bisher nur Einführung erhalten“, von acht Teilnehmern (14%) mit „bediene einen C-Bogen gelegentlich“ und von 46 (84%) mit „bediene einen C-Bogen regelmäßig“ angegeben. 45 (92%) der Teilnehmer gaben an, durch die Visualisierung der Streustrahlung etwas Neues zur Vermeidung unnötiger Strahlenbelastung dazugelernt zu haben. Schlussfolgerung: Trotz einer bislang nur prototypischen Visualisierung der Streustrahlung können mit virtX zentrale Aspekte und Verhaltensweisen zur Vermeidung unnötiger Strahlenbelastung erfolgreich vermittelt werden und so Lücken der traditionellen Strahlenschutzausbildung geschlossen werden.
Die Arbeit thematisiert nach Erläuterungen zu den Begriffen Rechtsinformation und E-Government die heterogene Informationslandschaft der frei zugänglichen Rechtsinformation in Deutschland. Normgeber, Gerichte und Parlamente auf Ebene des Bundes und der Länder gestalten auf vielfache Weise die Internetpräsentation der Gesetze, Entscheidungen und parlamentarischen Materialien. Das Gegenmodell zu dieser auf viele Internetadressen und Webseiten verteilten Rechtsinformation stellt das österreichische Rechtsinformationssystem des Bundes (RIS) dar, das als nationale E-Government-Anwendung über eine einzige Oberfläche den Zugriff auf die Gesetze, Entscheidungen und parlamentarischen Materialien ermöglicht. Das RIS als Blaupause und unter Beachtung der Anforderungen an E-Government-Anwendungen umreißt die Arbeit Rahmenbedingungen und Ausgestaltungsmöglichkeiten für einen Portalentwurf, der als Single Point of Entry für die staatliche Rechtsinformation Deutschlands konzeptioniert ist.
Der demografische Wandel wird in den nächsten Jahren große Auswirkungen auf die Gesellschaft und auch Unternehmen haben. Die vorliegende Arbeit untersucht, wie Unternehmen davon betroffen sein werden und wie den negativen Auswirkungen mit Hilfe von Wissens- und Demografiemanagement begegnet werden kann. Zunächst wird die Prognose der Bevölkerungsentwicklung der Bundesrepublik Deutschland bis zum Jahr 2060 vorgestellt. Anschließend folgt eine Skizzierung der Herausforderungen, denen sich Unternehmen stellen müssen. Dieses sind die Alterung der Belegschaft, der voraussichtliche Fachkräftemangel und das massive Ausscheiden von Mitarbeitern in den nächsten zehn bis fünfzehn Jahren. Die Arbeit beschreibt, welche Bedeutung Kompetenzmanagement, lebenslanges Lernen und Wissensmanagement bei der Bewältigung dieser Herausforderungen haben. Eine Befragung einiger Unternehmen rundet die gewonnenen Erkenntnisse ab. Den Abschluss bilden Handlungsempfehlungen in Hinsicht auf die Unternehmenskultur, das Personal- und Wissensmanagements und die Arbeitsgestaltung.
Prozessanalyse der Dokumentation von MRP-Variations unter Berücksichtigung der Variation Regulation
(2011)
Fundierte Nachweise über Wirksamkeit, Sicherheit und Qualität eines Präparates sind die Voraussetzung für dessen Vermarktung. Diese Nachweise sind in einem Zulassungsdossier konsolidiert. Sämtliche Änderungen im Dossier müssen in Zulassungsverfahren beantragt werden, welche wiederum in einer regulatorischen Datenbank dokumentiert werden müssen. Seit Anfang 2010 reguliert die Variation Regulation derartige Änderungsanzeigen für europäisch harmonisierte Zulassungsverfahren. Im Rahmen einer Fallstudie wurden die regulatorischen und dokumentarischen Prozesse in der Regulatory Affairs Abteilung der Abbott Products GmbH analysiert. Im Fokus stand hierbei die Erfassung von Änderungsanzeigen innerhalb des Verfahrens der gegenseitigen Anerkennung in die Datenbank IRIS und in welcher Form sich die neue Verordnung auf diese Prozesse auswirken würde. Hierzu wurde in öffentlichen Publikationen und internen Dokumenten recherchiert. Interviews generierten empirische Daten zu Prozessabläufen, Konflikten und Optimierungspotentialen. Durch das ARIS-Konzept wurde ein umfangreiches Ist-Modell modelliert, das neben Geschäftsprozessen auch Informationswege, Kommunikationsflüsse und Beteiligte darstellt. In einer Risikoanalyse wurden allgemeine Kriterien für die Gefährdung einer benötigten Dokumentationsqualität in den gegenwärtigen Abläufen aufgestellt. In Verbindung mit den Resultaten der Interviews wurden detaillierte Schwachstellen benannt und im Ist-Modell kenntlich gemacht. Es zeigten sich vor allem Risiken in den Bereichen Standardisierung, Kommunikation, Fachwissen und Systemschwächen, welche hauptsächlich durch die Mitarbeiter erzeugt werden. Dies wurde durch eine quantitative Auswertung bestätigt. Optimierungsvorschläge wurden unterbreitet und teilweise bewertet. Die Verodnung (EG) Nr. 1234/2008 wurde ausführlich beschrieben, deren Neuerungen hervorgehoben und Auswirkungen auf die regulatorischen und dokumentarischen Aspekte erörtert. Eine ausführlichere Evaluierung des Einflusses der Variation Regulation ist jedoch empfehlenswert, da hier nur allgemeine Aspekte aufgegriffen wurden. Diese Arbeit stellt die Grundlagen, Methoden und Ergebnisse dieses Projektes vor und mündet in einer Reflektion und Bewertung. Das Ist-Modell wird weiterhin als Übersicht der Prozesse genutzt. Andere Ergebnisse dieser Arbeit werden für weiterführende Evaluationen und Projekte verwendet.
Die vorliegende Arbeit untersucht die Kompetenzanforderungen des aktuellen Arbeitsmarktes an Informationsmanager mit Bachelor-Abschluss. Dazu erfolgt eine statistische Erhebung von Stellenangeboten, die von Oktober 2008 bis einschließlich Mai 2010 über die bibliothekarische Diskussionsliste InetBib ausgeschrieben wurden. Nach Beschreibung der Auswertungselemente, interpretiert die Verfasserin die Ergebnisse zunächst quantitativ. Die aus den Ergebnissen gewonnenen Erkenntnisse bezüglich der Erwartungen des Arbeitsmarktes werden festgehalten und münden in einem Kompetenzprofil eines idealtypischen Informationsmanagers. In einem abschließenden Kapitel erarbeitet die Verfasserin unter Berücksichtigung der Untersuchungsergebnisse Empfehlungen für das Curriculum der Fachhochschule Hannover.
In der vorliegenden Mastererarbeit wird untersucht, wie implizites Wissen in Arbeitsteams optimal zwischen den Teammitgliedern ausgetauscht werden kann. Dazu werden Austauschmethoden für implizites Wissen und Movationstheorien analysiert. Anhand der Austauschmethoden und Motivationstheorien wird ein Modell entwickelt, das Teamleitern helfen soll, den Austausch von implizitem Wissen in Arbeitsteams am Besten zu nutzen.
Der konventionelle Auskunftstresen ist in Deutschland nach wie vor weit verbreitet. Im Falle der Zentralbibliothek der Fachhochschule (FH) Hannover wird seit Mitte 2009 auf einen solchen Tresen verzichtet. Es stellt sich die Frage inwieweit weiterhin ein zufriedenstellender Auskunftsdienst in der Bibliothek geleistet werden kann. Die vorliegende Bachelorarbeit analysiert vor diesem Hintergrund verschiedene Auskunftskonzepte, die auf einen traditionellen Auskunftsplatz verzichten. Die Autorinnen präsentieren allgemeingültige Hinweise und geben Beispiel für eine mögliche Umsetzung der Konzepte. Die Ergebnisse der Bachelorarbeit sollen zu einem effizienteren und nutzerorientierteren Auskunftsdienst führen.
Der systematische Umgang mit Wissen wird für Unternehmen immer bedeutender, seitdem Wissen als Ressource im Unternehmen erkannt wurde. Hierbei hilft der Einsatz von Knowledge Management. Die Organisation von Wissen in einem Unternehmen kann durch eine Vielzahl von Knowledge Management-Tools erfolgen. Die Auswahl des dafür geeignetsten Knowledge Management-Tools stellt viele Knowledge Manager und Mitarbeiter eines Unternehmens vor schwierige Entscheidungen. Durch eine gezielte Auswahl lässt sich die Identifizierung, der Erwerb, die Entwicklung und die (Ver)Teilung sowie die Bewahrung und die Nutzung von Wissen steigern und steuern. Ziel dieser vorliegenden Bachelorarbeit ist es, ein Auswahlverfahren zu beschreiben, das die Auswahl geeigneter Knowledge Management-Tools unterstützt. Zur Unterstützung des Verfahrens wurde die Form einer Matrix gewählt. Durch die Knowledge Management-Tool-Matrix wird Knowledge Managern und Mitarbeitern die Auswahl geeigneter Knowledge Management-Tools erleichtert und zusätzlich transparent und nachvollziehbar gemacht. Vor der Erläuterung der Knowledge Management-Tool-Matrix als neues Auswahlverfahren, beschäftigt sich die Arbeit mit den Grundlagen des Knowledge Managements und stellt das Unternehmen PricewaterhouseCoopers Aktiengesellschaft Wirtschaftsprüfungsgesellschaft vor. Anschließend werden die vorhandenen Verfahren zur Auswahl von Knowledge Management-Tools vorgestellt. Nachfolgend wird das Vorgehen zur Entwicklung der Knowledge Management-Tool-Matrix beschrieben. Die ausführliche Beschreibung der Dimensionen und der Verwendung dieser Knowledge Management-Tool-Matrix bildet den Schwerpunkt dieser Arbeit und wird von der Zusammenfassung abgeschlossen.
Unterrichtsmodell zur Entwicklung von Informationskompetenz bei Schülern der gymnasialen Oberstufe
(2011)
Die vorliegende Arbeit untersucht, welche Rolle Schulen bei der Entwicklung von Informationskompetenz spielen können. Ergebnis ist ein Unterrichtsmodell für Schüler der gymnasialen Oberstufe. Ausgehend von der Definition der Informationskompetenz werden zunächst die Angebote von Schulbibliotheken, Öffentlichen und Wissenschaftlichen Bibliotheken zur Vermittlung von Informationskompetenz an Schüler untersucht. Erfolgversprechende Konzepte, die diesen Schulungen zugrunde liegen, werden genauer betrachtet. Die dokumentierte Durchführung einer Rechercheeinführung für Schüler in Vorbereitung auf die Facharbeit liefert weitere, praxisbezogene Anhaltspunkte. Der zweite Teil der Arbeit umfasst das eigentliche Unterrichtsmodell zur Vermittlung von Informationskompetenz. Nach ausführlichen Vorüberlegungen zu materiellen und didaktischen Fragen folgen schließlich konkrete Vorschläge für einzelne Unterrichtseinheiten. Die Arbeitsblätter im Anhang der Arbeit geben Anregungen zur Gestaltung von Unterrichtsmaterialien.
Die vorliegende Bachelorarbeit beleuchtet die Sicherheitsaspekte von Webapplikationen, mit speziellem Fokus auf das CMS TYPO3. Im ersten Abschnitt werden die gesellschaftspolitischen Hintergründe von Internetkriminalität, sowie die allgemeine Rechtslage beschrieben. Der zweite Abschnitt erklärt die heutigen Angriffsmethoden, mit denen Webseiten attackiert werden. Im weiteren Verlauf der Arbeit untersucht der Autor anhand einer eigenen TYPO3 Installation, welche Möglichkeiten zur effektiven Optimierung der Sicherheit des CMS zur Verfügung stehen. Den Abschluß bilden eine Analyse der durchgeführten Maßnahmen, sowie die Aufstellung allgemeiner Richtlinien für vergleichbare Projekte.
In einem Zeitalter der Beschleunigung spielen vorhandene Zeitressourcen eine immer tragendere Rolle bei den Handlungsoptionen des Menschen. Die vorliegende Arbeit setzt diese Gegebenheit in Bezug zum Aufkommen Virtueller Bibliotheksführungen, die eine immer größere Verbreitung im World Wide Web erfahren. Ziel der Arbeit ist der Versuch, anhand einiger ausgewählter Virtueller Bibliotheksführungen, Richtlinien und Empfehlungen zur Konzeption abgeben zu können. Nach einer Einbettung Virtueller Bibliotheksführungen in soziokulturelle Zusammenhänge, die Bezug zum Phänomen der Beschleunigung nehmen, folgt über eine Gegenüberstellung verschiedener Virtueller Bibliotheksführungen, eine Erstellung einer Best Practice. Abschließend wird die entwickelte Checkliste in Bezug zur Konzeption der Virtuellen Bibliotheksführung für die Gottfried Wilhelm Leibniz Bibliothek - Niedersächsische Landesbibliothek gesetzt.
Background: Fall events contribute significantly to mortality, morbidity and costs in our ageing population. In order to identify persons at risk and to target preventive measures, many scores and assessment tools have been developed. These often require expertise and are costly to implement. Recent research investigates the use of wearable inertial sensors to provide objective data on motion features which can be used to assess individual fall risk automatically. So far it is unknown how well this new method performs in comparison with conventional fall risk assessment tools. The aim of our research is to compare the predictive performance of our new sensor-based method with conventional and established methods, based on prospective data.
Methods: In a first study phase, 119 inpatients of a geriatric clinic took part in motion measurements using a wireless triaxial accelerometer during a Timed Up&Go (TUG) test and a 20 m walk. Furthermore, the St. Thomas Risk Assessment Tool in Falling Elderly Inpatients (STRATIFY) was performed, and the multidisciplinary geriatric care team estimated the patients’ fall risk. In a second follow-up phase of the study, 46 of the participants were interviewed after one year, including a fall and activity assessment. The predictive performances of the TUG, the STRATIFY and team scores are compared. Furthermore, two automatically induced logistic regression models based on conventional clinical and assessment data (CONV) as well as sensor data (SENSOR) are matched.
Results: Among the risk assessment scores, the geriatric team score (sensitivity 56%, specificity 80%) outperforms STRATIFY and TUG. The induced logistic regression models CONV and SENSOR achieve similar performance values (sensitivity 68%/58%, specificity 74%/78%, AUC 0.74/0.72, +LR 2.64/2.61). Both models are able to identify more persons at risk than the simple scores.
Conclusions: Sensor-based objective measurements of motion parameters in geriatric patients can be used to assess individual fall risk, and our prediction model’s performance matches that of a model based on conventional clinical and assessment data. Sensor-based measurements using a small wearable device may contribute significant information to conventional methods and are feasible in an unsupervised setting. More prospective research is needed to assess the cost-benefit relation of our approach.
Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informationssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zudem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich positiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
Über die vergangenen Jahrzehnte hat sich die Interne Unternehmenskommunikation stets auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und ihre Modelle zur Motivation und Integration von Mitarbeitern den Veränderungen im strategischen und operativen Management angepasst. Ging es in den 70er und 80er Jahren dabei noch um das Herstellen von Mitarbeiterzufriedenheit, drehte sich seit den 90er Jahren in der Folge des zunehmenden globalen Wettbewerbs dann alles um das Mitarbeiterengagement.<br /> Dieser Beitrag unternimmt einen Versuch, die Geschichte der Internen Unternehmens-kommunikation in Deutschland zu beleuchten. Dazu wird der Blickwinkel des Kommunikationsmanagements eingenommen, welches die Funktion der generellen Unternehmenskommunikation und damit auch die ihrer Teildisziplin für die Anspruchsgruppe der Mitarbeiter unter betriebswirt-schaftlichen Gesichtspunkten betrachtet und in den Wertschöpfungsprozess eines Unternehmens einordnet. <br /> Es wird gezeigt, dass und wie sich die Interne Unternehmenskommunikation über die vergangenen Jahrzehnte auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und diese unterstützt hat. Die jeweiligen Lösungsansätze der Internen Kommunikation dienten immer dazu, die Mitarbeiter zum Vorteil der Unternehmensführung in das Unternehmensgeschehen zu integrieren. <br /> Und so, wie sich im Laufe der Zeit das strategische und operative Management veränderte, entwickelte sich auch die hier zu beschreibende Disziplin weiter.<br /> Unterdessen ist der Wandel Normalität geworden, doch mehr als jeder dritte Veränderungsprozess kann auch heute noch vor allem durch eine mangelnde Integration der Mitarbeiter als nicht erfolgreich betrachtet werden. Aber mehr denn je ist die kreative Beteiligung der Betroffenen und die Übernahme von Eigenverant-wortung notwendig. Entsprechende Maßnahmen der Internen Unternehmenskommunikation müssen nun aus einem Modell für Mobilisierung erwachsen.<br /> Inzwischen stellen diese Zusammenhänge die Verantwortlichen für die Interne Kommunikation vor große Herausforderungen und erfordern ein hohes Maß an Professionalität, die aber in der Praxis noch längst nicht überall Einzug gehalten hat. So gibt dieser Beitrag auch einen Ausblick auf die aktuell zu erkennenden Unterstützungspotenziale der Internen Unternehmenskommunikation im Wertschöpfungsprozess.<br />
Das Ziel dieser Arbeit ist es, ein Konzept für eine Darstellung der Personennamendatei(PND) in den Sprachen Resource Description Framework (RDF), Resource DescriptionFramework Schema Language (RDFS) und Web Ontology Language (OWL) zu entwickeln. Der Prämisse des Semantic Web folgend, Daten sowohl in menschenverständlicher als auch in maschinell verarbeitbarer Form darzustellen und abzulegen, wird eine Struktur für Personendaten geschaffen. Dabei wird von der bestehenden Daten- und Struktursituation im Pica-Format ausgegangen. Die Erweiterbarkeit und Anpassbarkeit des Modells im Hinblick auf zukünftige, im Moment gegebenenfalls noch nicht absehbare Anwendungen und Strukurveränderungen, muss aber darüber hinaus gewährleistet sein. Die Modellierung orientiert sich an bestehenden Standards wie Dublin Core, Friend Of A Friend (FOAF), Functional Requirements for Bibliographic Records (FRBR), Functional Requirements for Authority Data (FRAD) und Resource Description and Access (RDA).
Diese Arbeit dokumentiert die Konzeption und den Aufbau des institutionellen Repositoriums DORIS des Bundesamtes für Strahlenschutz. Sie beschreibt neben der Entstehung des Projektes und der Auswahl der Repositoriumssoftware insbesondere die Vorgehensweise der Bibliothek des Amtes bei der Entwicklung des Systems und erläutert die dabei vorgenommenen Anpassungen sowie die getroffenen Entscheidungen. Darüber hinaus kombiniert die Arbeit Grundlagen zum Thema "institutionelle Repositorien" mit einer Übersicht von Open-Source-Softwarelösungen und einem detaillierten Einblick in das vom Amt verwendete Produkt DSpace. Weiterhin betrachtet sie das Portable-Document-Format unter den Aspekten Langzeitarchivierung und Barrierefreiheit und bietet einen kurzen Einblick in die Aufgaben und Organisation des Bundesamtes.
Das Ziel dieser Arbeit ist es, eine kommentierte Dokumentation der Entwicklung des Kunstportals ARTRIKAT unter Verwendung des Content-Management-Systems TYPO3 zu erstellen. Das Kunstportal ARTRIKAT ist eine Community-Plattform für Kunstschaffende und Kunstinteressierte. Dort können sich die Künstler kostenpflichtig registrieren und ihre Werke in 2D- oder 3D-Galerien virtuell ausstellen und verkaufen. Außerdem stehen übliche Community-Funktionalitäten wie Terminkalender, ein internes Messaging-System sowie eine Schnittstelle zum Hochladen der Werke zur Verfügung. Das Portal beinhaltet darüber hinaus ein Nachrichten-Modul, eine Linksammlung mit geprüften Internetquellen zu kunstrelevanten Themen, einen Museumsshop und einen Kunstkatalog, in dem die Künstler mit ihren Werken vorgestellt werden. Der Hauptteil der vorliegenden Arbeit beschäftigt sich vornehmlich mit der ersten Phase der Portalentwicklung -- von der Konzeptionierung über die Programmierung bis zum Launch. Es wird untersucht, inwiefern sich TYPO3 für ein Projekt wie ARTRIKAT eignet. Außerdem beschreibt die Arbeit einige wichtige Probleme, die während der Entwicklung aufgetreten sind. Mögliche Lösungsansätze werden dargestellt.
Die psychologischen Regeln der Wahrnehmungsorganisation sind relevant für die praktische Designgestaltung. Mit einem Design soll regelmäßig eine spezifische Assoziation ausgelöst werden. Beispielsweise soll eine Medikamentenverpackung seriös wirken, ein Auto sportlich und ein Mobiltelefon innovativ. Jede Gestaltung löst beim Betrachter Assoziationen und Empfindungen aus. Beispielsweise finden die meisten Menschen einen Kreis angenehmer als eine unregelmäßig zerfaserte Form. Aus diesem Beispiel kann man ableiten: Es gibt Regeln, nach denen die menschliche Wahrnehmung verläuft. Regeln, die auf den ersten Blick für alle wahrnehmenden Menschen gelten. In der folgenden Studie wird untersucht, ob solche Regeln wirklich für alle Menschen gelten. In der folgenden Untersuchung wird speziell der Zusammenhang zwischen Persönlichkeitsunterschieden und Wahrnehmungsbewertungen untersucht. Hierfür werden Unterschiede in der Persönlichkeit der Versuchsteilnehmer mittels des Fünf-Faktoren-Modells der Persönlichkeit gemessen. Für die Untersuchung wurden insgesamt 142 Studierende der Fachhochschule Hannover gewonnen.
Nachfolgend wird der einfachste Designfall als Versuchsbasis eingesetzt: Es wird mit zwei Designgrundelementen gearbeitet, einem weißen Quadrat und einem schwarzen Kreis. Beide Elemente werden auf ihre Form reduziert, Farbe und Tiefe werden konstant gehalten. Das Versuchsmaterial besteht aus siebzehn Kombinationen eines Punktes mit einem Quadrat (Formate). Je weniger symmetrisch ein Format ist, desto hässlicher wird es bewertet. Während die allgemeinpsychologischen Hypothesen weitgehend bestätigt wurden, wurden die persönlichkeitspsychologischen Hypothesen nur teilweise bestätigt. Gewissenhafte Personen bevorzugen symmetrische Formate und bewerten diese als schöner, allerdings wird der Zusammenhang nicht signifikant. Nicht bestätigt hat sich die Erwartung, dass Personen mit hoher "Offenheit für Neues" asymmetrische Designkompositionen bevorzugen. Die Nichtbestätigung der persönlichkeitspsychologischen Hypothesen könnte an der Operationalisierung der Formate liegen. Durch Reduktion auf die Farben schwarz und weiß sowie auf die beiden Grundfiguren Quadrat und Kreis könnten nur schwache Effekte hervorgerufen worden sein. In Folgeuntersuchungen sollten durch ein modifiziertes Reizmaterial stärkere Effekte erzeugt werden. Die insgesamt geringe »Offenheit für Neues« bei den Studierenden könnte ferner zu einer Varianzeinschränkung geführt haben, so dass die Korrelationen der Wahrnehmungsurteile mit dieser Persönlichkeitsdimension nicht signifikant werden.
Die Bachelor-Arbeit beschäftigt sich hauptsächlich mit dem Fotobestand der Polizeigeschichtlichen Sammlung der Polizeiakademie Niedersachsen. Der Fotobestand der themenspezifischen Sammlung wird detailliert vorgestellt und seine Erschließung und Dokumentation näher erläutert. Es erfolgen eine fototechnische Einordnung, archivalische Vorgaben und die Betrachtung derzeitiger und zukünftiger Nutzer der Sammlung in einem Profil. <br /> Besprochen werden außerdem Verwertungsmöglichkeiten, Rechtsfragen und Aspekte der Digitalisierung von Aufnahmen. Ein konzeptioneller Datenbankaufbau stellt eine Möglichkeit der Umsetzung von Erschließungsvorgaben dar. In einem Ausblick über die zukünftige Arbeit mit dem Fotobestand werden sowohl ein weiterer Weg zur Erschließung als auch die Digitalisierung von Fotos beleuchtet. <br /> Die Arbeit schließt mit einem praktischen Leitfaden zur Erschließung des Fotobestandes der Polizeigeschichtlichen Sammlung ab, mit Hilfe dessen zukünftig Mitarbeiter der musealen Einrichtung am Bestand arbeiten können.
60 Jahre nach Ende des Zweiten Weltkrieges und der nationalsozialistischen Herrschaft befindet sich noch immer NS-Raubgut im Bestand deutscher Bibliotheken. In der vorliegenden Bachelorarbeit wird eine Übersicht zur Thematik „NS-Raubgut und Restitution in Bibliotheken“ erarbeitet. Dies geschieht mit dem Ziel, im weiteren Verlauf der Arbeit aufzuzeigen, wie diese Inhalte in die Ausbildung von Informationsfachleuten integriert werden können. Nach einer Einführung in den Themenkomplex erfolgt zunächst eine Statusermittlung des derzeitigen Umgangs mit der Thematik innerhalb der Ausbildung von Informationsfachleuten an deutschen Hochschulen. Darauf aufbauend werden Vorlesungsinhalte erarbeitet, die sich für die Vermittlung in der Ausbildung eignen. Die Betrachtung möglicher Vermittlungsformen ist ebenfalls enthalten.
Die Diplomarbeit gibt im theoretischen Teil eine Einführung in die Geschichte und den Aufbau der einzelnen Gerichtsbarkeiten in der Bundesrepublik Deutschland. Ein weiterer Schwerpunkt ist die Betrachtung des Bibliothekstyps "Gerichtsbibliothek" innerhalb des Umfeldes der Spezialbibliotheken. Erläutert wird die Rolle der Gerichtsbibiliotheken als besondere Gattung der Behördenbibliotheken und ihre damit einhergehenden Funktionen. Weiterhin werden Entstehung und Aufgaben der 2001 gebildeten Region Hannover betrachtet, welche die in der Diplomarbeit vorgestellten Gerichtsbibliotheken räumlich umfasst. Der praktische Teil zeigt anhand von zwölf Einzeldarstellungen die Bibliotheken und Büchereien aller Gerichtszweige der Region Hannover in Wort und Bild. Die Darstellungen enthalten jeweils allgemeine Informationen mit Kontaktmöglichkeiten, Öffnungszeiten, sowie die Geschichte der Trägeorganisationen bzw. der Bibliotheken, Eingegangen wird auf ihre Funktionen, Dienstleistungsangebote und Bestände. Teilweise aufgeführt werden laufende Zeitschriften und fachliche CD-ROM-Datenbanken. Eine Beschreibung der räumlichen Situation, der technischen und finanziellen Ausstattung sowie den Benutzungsbestimmungen runden die Profile ab. Darüber hinaus erörtert die Arbeitet die juristische Informationsrecherche mit Online-Diensten durch eine Zusammenstellung wichtiger Internetquellen und die Darstellung des juristischen Informationssystems "juris". Die Bedeutung neuer Medien in Gerichtsbibliotheken wird herausgestellt. Des Weiteren werden gerichtsbibliothekarisch relevante Arbeitsgemeinschaften und Zusammenschlüsse, ihre Geschichte und Kernaufgaben sowie deren Kontaktmöglichkeiten vorgestellt. Im Ausblick befasst sich die Diplomarbeit exemplarisch mit Möglichkeiten der Fortbildung an Behördenbibliotheken und zeigt Perspektiven zur Optimierung spezialbibliothekarischer Arbeitsprozesse.
Gegenstand der vorliegenden Arbeit ist die Erfassung des aktuellen Zustands, sowie die Analyse der Anforderungen und Maßnahmen von „Informations- und Wissensmanagement in New-Media Agenturen“. Hierzu werden, im ersten Teil der Arbeit, die wichtigsten Grundbegriffe erklärt und erläutert. Darauf folgt eine Anforderungsanalyse zum Einsatz von Informations- und Wissensmanagement. Diese behandelt zum einen Voraussetzungen und Rahmenbedingung sowie die Theorien von Probst, Raub und Romhardt zur Umsetzung. Danach folgt die Auswertung einer Befragung von Experten der Branche. Auf der Grundlage der gewonnen Erkenntnisse werden anschließend Lösungskonzepte vorgestellt, die besonders die Verwendung von Web 2.0-Technologien in den Vordergrund stellt. Abschließend wird eine Sammlung von Leitsätzen die wichtigsten Punkte für ein erfolgreiches Informations- und Wissensmanagement in New-Media Agenturen aufführen, welche das Potenzial allgemeiner Gültigkeit für Betriebe der New-Media Branche besitzt.
Social Software ist aus dem Alltag von Internetnutzern nicht mehr wegzudenken und hat mittlerweile auch in Bibliotheken Einzug gehalten. Die folgende Arbeit stellt die Fotocommunity Flickr vor und zeigt ihre Einsatzmöglichkeiten in Bibliotheken auf. Anhand von praktischen Beispielen werden Anwendungen erkannt und analysiert, gleichzeitig anschaulich demonstriert. Außerdem werden potentielle Einsätze in Informationseinrichtungen von Flickrs Funktionsvielfalt abgeleitet. Dabei thematisiert die Arbeit Flickr unter anderem als Bilddatenbank, als Instrument für die Unterstützung der Öffentlichkeitsarbeit und stellt digitale Bildersammlungen vor. Die Arbeit verdeutlicht damit, wie durch den Einsatz von Social Software Prozesse im Bibliotheksumfeld bereichert werden können.
Die Zahl der Internet- sowie Twitternutzer in Deutschland steigt stetig an. Der Microblogging-Dienst, Twitter, kann den Bibliotheken eine Unterstützung bei der Verbreitung von Informationen und der Vernetzung mit den Nutzern schaffen. Um den Ist-Zustand der twitternden Bibliotheken in Deutschland festzustellen, wurden 125 deutsche Hochschulbibliotheken durch eine Onlinebefragung zu der Nutzung des Dienstes befragt. Die Befragung zeigt, dass die twitternde Bibliotheken den Dienst besonders für die externe Nutzung wie z.B. Öffentlichkeitsarbeit einsetzen. Weiterhin präsentieren die Ergebnisse der Online-Befragung die Chancen und Herausforderungen des Dienstes an den Bibliotheken.
Mikro-Blogging war im Jahr 2008 das Hype-Thema des Web2.0, doch was steckt eigentlich dahinter? Die folgende Arbeit stellt Nutzen und Funktionsweise verschiedener Mikro-Blogging-Dienste und -Systeme im Unternehmensumfeld vor. Weiterhin werden einzelne Anwendungsfälle beschrieben und an Hand praktischer Beispiele belegt. Die Potenziale im internen und externen Nutzen werden ermittelt, strukturiert und erläutert, so dass sich in den Ergebnissen zeigt, wo tatsächlich ein Mehrwert erkennbar ist und warum Unternehmen Mikro-Blogging einsetzen sollten. Aber auch Kritik, Risiken und Gefahren des Mikro-Blogging werden berücksichtigt.
Die vorliegende Bachelorarbeit stellt den Einsatz von Social Software beim Regionalfernsehsender „h1 – Fernsehen aus Hannover“ dar. Nach einem kurzen Einblick in die Grundlagen von Social Software folgt die Vorstellung des Senders. Hierbei wird vor allem der organisatorische Aufbau und die Kommunikation im Sender näher betrachtet. Anschließend wird dargestellt, welche Informationsmittel bei h1 durch den Einsatz von Social Software ersetzt wurden und wie sich dadurch die Kommunikation und das Informationsmanagement innerhalb des Unternehmens verbessert hat.
During the intraoperative radiograph generation process with mobile image intensifier systems (C-arm) most of the radiation exposure for patient, surgeon and operation room personal is caused by scattered radiation. The intensity and propagation of scattered radiation depend on different parameters, e.g. the intensity of the primary radiation, and the positioning of the mobile image intensifier. Exposure through scattered radiation can be minimized when all these parameters are adjusted correctly. Because radiation is potentially dangerous and could not be perceived by any human sense the current education on correct adjustment of a C-arm is designed very theoretical. This paper presents an approach of scattered radiation calculation and visualization embedded in a computer based training system for mobile image intensifier systems called virtX. With the help of this extension the virtX training system should enrich the current radiation protection training with visual and practical training aspects.
Influence on persistence and adherence with oral bisphosphonates on fracture rates in osteoporosis
(2009)
Background and Aim:
Oral bisphosphonates have been shown to reduce the risk of fractures in patients with osteoporosis. It can be assumed that the clinical effectiveness of oral bisphosphonates depends on persistence with therapy.
Methods:
The influence of persistence with and adherence to oral bisphosphonates on fracture risk in a real-life setting was investigated. Data from 4451 patients with a defi ned index prescription of bisphosphonates were included. Fracture rates within 180, 360, and 720 days after index prescription were compared between persistent and non-persistent patients. In an extended Cox regression model applying multiple event analysis, the influence of adherence was analyzed. Persistence was defined as the duration of continuous therapy; adherence was measured in terms of the medication possession ratio (MPR).
Results:
In patients with a fracture before index prescription, fracture rates were reduced by 29% (p = 0.025) comparing persistent and non-persistent patients within 180 days after the index prescription and by 45% (p < 0.001) within 360 days. The extended Cox regression model showed that good adherence (MPR ≥ 0.8) reduced fracture risk by about 39% (HR 0.61, 95% CI 0.47–0.78; p < 0.01).
Conclusions:
In patients with osteoporosis-related fractures, good persistence and adherence to oral bisphosphonates reduced fracture risk significantly.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Qualitätsmanagementverfahren der Arbeitsgemeinschaft der Kunst- und Museumsbibliotheken (AKMB). Dargestellt werden Hintergrund, Entwicklung und Praxis des Qualitätsmanagementverfahrens. Im Fokus stehen dabei die 83 Standards der AKMB. Die Arbeit verfolgt einen sehr praxisorientierten Ansatz, beleuchtet die Standards aus mehreren Perspektiven und liefert zahlreiche Empfehlungen, Erläuterungen, Checklisten und Hintergrundinformationen. Wer sich mit Qualitätsmanagement in Bibliotheken beschäftigen, auf ein Audit vorbereiten oder einen Einblick in die Entwicklung eines QM-Verfahrens erhalten möchte, findet in der vorliegenden Arbeit entsprechende Informationen.
Institutional Repositories als zukunftsorientiertes Instrument der wissenschaftlichen Kommunikation
(2008)
Die zunehmende Finanzknappheit der öffentlichen Haushalte, die technische Entwicklung und der ständig wachsende Konkurrenzkampf in Forschung und Lehre veranlassen Universitäten und andere Institutionen dazu, über neue Kommunikationsformen nachzudenken, durch die Synergieeffekte zu erreichen sind. Weltweit führen heute unterschiedliche wissenschaftliche Einrichtungen Institutional Repositories ein bzw. nutzen sie bereits. Diese Arbeit beschreibt Entwicklungen und Hintergründe, die die Einrichtung von Institutional Repositories betreffen. Darüber hinaus werden internationale Projekte zur Einführung von institutionellen Archiven erläutert und miteinander verglichen. Anschließend beleuchtet die Autorin dieser Arbeit Fragen im Zusammenhang mit der Veröffentlichung wissenschaftlicher Literatur, wie z.B. Open Access, Selbstarchivierung, rechtliche Probleme bzw. den Aufbau und das Management eines Institutional Repositories. Die Verfasserin der Arbeit entwickelt einen Vorschlag für einen Arbeitsablauf eines Institutional Repositories.
All of us are aware of the changes in the information field during the last years. We all see the paradigm shift coming up and have some idea how it will challenge our profession in the future. But how the road to excellence - in education of information specialists in the future - will look like? There are different models (new and old ones) for reorganising the structure of education: * Integration * Specialisation * Step-by step-model * Modul System * Network System / Combination model The paper will present the actual level of discussion on building up a new curriculum at the Department of Information and Communication (IK) at the FH Hannover. Based on the mission statement of the department »Education of information professionals is a part of the dynamic evolution of knowledge society« the direction of change and the main goals will be presented. The different reorganisation models will be explained with its objectives, opportunities and forms of implementation. Some examples will show the ideas and tools for a first draft of a reconstruction plan to become fit for the future. This talk has been held at the German-Dutch University Conference »Information Specialists for the 21st Century« at the Fachhochschule Hannover - University of Applied Sciences, Department of Information and Communication, October 14 -15, 1999 in Hannover, Germany.
Die vorliegenden Diplomarbeit bietet eine Übersicht über Filmbibliotheken, Filmarchiven und anderen Bibliotheken mit Filminformationsbeständen zum Thema. Zu diesem Zweck wurden Fragebögen an Einrichtungen verschickt, deren Arbeitsgebiet der Film im weiteren Sinne ist. Das methodische Vorgehen für diese Untersuchung wird ebenso aufgezeigt wie die sich daraus ergebende Übersicht über die Filminformationsbestände in Deutschland. Zum Vergleich des Umgangs mit der Filminformation in Deutschland und im Ausland werden einige Filminformationseinrichtungen in anderen Ländern betrachtet und beschrieben. Anschließend an die Darstellungen der Informationseinrichtungen wird der Versuch einer Systematisierung der unterschiedlichen Typen von Informationseinrichtungen und der verschiedenen Themenschwerpunkte der Bestände unternommen.
Der folgende Beitrag zeigt auf, welche Wege die Fachhochschule Hannover, Fakultät Medien, Information und Design (MID) in der Abteilung Information und Kommunikation bei der Qualifizierung von Informationsfachleuten für Museumsbibliotheken beschreitet. Nach der kurzen Analyse des Kompetenzprofils wird der Studienschwerpunkt „Interne Informationseinrichtungen“ mit Lernzielen, Lerninhalten und Methodik vorgestellt. Durch die hohe Praxisorientierung laden viele aktuelle Themen zu Kooperationsmöglichkeiten zwischen Museumsbibliotheken oder der AKMB und der FH Hannover ein.
Das Projekt Promise2007 befasste sich mit der Erstellung und Auswertung einer Statistik zur Mitgliedersituation im Berufsverband Medizinischer Informatiker e.V.. Mit dem Ziel mehr über die Mitglieder und ihre derzeitige Situation zu erfahren wurde das Projekt an der Fachhochschule Hannover initiiert. Statistisch erfasst wurden Fragen zum Beschäftigungsverhältnis, zu Aus- und Weiterbildung, der beruflichen Situation und persönliche Angaben. Die Ergebnisse wurden ausgewertet und daraus wichtige Erkenntnisse für den BVMI e.V. abgeleitet, welche auf die weitere Verbandsarbeit Einfluss nehmen.
Die vorliegende Arbeit entstand im Rahmen der Diplomprüfung im Studiengang Allgemeine Dokumentation des Fachbereiches Informations- und Kommunikationswesen der Fachhochschule Hannover. Thema der Diplomarbeit sind die Konzeption und Planung der Reorganisation der Schülerbücherei und Lehrerbibliothek des Braunschweiger Gymnasiums Martino-Katharineum. Dabei wird schematisch die momentan vorherrschende Situation analysiert und nach Vergleich mit Empfehlungen aus der Literatur eine den Gegebenheiten der Schule angepasste Ideallösung entwickelt, in der die beiden Teilbibliotheken zu einem zentralen Informationszentrum zusammengelegt werden. Nach einer allgemeinen Einführung in das Thema „Schulbibliothek“ beschäftigen sich die in Form von Teilprojekten angelegten folgenden Kapitel mit den Anforderungen an Räumlichkeiten, Personal, Bestand sowie dessen Erschließung.
Background: In many research areas it is necessary to find differences between treatment groups with several variables. For example, studies of microarray data seek to find a significant difference in location parameters from zero or one for ratios thereof for each variable. However, in some studies a significant deviation of the difference in locations from zero (or 1 in terms of the ratio) is biologically meaningless. A relevant difference or ratio is sought in such cases.
Results: This article addresses the use of relevance-shifted tests on ratios for a multivariate parallel two-sample group design. Two empirical procedures are proposed which embed the relevanceshifted test on ratios. As both procedures test a hypothesis for each variable, the resulting multiple testing problem has to be considered. Hence, the procedures include a multiplicity correction. Both procedures are extensions of available procedures for point null hypotheses achieving exact control of the familywise error rate. Whereas the shift of the null hypothesis alone would give straight-forward solutions, the problems that are the reason for the empirical considerations discussed here arise by the fact that the shift is considered in both directions and the whole parameter space in between these two limits has to be accepted as null hypothesis.
Conclusion: The first algorithm to be discussed uses a permutation algorithm, and is appropriate for designs with a moderately large number of observations. However, many experiments have limited sample sizes. Then the second procedure might be more appropriate, where multiplicity is corrected according to a concept of data-driven order of hypotheses.
Background
To perform a systematic review about the effect of using clinical pathways on length of stay (LOS), hospital costs and patient outcomes. To provide a framework for local healthcare organisations considering the effectiveness of clinical pathways as a patient management strategy.
Methods
As participants, we considered hospitalized children and adults of every age and indication whose treatment involved the management strategy "clinical pathways". We include only randomised controlled trials (RCT) and controlled clinical trials (CCT), not restricted by language or country of publication. Single measures of continuous and dichotomous study outcomes were extracted from each study. Separate analyses were done in order to compare effects of clinical pathways on length of stay (LOS), hospital costs and patient outcomes. A random effects meta-analysis was performed with untransformed and log transformed outcomes.
Results
In total 17 trials met inclusion criteria, representing 4,070 patients. The quality of the included studies was moderate and studies reporting economic data can be described by a very limited scope of evaluation. In general, the majority of studies reporting economic data (LOS and hospital costs) showed a positive impact. Out of 16 reporting effects on LOS, 12 found significant shortening. Furthermore, in a subgroup-analysis, clinical pathways for invasive procedures showed a stronger LOS reduction (weighted mean difference (WMD) -2.5 days versus -0.8 days)).
There was no evidence of differences in readmission to hospitals or in-hospital complications. The overall Odds Ratio (OR) for re-admission was 1.1 (95% CI: 0.57 to 2.08) and for in-hospital complications, the overall OR was 0.7 (95% CI: 0.49 to 1.0). Six studies examined costs, and four showed significantly lower costs for the pathway group. However, heterogeneity between studies reporting on LOS and cost effects was substantial.
Conclusion
As a result of the relatively small number of studies meeting inclusion criteria, this evidence base is not conclusive enough to provide a replicable framework for all pathway strategies. Considering the clinical areas for implementation, clinical pathways seem to be effective especially for invasive care. When implementing clinical pathways, the decision makers need to consider the benefits and costs under different circumstances (e.g. market forces).
Die für die Abteilung Information und Kommunikation der Fakultät III, Medien, Information und Design – MID (im Folgenden: Abteilung IK) der Fachhochschule Hannover erarbeiteten „Empfehlungen für die Gestaltung schriftlicher Arbeiten“ bieten Anregungen und Erläuterungen zur formalen Gestaltung von schriftlichen Arbeiten, die von den Studierenden im Laufe ihres Studiums an der Abteilung IK als Studien- oder Prüfungsleistungen zu erbringen sind. Sie bringen teilweise ausführliche Beispiele und legen beson-deres Gewicht auf eine Darstellung der Zitiertechnik und der Zitierregeln (auch von Internet-Dokumenten). Weitere Schwerpunkte dieser Empfehlungen sind besondere Richtlinien für die Gestaltung von Diplom- oder Bachelorarbeiten, eine Auflistung der diesen Empfehlungen zugrunde gelegten Literatur und Anhänge (mit Beispielen zur Gestaltung von Titelseiten und Inhaltsverzeichnissen).
In diesem Beitrag erfahren Sie, warum das Wir-Gefühl vergangener Zeiten heutzutage nicht mehr fruchten kann und wie Mitarbeiterbindung in Zeiten des Wandels wertschöpfend herbeigeführt werden kann. Desweiteren wird geklärt, welche Bedeutung ein glaubwürdiges Wertesystem im Unternehmen für die Wertschöpfung hat, welche Kommunikationsaufgaben dem Management dabei zukommen und warum Verständnis bedeutsamer ist als das (Wir-)Gefühl.
Die vorliegende Arbeit gibt anhand statistischer Untersuchungen einen Einblick in die derzeitige Arbeitsmarktsituation für Spezialbibliothekare in Deutschland. Es wird untersucht, in welchem Umfang Spezialbibliotheken in deutschen Statistiken erfasst sind. Dabei werden auch Auswertungen hinsichtlich ihrer Bestandsgröße und Personalstellenzahl durchgeführt. Den Schwerpunkt der Arbeit bildet die Analyse von Stellenanzeigen, die Positionen in internen Informationseinrichtungen ausschreiben, im Hinblick auf verschiedene Aspekte. Diese statistischen Untersuchungen geben Aufschluss darüber, wie sich die Arbeitsmarktsituation für Beschäftigte in Spezialbibliotheken derzeit darstellt. Dabei werden einerseits quantitative Aussagen getroffen, die Rückschlüsse auf den Umfang des spezialbibliothekarischen Arbeitsmarktes zulassen. Andererseits erfolgt eine qualitative Analyse, indem die von Arbeitgebern gebotenen Beschäftigungsverhältnisse sowie die an zukünftige Stelleninhaber gestellten spezifischen Anforderungen hinsichtlich ihrer Qualifikation näher betrachtet werden.
Die vorliegende Arbeit bietet eine Einführung in die am weitesten verbreiteten Methoden der Usability Evaluation, die heuristische Evaluation und den Usability Test. Beide Methoden werden vorgestellt und anhand von vier Bibliothekskatalogen angewendet. Untersuchungsgegenstand sind die Bibliothekskataloge der Stadtbücherei Bamberg, der Stadtbücherei Würzburg, der Stadtbücherei Augsburg und der Stadtbücherei Osnabrück.
Noch bis vor wenigen Jahren galt die interne Kommunikation in den meisten Unternehmen im Vergleich zur Kommunikation mit externen Zielgruppen als deutlich weniger anspruchsvoll oder gar als in irgendeiner Weise wettbewerbsrelevant. Wurde sie lange als reine Sozialleistung betrachtet, rückt sie nun - insbesondere vor dem Hintergrund voranschreitender Globalisierung und ihren Auswirkungen auf die Wettbewerbsfähigkeit der Unternehmen - langsam als strategisches Führungsinstrument in das Bewusstsein vieler Unternehmenslenker. Denn mehr und mehr wird deutlich, dass die eigenen Mitarbeiter ausschlaggebender Faktor bei der Bewältigung von Veränderungen sind.
Innovationen am Fachbereich Informations- und Kommunikationswesen an der Fachhochschule Hannover
(2003)
Dieser Beitrag informiert über den aktuellen Stand der Ausbildung von Informationsspezialisten am Fachbereich Informations- und Kommunikationswesen (FB IK) an der Fachhochschule Hannover (FHH) im Frühjahr 2002. Im Mittelpunkt steht das Resultat der zukunftsorientierten Weiterentwicklung und Integration der beiden bisherigen Studiengänge „Allgemeine Dokumentation“ und „Bibliothekswesen“ - der neue Studiengang „Informationsmanagement“. Des Weiteren wird die Einführung von Qualitätsmanagement am FB IK vorgestellt.
This assignment is about the development of a general strategic marketing plan for academic libraries in Germany and can be used as a guideline for libraries that want to develop concrete marketing strategies for several products and services. Two examples of marketing projects are at its end presented for linking theoretical approaches to practice. Finally the development of an own marketing strategy for “information literacy” builds the last part of the assignment.
Ob Veränderungsprojekte in Organisationen erfolgreich sind, hängt entscheidend davon ab, ob und wie die entwickelten Lösungen von den betroffenen Mitarbeitern angenommen und umgesetzt werden. Es sind nicht wirklich die Unternehmen, die sich verändern: Der Wandel muss in und mit den Menschen in den Unternehmen stattfinden. Dies kann aber nur durch Überzeugung gelingen und zwar im wesentlichen herbeigeführt durch Kommunikation. Von Bedeutung sind jedoch nicht so sehr die Massenmedien wie die Mitarbeiterzeitschrift, Broschüren oder das Intranet. Mit ihnen wird der Veränderungsprozess angestoßen und laufend unterstützt. Entscheidend für seinen Erfolg oder Misserfolg ist jedoch die geplante und organisierte persönliche Kommunikation vor allem zwischen dem Management und den Mitarbeitern. Führungskräfte müssen sich ihrer Rolle als Meinungsführer und Meinungsbildner bewusst werden und entsprechend handeln. Dazu gehört auch das Kommunikationsmanagement und der phasengerechte Einsatz von Kommunikationsinstrumenten zum gewünschten Zweck.
Einbände und Sammler - Joseph von Laßberg und das Lindauer Evangeliar (Pierpont Morgan Library Ms 1)
(2002)
Der Aufsatz schildert einen Teil der Besitzgeschichte des berühmten karolingischen Lindauer Evangeliars, das sich heute als wertvollstes Stück in der Pierpont Morgan Library in New York befindet. Von 1816 bis 1846 befand sich der Codex in Besitz des schwäbischen Handschriftensammlers Joseph von Laßberg, dem Schwager der Annette von Droste-Hülshoff.
Kapitel (1) bildet die Annäherung aus der Perspektive der Qualifikationsforschung. Die methodischen Grundlagen der Qualifikationsforschung bilden die Basis für die spätere Bestimmung der Qualifikationsanforderungen und des Kompetenzprofils. Gleichzeitig wird das Thema in den größeren Kontext der Qualifikationsentwicklung in der Informations- und Wissensgesellschaft gestellt. Aus der Sicht der Qualifikationsforschung ergeben sich Folgerungen für die künftige Qualifikation der Informationsberufe im allgemeinen, die für die Qualifizierung von Spezialbibliothekaren zu berücksichtigen sind. Im Kapitel (2) werden die bibliothekstypologischen Grundlagen des Themas gelegt. Aus der Unschärfe des Terminus' Spezialbibliothek ergibt sich die Notwendigkeit einer präzisierten Definition. Neben der Analyse der bisherigen Begriffsbestimmungen wird der Bibliothekstyp gegen benachbarte und verwandte Informationseinrichtungen abgegrenzt. Die Entstehung von Spezialbibliotheken, ihre Heterogenität und Quantität sowie die Vorstellung der spezialbibliothekarischen Arbeitsgemeinschaften und Organisatio-nen verdeutlichen die Situation der Spezialbibliotheken in Deutschland. Kapitel (3) untersucht die Personalsituation und den Arbeitsmarkt Spezialbibliotheken. Die quantitative Analyse des Arbeitsmarkts basiert auf der deutschen Bibliotheksstatistik, die um Hochrechnungen ergänzt wurde. Für die qualitative Untersuchung erfolgte eine Auswertung von Stellenanzeigen für Positionen in Spezialbibliotheken. In Kapitel (4) werden als weitere Voraussetzung für die Bestimmung der Qualifikationsanforderungen die Aufgaben und der Betrieb von Spezialbibliotheken aus der Sicht der Bibliothekspraxis dargelegt. Die Ausführungen zeigen die Vielfalt der Tätigkeiten, die besondere Arbeitssituation und Gewichtung der Aufgaben – auch im Vergleich zu großen wissenschaftlichen Bibliotheken. Kapitel (5) wertet zunächst bereits vorliegende Veröffentlichungen zu Qualifikationsanforderungen an Bibliothekare und Dokumentare aus. Auf Grundlage der Ergebnisse und der Erkenntnisse aus den vorangegangenen Kapiteln wird das spezialbibliothekarische Anforderungsprofil erarbeitet. Die Formulierung des Kompetenzprofils erfolgt in sechs differenzierten Kompetenzbereichen. Die Kompetenzbereiche werden definiert und anhand der Kriterien Inhalt, Praxis und Vermittlung detailliert beschrieben. In Kapitel (6) schließt sich die Untersuchung der gegenwärtigen bibliothekarischen und dokumentarischen Ausbildung im Hinblick auf eine spätere Tätigkeit in Spezialbibliotheken an. Bestehende Schwächen aber auch positive Veränderungstendenzen werden aufgezeigt. Des weiteren wird die Fortbildungssituation analysiert und der spezialbibliothekarische Lernbedarf bestimmt. Aus der Diskrepanz zwischen der gegenwärtigen Sachlage der Aus- und Fortbildung und den Anforderungen des Kompetenzprofils lassen sich Vorschläge zur Optimierung der Qualifizierung von Spezialbibliothekaren ableiten. Diese Anregungen werden in Kapitel (7) ausgeführt, bezogen auf drei Qualifizierungsphasen: Ausbildung, Übergang von der Ausbildung in die Berufspraxis und Fortbildung.