Refine
Year of publication
Document Type
- Article (523)
- Conference Proceeding (158)
- Bachelor Thesis (148)
- Report (101)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
Is part of the Bibliography
- no (1312)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
Studierende
(1999)
Forschung
(1998)
Internationalität
(1998)
Blickpunkt Zukunft
(1997)
Für die Studiengang-Auswahl existiert eine Reihe i. d. R. Fragebogen-gestützter Online-Studiengangfinder. Eine Analyse zeigte Optimierungspotenziale: Studienangebote sind meist auf ein Bundesland oder eine Hochschule beschränkt oder, allgemein beschrieben, die individuelle Studiengang-Auswahl ist nur mit Unschärfen möglich. Letzteres wirkt sich z. B. bei Bindestrich-Studiengängen (z. B. Wirtschaftsingenieurwesen) aus, die je nach Hochschule inhaltlich variieren können. Hier setzt das Portal an. Ziele sind: Bereitstellung der in der Sprachwelt Studieninteressierter gehaltenen Fragebögen, Möglichkeit für Hochschulen/Einrichtungen, Studiengänge bereitzustellen.
Background: Given both the increase of nursing home residents forecast and challenges of current interprofessional interactions, we developed and tested measures to improve collaboration and communication between nurses and general practitioners (GPs) in this setting. Our multicentre study has been funded by the German Federal Ministry of Education and Research (FK 01GY1124).
Methods: The measures were developed iteratively in a continuous process, which is the focus of this article. In part 1 “exploration of the situation”, interviews were conducted with GPs, nurses, nursing home residents and their relatives focusing on interprofessional interactions and medical care. They were analysed qualitatively. Based on these results, in part 2 “development of measures to improve collaboration”, ideas for improvement were developed in nine focus groups with GPs and nurses. These ideas were revisited in a final expert workshop. We analysed the focus groups and expert workshop using mind mapping methods, and finally drew up the compilation of measures. In an exploratory pilot study "study part 3" four nursing homes chose the measures they wanted to adopt. These were tested for three months. Feasibility and acceptance of the measures were evaluated via guideline interviews with the stakeholders which were analysed by content analyses.
Results: Six measures were generated: meetings to establish common goals, main contact person, standardised pro re nata medication, introduction of name badges, improved availability of nurse/GP and standardised scheduling/ procedure for nursing home visits. In the pilot study, the measures were implemented in four nursing homes. GPs and nurses reviewed five measures as feasible and acceptable, only the designation of a “main contact person” was not considered as an improvement.
Conclusions: Six measures to improve collaboration and communication could be compiled in a multistep qualitative process respecting the perspectives of involved stakeholders. Five of the six measures were positively assessed in an exploratory pilot study. They could easily be transferred into the daily routine of other nursing homes, as no special models have to exist in advance. Impact of the measures on patient oriented outcomes should be examined in further research.
Trial registration: Not applicable.
Delphi is a frequently used research method in the information systems (IS) field. The last fifteen years have seen many variants of the Delphi Method proposed and used in IS research. However, these variants do not seem to be properly derived; while all variants share certain characteristics, their reasoning for differentiation inconsistently varies. It seems that researchers tend to create “new” Delphi Method variants, although the underlying modification of the Delphi Method is, in fact, minor. This leads to a heterogeneity of Delphi Method variants and undermines scientific rigor when using Delphi. The study addresses this deficit and (1) identifies different variants of Delphi and determines their characteristics, (2) critically reflects to what extent a clear distinction between these variants exists, (3) shows the clearly distinguishable Delphi Method variants and their characteristics, (4) develops a proposed taxonomy of Delphi Method variants, and (5) evaluates and applies this taxonomy. The proposed taxonomy helps clearly differentiate Delphi Method variants and enhances methodological rigor when using the Delphi Method.
Forschungsgegenstand der Bachelorarbeit ist der politisch gefärbte und direktiv gestaltete Aushandlungs- und Planungsprozess für die Bebauung eines zentralen innerstädtischen Platzes in Hannover. Entlang der Leitfrage, wie der demokratische Anspruch nach Bürger*innenbeteiligung in Stadtentwicklungsprozessen aus den Konzepten in die Umsetzung gelangt und welche Bevölkerungsgruppen in eben diesen Prozessen Ein- und Ausschlüsse erfahren, welche sie reproduzieren, finden eine mehrschichtige Verlaufsuntersuchung und eine Rückbindung in mögliche Betätigungsfelder der Sozialen Arbeit statt.
Der Bachelorarbeit vorangegangen ist ein Praxisseminar zur Gemeinwesenarbeit und Öffentlichkeit, in welchem eine Feldanalyse stattfand. Anhand von angekündigten leitfadengestützen Expert*inneninterviews und qualitativen Interviews auf dem besagten Platz kristallisierte sich die offensichtliche Unkenntnis der Passant*innen über die Bebauungspläne heraus: Ein von offizieller Seite betontes Beteiligungsverfahren zur Neugestaltung ist den Nutzer*innen vielfach nicht bekannt gewesen.
Methodisch wurde anhand des Governancekonzepts nach Baum (2012), Klöti (2016) und Walk (2011) und der „unternehmerischen Stadt“ nach Harvey (1989) die Einbindung von Sozialer Arbeit in Stadtentwicklungsprozesse analysiert. Ausgewertet wurden die Dokumentationen der Innenstadtforen im Rahmen des Policykonzepts „Hannover City 2020+“. Festzuhalten gilt, dass die zentrale Aufgabe der Sozialen Arbeit in diesem Zusammenhang benannt werden kann als die Thematisierung von sozialem Ausschluss (Anhorn & Bettinger 2005) und den hohen Voraussetzungen für den Zugang zu Beteiligung und Mitgestaltung des öffentlichen Raumes. Gezeigt wird, dass das erste Beteiligungsverfahren einer Scheinbeteiligung (Arnstein 1969) zur Legitimation von Ergebnissen aus Behörden- und Expert*innenenrunden diente; viele der eigentlichen Nutzer*innen des Platzes wurden nicht erreicht und beteiligt, da die Strukturen des Partizipationsangebotes zu hochschwellig und exklusiv angelegt waren. Es wird deutlich, dass die öffentlichen Verfahren bestenfalls der Information gedient haben.
Diese Arbeit ist ein Plädoyer für eine planungsbezogene Soziale Arbeit (Drilling & Oehler 2013), welche sich räumlich-reflexiv und aktiv in die Gestaltung und Planung von Stadt einbringt, anstatt nur im Nachhinein daraus entstandene Konflikte und Probleme wie Ausschluss und Verdrängung von Randgruppen zu bearbeiten. Im bisherigen Prozess hat Soziale Arbeit die Aufgabe, sich kritisch im Interesse der marginalisierten Nutzer*innengruppen einzubringen und advokatisch tätig zu sein, bzw. darüber hinaus diese dabei zu unterstützen sich wirkungsvoll einzubringen, nicht wahrgenommen. In dem kommenden Verfahren 2018 bietet sich die Chance einer inkludierenderen Beteiligung durch Methoden der Bürger*innenbeteiligung wie bspw. der Zukunftswerkstatt (Dienel 2011: 208ff) direkt auf dem Platz, in denen gegebenenfalls mehr Menschen zu Wort kommen als bei den bisherigen Verfahren.
Objectives:
The aim was to identify theoretically expected as well as actually reported benefits from drug development and the importance of individual patient benefits compared to the collective benefits to society in general.
Background:
Ethical guidelines require that clinical research involving humans offer the potential for benefit. A number of characteristics can be applied to define research benefit. Often benefit is categorized as being either direct or indirect. Indirect benefits can involve collective benefits for society rather than any benefits to the trial patient or subject. The purpose of this review was to examine which potential individual and societal benefits were mentioned as being expected in publications from government experts and which were mentioned in publications describing completed drug development trial results.
Methods:
Literature on research benefit was first identified by searching the PubMed database using several combinations of the key words benefit and clinical research. The search was limited to articles published in English. A Google search with the same combinations of key words but without any language limitation was then performed. Additionally, the reference lists of promising articles were screened for further thematically related articles. Finally, a narrative review was performed of relevant English- and German-language articles published between 1996 and 2016 to identify which of several potential benefits were either theoretically expected or which were mentioned in publications on clinical drug development trial results.
Results:
The principal benefits from drug development discussed included 2 main types of benefit, namely individual benefits for the patients and collective benefits for society. Twenty-one of an overall total of 26 articles discussing theoretically expected benefits focused on individual patient benefits, whereas 17 out of 26 articles mentioned collective benefits to society. In these publications, the most commonly mentioned theoretically expected individual patient benefit was the chance to receive up-to-date care (38.1%). A general increase in knowledge about health care, treatments, or drugs (70.6%) was the most commonly mentioned theoretically expected benefit for society. In contrast, all 13 publications reporting actual benefits of clinical drug development trials focused on personal benefits and only 1 of these publications also mentioned a societal benefit. The most commonly mentioned individual benefit was an increased quality of life (53.9%), whereas the only mentioned collective benefit to society was a general gain of knowledge (100.0%).
Conclusions:
Both theoretically expected and actually reported benefits in the majority of the included publications emphasized the importance of individual patient benefits from drug development rather than the collective benefits to society in general. The authors of these publications emphasized the right of each individual patient or subject to look for and expect some personal benefit from participating in a clinical trial rather than considering societal benefit as a top priority. From an ethical point of view, the benefits each individual patient receives from his or her participation in a clinical trial might also be seen as a societal benefit, especially when the drug or device tested, if approved for marketing, would eventually be made available for other similar patients from the country in which the clinical trial was conducted.
Roads to Health in Developing Countries: Understanding the Intersection of Culture and Healing
(2017)
Background:
The most important attribute to which all human beings aspire is good health because it enables us to undertake different forms of activities of daily living. The emergence of scientific knowledge in Western societies has enabled scientists to explore and define several parameters of health by drawing boundaries around factors that are known to influence the attainment of good health. For example, the World Health Organization defined health by taking physical and psychological factors into consideration. Their definition of health also included a caveat that says, “not merely the absence of sickness.”
This definition has guided scientists and health care providers in the Western world in the development of health care programs in non-Western societies.
Objective:
However, ethnomedical beliefs about the cause(s) of illness have given rise to alternative theories of health, sickness, and treatment approaches in the developing world. Thus, there is another side to the story.
Method:
Much of the population in developing countries lives in rural settings where the knowledge of health, sickness, and care has evolved over centuries of practice and experience. The definition of health in these settings tends to orient toward cultural beliefs, traditional practices, and social relationships. Invariably, whereas biomedicine is the dominant medical system in Western societies, traditional medicine — or ethno-medicine — is often the first port of call for patients in developing countries.
Results:
The 2 medical systems represent, and are influenced by, the cultural environment in which they exist. On one hand, biomedicine is very effective in the treatment of objective, measurable disease conditions. On the other hand, ethnomedicine is effective in the management of illness conditions or the experience of disease states. Nevertheless, an attempt to supplant 1 system of care with another from a different cultural environment could pose enormous challenges in non-Western societies.
Conclusion:
In general, we, as human beings, are guided in our health care decisions by past experiences, family and friends, social networks, cultural beliefs, customs, tradition, professional knowledge, and intuition. No medical system has been shown to address all of these elements; hence, the need for collaboration, acceptance, and partnership between all systems of care in cultural communities. In developing countries, the roads to health are incomplete without an examination of the intersection of culture and healing. Perhaps mutual exclusiveness rather inclusiveness of these 2 dominant health systems is the greatest obstacle to health in developing countries.
One of the main concerns of this publication is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use, water use or resource consumption, production capacities, geographic distribution, etc.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
Objective: To evaluate the impact of different dissemination channels on the awareness and usage of hospital performance reports among referring physicians, as well as the usefulness of such reports from the referring physicians’ perspective.
Data sources/Study setting: Primary data collected from a survey with 277 referring physicians (response rate = 26.2%) in Nuremberg, Germany (03–06/2016).
Study design: Cluster-randomised controlled trial at the practice level. Physician practices were randomly assigned to one of two conditions: (1) physicians in the control arm could become aware of the performance reports via mass media channels (Mass Media, npr MM=132, nph MM=147); (2) physicians in the intervention arm also received a printed version of the report via mail (Mass and Special Media, npr MSM=117; nph MSM=130). <br> Principal findings: Overall, 68% of respondents recalled hospital performance reports and 21% used them for referral decisions. Physicians from the Mass and Special Media group were more likely to be aware of the performance reports (OR 4.16; 95% CI 2.16–8.00, p < .001) but not more likely to be influenced when referring patients into hospitals (OR 1.73; 95% CI 0.72–4.12, p > .05). On a 1 (very good) to 6 (insufficient) scale, the usefulness of the performance reports was rated 3.67 (±1.40). Aggregated presentation formats were rated more helpful than detailed hospital quality information.
Conclusions: Hospital quality reports have limited impact on referral practices. To increase the latter, concerns raised by referring physicians must be given more weight. Those principally refer to the underlying data, the design of the reports, and the lack of important information.
Background: Physician-rating websites (PRWs) may lead to quality improvements in case they enable and establish a peer-to-peer communication between patients and physicians. Yet, we know little about whether and how physicians respond on the Web to patient ratings.
Objective: The objective of this study was to describe trends in physicians’ Web-based responses to patient ratings over time, to identify what physician characteristics influence Web-based responses, and to examine the topics physicians are likely to respond to.
Methods: We analyzed physician responses to more than 1 million patient ratings displayed on the German PRW, jameda, from 2010 to 2015. Quantitative analysis contained chi-square analyses and the Mann-Whitney U test. Quantitative content techniques were applied to determine the topics physicians respond to based on a randomly selected sample of 600 Web-based ratings and corresponding physician responses.
Results: Overall, physicians responded to 1.58% (16,640/1,052,347) of all Web-based ratings, with an increasing trend over time from 0.70% (157/22,355) in 2010 to 1.88% (6377/339,919) in 2015. Web-based ratings that were responded to had significantly worse rating results than ratings that were not responded to (2.15 vs 1.74, P<.001). Physicians who respond on the Web to patient ratings differ significantly from nonresponders regarding several characteristics such as gender and patient recommendation results (P<.001 each). Regarding scaled-survey rating elements, physicians were most likely to respond to the waiting time within the practice (19.4%, 99/509) and the time spent with the patient (18.3%, 110/600). Almost one-third of topics in narrative comments were answered by the physicians (30.66%, 382/1246).
Conclusions: So far, only a minority of physicians have taken the chance to respond on the Web to patient ratings. This is likely because of (1) the low awareness of PRWs among physicians, (2) the fact that only a few PRWs enable physicians to respond on the Web to patient ratings, and (3) the lack of an active moderator to establish peer-to-peer communication. PRW providers should foster more frequent communication between the patient and the physician and encourage physicians to respond on the Web to patient ratings. Further research is needed to learn more about the motivation of physicians to respond or not respond to Web-based patient ratings.
Das Konzept soll eine Grundlage zur Bereitstellung von Open Educational Resources (OER) für Studierende der Hochschule Hannover sein. Entstanden ist dieses auf Grundlage eines Studierendenprojektes (Bereitstellung von OER auf einer geeigneten Plattform) des Studiengangs "Informationsmanagement – berufsbegleitend". Aufgrund der kurzen Projektzeit, Schwierigkeiten bei der Auswahl einer geeigneten Plattform und einer problematischen Inhaltsrecherche konnte keine langfristige Lösung zur Bereitstellung von OER gefunden werden. Dieses Konzept soll die Erfahrungen der Projektgruppe zusammenfassen und an die Bibliothek der Hochschule Hannover sowie das E-Learning-Center weitergegeben werden. Ergänzt wird das Konzept durch allgemeine Informationen zu OER, Vorschläge für die Bereitstellung und Ideen für das weitere Vorgehen.
Demografieorientiertes Personalmanagement in kleinen und mittleren wissenschaftlichen Bibliotheken
(2017)
Der demografische Wandel stellt für das Personalmanagement eine Herausforderung dar, mit der sich auch Bibliotheken auseinandersetzen müssen. Die vorliegende Arbeit setzt sich mit der Frage auseinander, welche Maßnahmen des Personalmanagements kleine und mittlere wissenschaftliche Bibliotheken anwenden und inwiefern sie damit auf den demografischen Wandel vorbereitet sind. Der erste Teil der Arbeit umfasst die theoretischen Grundlagen. Dafür werden zunächst die zentralen Begriffe demografischer Wandel, Personalmanagement sowie Personalentwicklung definiert. Anschließend werden Handlungsfelder sowie deren Bedeutung für ein demografieorientiertes Personalmanagement dargestellt. Diese umfassen die Altersstrukturanalyse, die Personalgewinnung, die Personalbindung, die Personalentwicklung, die Gesundheitsförderung und das Gesundheitsmanagement sowie den Wissenstransfer. Sie beinhalten außerdem auch Beispiele von Maßnahmen aus größeren wissenschaftlichen sowie öffentlichen Bibliotheken. Die aus einer Befragung gewonnenen Erkenntnisse über die Maßnahmen des Personalmanagements in kleinen und mittleren wissenschaftlichen Bibliotheken werden im zweiten Teil der Arbeit beschrieben. Abschließend werden anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse Handlungsempfehlungen für die Zielgruppe der kleinen und mittleren wissenschaftlichen Bibliotheken gegeben.
Editorial for the 17th European Networked Knowledge Organization Systems Workshop (NKOS 2017)
(2017)
Knowledge Organization Systems (KOS), in the form of classification systems, thesauri, lexical databases, ontologies, and taxonomies, play a crucial role in digital information management and applications generally. Carrying semantics in a well-controlled and documented way, Knowledge Organization Systems serve a variety of important functions: tools for representation and indexing of information and documents, knowledge-based support to information searchers, semantic road maps to domains and disciplines, communication tool by providing conceptual framework, and conceptual basis for knowledge based systems, e.g. automated classification systems. New networked KOS (NKOS) services and applications are emerging, and we have reached a stage where many KOS standards exist and the integration of linked services is no longer just a future scenario. This editorial describes the workshop outline and overview of presented papers at the 17th European Networked Knowledge Organization Systems Workshop (NKOS 2017) which was held during the TPDL 2017 Conference in Thessaloniki, Greece.
The amount of papers published yearly increases since decades. Libraries need to make these resources accessible and available with classification being an important aspect and part of this process. This paper analyzes prerequisites and possibilities of automatic classification of medical literature. We explain the selection, preprocessing and analysis of data consisting of catalogue datasets from the library of the Hanover Medical School, Lower Saxony, Germany. In the present study, 19,348 documents, represented by notations of library classification systems such as e.g. the Dewey Decimal Classification (DDC), were classified into 514 different classes from the National Library of Medicine (NLM) classification system. The algorithm used was k-nearest-neighbours (kNN). A correct classification rate of 55.7% could be achieved. To the best of our knowledge, this is not only the first research conducted towards the use of the NLM classification in automatic classification but also the first approach that exclusively considers already assigned notations from other
classification systems for this purpose.
For indexing archived documents the Dutch Parliament uses a specialized thesaurus. For good results for full text retrieval and automatic classification it turns out to be important to add more synonyms to the existing thesaurus terms. In the present work we investigate the possibilities to find synonyms for terms of the parliaments thesaurus automatically. We propose to use distributional similarity (DS). In an experiment with pairs of synonyms and non-synonyms we train and test a classifier using distributional similarity and string similarity. Using ten-fold cross validation we were able to classify 75% of the pairs of a set of 6000 word pairs correctly.
Die Digitalisierung birgt sowohl für den Unternehmer, als auch für den Kunden diverse Vorteile. Als Instrument zur Veranschaulichung dieser Vorteile dienen vor allem Service-Apps, welche bereits von großen Unternehmen beispielsweise zur Produktnachverfolgung etabliert wurden. Das Mittelstand 4.0 – Kompetenzzentrum Hannover legt den Fokus auf kleine und mittelständische Produktionsbetriebe und vermittelt das Potenzial der Digitalisierung im Rahmen von Industrie 4.0. Dies geschieht anhand einer Produktionslinie personalisierter Kugelschreiber und einer zu Demonstrationszwecken entwickelten App für mobile Endgeräte. Konzeptionierung, Entwicklung und Umsetzung dieser App werden genauestens aufgeführt und erläutert. Die App wurde unter dem Betriebssystem Android entwickelt und gliedert sich in sieben Phasen, beginnend mit der Anforderungsanalyse bis hin zur Veröffentlichung im Google Play Store. Während der Unternehmer die Möglichkeit geboten bekommt, Rückschlüsse als Entscheidungshilfe zur effizienteren Gestaltung der Produktion zu nutzen, ist der Kunde in der Lage, seine Aufträge echtzeitnah in der Produktion nachzuverfolgen und gegebenenfalls Änderungen vorzunehmen.
Das Erreichen eines höheren Bildungsstands gegenüber dem Bildungsstand der Eltern ist häufig mit einer Bewältigung von herkunftsbedingten Widerständen verbunden. Neben leistungsbezogenen Anforderungen an Bildungsaufsteiger sind häufig auch psychosoziale Anforderungen zu bewältigen, die durch einen Aufstieg in eine höhere soziale Schicht entstehen. Nachfolgend wird untersucht, ob Resilienz ein Einflussfaktor auf Bildungsaufstieg ist oder nicht. Es wurde eine Datenerhebung an 157 Studierenden der Hochschule Hannover durchgeführt. Zwischen den 77 Bildungsaufsteigern und den 80 Nichtbildungsaufsteigern dieser Stichprobe wurde kein signifikanter Unterschied hinsichtlich Resilienz gefunden. In einer Vorstudie wurde mit der Resilienzskala RS-29 die Resilienzskala RS-25 (Schumacher et al., 2005) weiterentwickelt und empirisch überprüft. Eine Datenerhebung der RS-29 an 416 Studierenden der Hochschule Hannover bestätigte drei vermutete Faktoren tendenziell.
Die Studie gibt einen Überblick über Energiemanagementfunktionen und deren Integration in Automatisierungssysteme. Sie besteht aus den folgenden Teilen:
1.) Bestandsaufnahme und Marktübersicht von Energiemanagementsystemen, insbesondere von den an der Studie beteiligten Firmen und zwei weitere Produkte als Referenz.
2.) Anwenderinterviews mit Anwendern aus verschiedenen Schlüsselindustrien der Prozess- und Fertigungsautomatisierung zur Evaluierung künftiger Anforderungen und Erwartungen an ein Energiemanagement insbesondere auch im Hinblick auf die Integration in Automatisierungssysteme.
3.) Bedeutung des Energiemanagements in der Zukunft und daraus abzuleitende Maßnahmen.
A systematic review of the literature on survey questionnaires to assess self-medication practices
(2017)
Self-medication is of great public health importance as it often bypasses regulatory mechanisms to assure quality of health care. Nevertheless there are no established standards on how to assess self-medication. We therefore intended to systematically retrieve questionnaires and survey tools used to capture self-medication, with the aim to identify the scope of information investigated in this context and commonalities between the tools. We conducted a systematic review of the literature on questionnaires used for self-medication assessment by searching PubMed and Web of Science databases using the combinations of following keywords; self-medication, self-prescription, non-prescription, questionnaire. Truncation was used to ensure retrieval of all possible variations of search terms. The search was limited to articles published between 1st January 2000 and 31st December 2015, human studies and English language. Duplicate and irrelevant studies were excluded from the final review. A total of 158 studies were included in the review. Studies were from diverse geographical locations, most of the studies were from Nigeria 16 (10.1%) followed by India 10 (6.3%) and Iran 8 (5%). Forty-three studies (27.2%) focused on antibiotic self-medication. Majority of the studies (106; 67%) were done with adult populations. The components addressed by the questionnaires covered: reasons for self-medications in 147 (93%) studies, purchasing source in 136 (86%) studies, medical conditions to be treated in 153 (96.8%) studies, adverse events in 67 (42.4%) studies, use of prescribing information in 24 (15.1%) studies and antibiotic resistance awareness in 20 (46.5%) antibiotic studies. For 74 (46.8%) studies, survey questionnaires were self-administered and most studies (57; 36%) were done at homes of respondents. Thirty-seven (23.4%) studies did not report any recall period for self-medication practices. Study response rates varied from 17.9% to 100%, and while validity of the study questionnaire was reported for 100 (63.3%) studies, 15 (9.5%) studies reported reliability test of the study questionnaire. There is a large variety of questionnaires being used for investigating self-medication practices making comparability and meta-analyses very difficult. It is desirable to have a basic set of standardized survey questions on this topic to make available for future research groups in this field.
This document concerns IT security in production facilities. It is intended for small and medium-sized enterprises that are looking for a simple procedural model for ensuring IT security in production areas.
In order to raise readers’ awareness of IT security in production facilities, security incidents are presented in section 2. It is clear that cyber attacks on production facilities in this day and age are not random, but are instead based on a targeted process.
An overview of the most important standards and recommendations on the topic of “IT security in production” then follows in section 3.
Section 4 develops a concept for setting up an IT security system for small and medium-sized enterprises (SMEs) on the basis of a ten-point plan. The focus is not only on technical measures, but also in particular on the most frequently neglected organizational measures.
Section 5 then describes the outlook for future requirements and solutions in the context of Industry 4.0.
Dieses Dokument befasst sich mit der IT-Sicherheit von Produktionsanlagen. Es richtet sich an kleine und mittlere Unternehmen, welche auf der Suche nach einem einfachen Vorgehensmodell für die Sicherstellung der IT-Sicherheit im Produktionsbereich sind.
Um Leser für die Notwendigkeit der IT-Sicherheit von Produktionsanlagen zu sensibilisieren, werden in Kapitel 2 Sicherheitsvorfälle dargestellt. Es zeigt sich, dass Cyber-Angriffe auf Produktionsanlagen heute kein Zufall mehr sind, sondern auf einem gezielten Vorgehen beruhen.
Danach folgt in Kapitel 3 ein Überblick über die wichtigsten Normen und Empfehlungen zum Themenfeld „IT-Sicherheit in der Produktion“.
Kapitel 4 entwickelt an Hand eines Zehn-Punkte-Plans ein Konzept für den Aufbau eines IT-Sicherheitssystems für kleine und mittlere Unternehmen (KMU). Dabei liegt der Schwerpunkt nicht nur auf den technischen, sondern insbesondere auch auf den häufig vernachlässigten organisatorischen Maßnahmen.
Abschließend gibt Kapitel 5 einen Ausblick auf künftige Anforderungen und Lösungen im Kontext von Industrie 4.0
Antimicrobial resistance in livestock is a matter of general concern. To develop hygiene measures and methods for resistance prevention and control, epidemiological studies on a population level are needed to detect factors associated with antimicrobial resistance in livestock holdings. In general, regression models are used to describe these relationships between environmental factors and resistance outcome. Besides the study design, the correlation structures of the different outcomes of antibiotic resistance and structural zero measurements on the resistance outcome as well as on the exposure side are challenges for the epidemiological model building process. The use of appropriate regression models that acknowledge these complexities is essential to assure valid epidemiological interpretations. The aims of this paper are (i) to explain the model building process comparing several competing models for count data (negative binomial model, quasi-Poisson model, zero-inflated model, and hurdle model) and (ii) to compare these models using data from a cross-sectional study on antibiotic resistance in animal husbandry. These goals are essential to evaluate which model is most suitable to identify potential prevention measures. The dataset used as an example in our analyses was generated initially to study the prevalence and associated factors for the appearance of cefotaxime-resistant Escherichia coli in 48 German fattening pig farms. For each farm, the outcome was the count of samples with resistant bacteria. There was almost no overdispersion and only moderate evidence of excess zeros in the data. Our analyses show that it is essential to evaluate regression models in studies analyzing the relationship between environmental factors and antibiotic resistances in livestock. After model comparison based on evaluation of model predictions, Akaike information criterion, and Pearson residuals, here the hurdle model was judged to be the most appropriate model.
Background: Fall events contribute significantly to mortality, morbidity and costs in our ageing population. In order to identify persons at risk and to target preventive measures, many scores and assessment tools have been developed. These often require expertise and are costly to implement. Recent research investigates the use of wearable inertial sensors to provide objective data on motion features which can be used to assess individual fall risk automatically. So far it is unknown how well this new method performs in comparison with conventional fall risk assessment tools. The aim of our research is to compare the predictive performance of our new sensor-based method with conventional and established methods, based on prospective data.
Methods: In a first study phase, 119 inpatients of a geriatric clinic took part in motion measurements using a wireless triaxial accelerometer during a Timed Up&Go (TUG) test and a 20 m walk. Furthermore, the St. Thomas Risk Assessment Tool in Falling Elderly Inpatients (STRATIFY) was performed, and the multidisciplinary geriatric care team estimated the patients’ fall risk. In a second follow-up phase of the study, 46 of the participants were interviewed after one year, including a fall and activity assessment. The predictive performances of the TUG, the STRATIFY and team scores are compared. Furthermore, two automatically induced logistic regression models based on conventional clinical and assessment data (CONV) as well as sensor data (SENSOR) are matched.
Results: Among the risk assessment scores, the geriatric team score (sensitivity 56%, specificity 80%) outperforms STRATIFY and TUG. The induced logistic regression models CONV and SENSOR achieve similar performance values (sensitivity 68%/58%, specificity 74%/78%, AUC 0.74/0.72, +LR 2.64/2.61). Both models are able to identify more persons at risk than the simple scores.
Conclusions: Sensor-based objective measurements of motion parameters in geriatric patients can be used to assess individual fall risk, and our prediction model’s performance matches that of a model based on conventional clinical and assessment data. Sensor-based measurements using a small wearable device may contribute significant information to conventional methods and are feasible in an unsupervised setting. More prospective research is needed to assess the cost-benefit relation of our approach.
Background: In many research areas it is necessary to find differences between treatment groups with several variables. For example, studies of microarray data seek to find a significant difference in location parameters from zero or one for ratios thereof for each variable. However, in some studies a significant deviation of the difference in locations from zero (or 1 in terms of the ratio) is biologically meaningless. A relevant difference or ratio is sought in such cases.
Results: This article addresses the use of relevance-shifted tests on ratios for a multivariate parallel two-sample group design. Two empirical procedures are proposed which embed the relevanceshifted test on ratios. As both procedures test a hypothesis for each variable, the resulting multiple testing problem has to be considered. Hence, the procedures include a multiplicity correction. Both procedures are extensions of available procedures for point null hypotheses achieving exact control of the familywise error rate. Whereas the shift of the null hypothesis alone would give straight-forward solutions, the problems that are the reason for the empirical considerations discussed here arise by the fact that the shift is considered in both directions and the whole parameter space in between these two limits has to be accepted as null hypothesis.
Conclusion: The first algorithm to be discussed uses a permutation algorithm, and is appropriate for designs with a moderately large number of observations. However, many experiments have limited sample sizes. Then the second procedure might be more appropriate, where multiplicity is corrected according to a concept of data-driven order of hypotheses.
The present investigation was conducted to investigate the in-vitro activity of ethanolic extract of roots of Centaurea behens by using DPPH radical scavenging activity, nitric oxide radical scavenging activity, hydrogen peroxide radical scavenging activity, hydroxyl radical. Result suggests that the extract possess significant antioxidant activity as compared to the standard ascorbic acid and thus further in vivo investigation is required to evaluate the medicinal significance of the extract which can be used for assessing the possible therapeutic importance of the drug.
Wearable sensors in healthcare and sensor-enhanced health information systems: all our tomorrows?
(2012)
Wearable sensor systems which allow for remote or self-monitoring of health-related parameters are regarded as one means to alleviate the consequences of demographic change. This paper aims to summarize current research in wearable sensors as well as in sensor-enhanced health information systems. Wearable sensor technologies are already advanced in terms of their technical capabilities and are frequently used for cardio-vascular monitoring. Epidemiologic predictions suggest that neuro-psychiatric diseases will have a growing impact on our health systems and thus should be addressed more intensively. Two current project examples demonstrate the benefit of wearable sensor technologies: long-term, objective measurement under daily-life, unsupervised conditions. Finally, up-to-date approaches for the implementation of sensor-enhanced health information systems are outlined. Wearable sensors are an integral part of future pervasive, ubiquitous and person-centered health
care delivery. Future challenges include their integration into sensor-enhanced health information systems and sound evaluation studies involving measures of workload reduction and costs.
Mining geriatric assessment data for in-patient fall prediction models and high-risk subgroups
(2012)
Background: Hospital in-patient falls constitute a prominent problem in terms of costs and consequences. Geriatric institutions are most often affected, and common screening tools cannot predict in-patient falls consistently. Our objectives are to derive comprehensible fall risk classification models from a large data set of geriatric in-patients’ assessment data and to evaluate their predictive performance (aim#1), and to identify high-risk subgroups from the data (aim#2).
Methods: A data set of n = 5,176 single in-patient episodes covering 1.5 years of admissions to a geriatric hospital were extracted from the hospital’s data base and matched with fall incident reports (n = 493). A classification tree model was induced using the C4.5 algorithm as well as a logistic regression model, and their predictive performance was evaluated. Furthermore, high-risk subgroups were identified from extracted classification rules with a support of more than 100 instances.
Results: The classification tree model showed an overall classification accuracy of 66%, with a sensitivity of 55.4%, a specificity of 67.1%, positive and negative predictive values of 15% resp. 93.5%. Five high-risk groups were identified, defined by high age, low Barthel index, cognitive impairment, multi-medication and co-morbidity.
Conclusions: Our results show that a little more than half of the fallers may be identified correctly by our model, but the positive predictive value is too low to be applicable. Non-fallers, on the other hand, may be sorted out with the model quite well. The high-risk subgroups and the risk factors identified (age, low ADL score, cognitive impairment, institutionalization, polypharmacy and co-morbidity) reflect domain knowledge and may be used to screen certain subgroups of patients with a high risk of falling. Classification models derived from a large data set using data mining methods can compete with current dedicated fall risk screening tools, yet lack diagnostic precision. High-risk subgroups may be identified automatically from existing geriatric assessment data, especially when combined with domain knowledge in a hybrid classification model. Further work is necessary to validate our approach in a controlled prospective setting.
Fall events and their severe consequences represent not only a threatening problem for the affected individual, but also cause a significant burden for health care systems. Our research work aims to elucidate some of the prospects and problems of current sensor-based fall risk assessment approaches. Selected results of a questionnaire-based survey given to experts during topical workshops at international conferences are presented. The majority of domain experts confirmed that fall risk assessment could potentially be valuable for the community and that prediction is deemed possible, though limited. We conclude with a discussion of practical issues concerning adequate outcome parameters for clinical studies and data sharing within the research community. All participants agreed that sensor-based fall risk assessment is a promising and valuable approach, but that more prospective clinical studies with clearly defined outcome measures are necessary.
Complications may occur after a liver transplantation, therefore proper monitoring and care in the post-operation phase plays a very important role. Sometimes, monitoring and care for patients from abroad is difficult due to a variety of reasons, e.g., different care facilities. The objective of our research for this paper is to design, implement and evaluate a home monitoring and decision support infrastructure for international children who underwent liver transplant operation. A point-of-care device and the PedsQL questionnaire were used in patients’ home environment for measuring the blood parameters and assessing quality of life. By using a tablet PC and a specially developed software, the measured results were able to be transmitted to the health care providers via internet. So far, the developed infrastructure has been evaluated with four international patients/families transferring 38 records of blood test. The evaluation showed that the home monitoring and decision support infrastructure is technically feasible and is able to give timely alarm in case of abnormal situation as well as may increase parent’s feeling of safety for their children.
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompetenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Bereichen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wissensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Exzellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besaßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rückmeldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden.
Digitale 3D-Modelle der Architektur – z.B. Modelle von Gebäuden, Inneneinrichtungsgegenständen und Bauteilen – haben innerhalb der letzten fünf Jahrzehnte sowohl die analogen, auf Papier basierenden Zeichnungen als auch die physischen Modelle aus ihrer planungs-, ausführungs- und dokumentationsunterstützenden Rolle verdrängt. Als Herausforderungen bei der Integration von 3D-Modellen in digitale Bibliotheken und Archive sind zunächst die meist nur rudimentäre Annotation mit Metadaten seitens der Autoren und die nur implizit in den Modellen vorhandenen
Informationen zu nennen. Aus diesen Defiziten resultiert ein aktuell starkes Interesse an inhaltsbasierter Erschließung durch vernetzte Nutzergruppen oder durch automatisierte Verfahren, die z.B. aufgrund von Form- oder Strukturmerkmalen eine automatische Kategorisierung von 3D-Modellen anhand gegebener Schemata ermöglichen. Die teilweise automatische Erkennung von objektinhärenter Semantik vergrößert die Menge an diskreten und semantisch unterscheidbaren Einheiten. Darüber hinaus sind digitale 3D-Modelle zumeist hierarchisch aufgebaut; sie enthalten weitere komplexe Modelle, die wiederum in sich geschachtelt sein können und in einzelnen Fällen einen eigenständigen Nachweis als 3D-Modell wünschenswert machen. 3D-Modelle als Content im World Wide Web können sowohl untereinander als auch mit anderen textuellen wie nichttextuellen Objekten verknüpft werden, also Teil von aggregierten Dokumenten sein. Eine weitere Notwendigkeit ist die Vernetzung mit inhaltlich relevanten Ereignissen, Orten, Begriffen, Personen oder realen Objekten sowie die explizite Beschreibung der Relationen zwischen dem Modell selbst und diesen Entitäten seines spezifischen Kontextes. Die Aggregationen bzw. der Modellkontext sowie die inhärenten Entitäten erfordern Instrumente der Organisation, um dem Benutzer bei der Suche nach Informationen einen Mehrwert zu bieten, insbesondere dann, wenn textbasiert nach Informationen zum Modell und zu dessen Kontext gesucht wird. In der vorliegenden Arbeit wird ein Metadatenmodell zur gezielten Strukturierung von Information entwickelt, welche aus 3D-Architekturmodellen gewonnen wird. Mittels dieser Strukturierung kann das Modell mit weiterer Information vernetzt werden. Die Anwendung etablierter Ontologien sowie der Einsatz von URIs machen die Informationen nicht nur explizit, sondern beinhalten auch eine semantische Information über die Relation selbst, sodass eine Interoperabilität zu anderen verfügbaren Daten im Sinne der Grundprinzipien des Linked-Data-Ansatzes gewährleistet wird. Diese Herangehensweise hat im Gegensatz zu einem Ansatz, der Metadaten als Records auffasst, das Potenzial, Relationen zu jeglichen modellrelevanten Entitäten im Suchraum herzustellen und zugleich diese Relationen für weitere wissensbildende Prozesse verfügbar zu machen.
Background: After kidney transplantation, immunosuppressive therapy causes impaired cellular immune defense leading to an increased risk of viral complications. Trough level monitoring of immunosuppressants is insufficient to estimate the individual intensity of immunosuppression. We have already shown that virus-specific T cells (Tvis) correlate with control of virus replication as well as with the intensity of immunosuppression. The multicentre IVIST01-trial should prove that additional steering of immunosuppressive and antiviral therapy by Tvis levels leads to better graft function by avoidance of over-immunosuppression (for example, viral infections) and drug toxicity (for example, nephrotoxicity).
Methods/design: The IVIST-trial starts 4 weeks after transplantation. Sixty-four pediatric kidney recipients are randomized either to a non-intervention group that is only treated conservatively or to an intervention group with additional monitoring by Tvis. The randomization is stratified by centre and cytomegalovirus (CMV) prophylaxis. In both groups the immunosuppressive medication (cyclosporine A and everolimus) is adopted in the same target range of trough levels. In the non-intervention group the immunosuppressive therapy (cyclosporine A and everolimus) is only steered by classical trough level monitoring and the antiviral therapy of a CMV infection is performed according to a standard protocol. In contrast, in the intervention group the dose of immunosuppressants is individually adopted according to Tvis levels as a direct measure of the intensity of immunosuppression in addition to classical trough level monitoring. In case of CMV infection or reactivation the antiviral management is based on the individual CMV-specific immune defense assessed by the CMV-Tvis level. Primary endpoint of the study is the glomerular filtration rate 2 years after transplantation; secondary endpoints are the number and severity of viral infections and the incidence of side effects of immunosuppressive and antiviral drugs.
Discussion: This IVIST01-trial will answer the question whether the new concept of steering immunosuppressive and antiviral therapy by Tvis levels leads to better future graft function. In terms of an effect-related drug monitoring, the study design aims to realize a personalization of immunosuppressive and antiviral management after transplantation. Based on the IVIST01-trial, immunomonitoring by Tvis might be incorporated into routine care after kidney transplantation.
Research information, i.e., data about research projects, organisations, researchers or research outputs such as publications or patents, is spread across the web, usually residing in institutional and personal web pages or in semi-open databases and information systems. While there exists a wealth of unstructured information, structured data is limited and often exposed following proprietary or less-established schemas and interfaces. Therefore, a holistic and consistent view on research information across organisational and national boundaries is not feasible. On the other hand, web crawling and information extraction techniques have matured throughout the last decade, allowing for automated approaches of harvesting, extracting and consolidating research information into a more coherent knowledge graph. In this work, we give an overview of the current state of the art in research information sharing on the web and present initial ideas towards a more holistic approach for boot-strapping research information from available web sources.
Clinical scores and motion-capturing gait analysis are today’s gold standard for outcome measurement after knee arthroplasty, although they are criticized for bias and their ability to reflect patients’ actual quality of life has been questioned. In this context, mobile gait analysis systems have been introduced to overcome some of these limitations. This study used a previously developed mobile gait analysis system comprising three inertial sensor units to evaluate daily activities and sports. The sensors were taped to the lumbosacral junction and the thigh and shank of the affected limb. The annotated raw data was evaluated using our validated proprietary software. Six patients undergoing knee arthroplasty were examined the day before and 12 months after surgery. All patients reported a satisfactory outcome, although four patients still had limitations in their desired activities. In this context, feasible running speed demonstrated a good correlation with reported impairments in sports-related activities. Notably, knee flexion angle while descending stairs and the ability to stop abruptly when running exhibited good correlation with the clinical stability and proprioception of the knee. Moreover, fatigue effects were displayed in some patients. The introduced system appears to be suitable for outcome measurement after knee arthroplasty and has the potential to overcome some of the limitations of stationary gait labs while gathering additional meaningful parameters regarding the force limits of the knee.
Background: Maintenance of metal homeostasis is crucial in bacterial pathogenicity as metal starvation is the most important mechanism in the nutritional immunity strategy of host cells. Thus, pathogenic bacteria have evolved sensitive metal scavenging systems to overcome this particular host defence mechanism. The ruminant pathogen Mycobacterium avium ssp. paratuberculosis (MAP) displays a unique gut tropism and causes a chronic progressive intestinal inflammation. MAP possesses eight conserved lineage specific large sequence polymorphisms (LSP), which distinguish MAP from its ancestral M. avium ssp. hominissuis or other M. avium subspecies. LSP14 and LSP15 harbour many genes proposed to be involved in metal homeostasis and have been suggested to substitute for a MAP specific, impaired mycobactin synthesis.
Results: In the present study, we found that a LSP14 located putative IrtAB-like iron transporter encoded by mptABC was induced by zinc but not by iron starvation. Heterologous reporter gene assays with the lacZ gene under control of the mptABC promoter in M. smegmatis (MSMEG) and in a MSMEGΔfurB deletion mutant revealed a zinc dependent, metalloregulator FurB mediated expression of mptABC via a conserved mycobacterial FurB recognition site. Deep sequencing of RNA from MAP cultures treated with the zinc chelator TPEN revealed that 70 genes responded to zinc limitation. Remarkably, 45 of these genes were located on a large genomic island of approximately 90 kb which harboured LSP14 and LSP15. Thirty-five of these genes were predicted to be controlled by FurB, due to the presence of putative binding sites. This clustering of zinc responsive genes was exclusively found in MAP and not in other mycobacteria.
Conclusions: Our data revealed a particular genomic signature for MAP given by a unique zinc specific locus, thereby suggesting an exceptional relevance of zinc for the metabolism of MAP. MAP seems to be well adapted to maintain zinc homeostasis which might contribute to the peculiarity of MAP pathogenicity.
Background: Epidemiological and experimental studies suggest that exposure to ultrafine particles (UFP) might aggravate the allergic inflammation of the lung in asthmatics.
Methods: We exposed 12 allergic asthmatics in two subgroups in a double-blinded randomized cross-over design, first to freshly generated ultrafine carbon particles (64 μg/m3; 6.1 ± 0.4 × 105 particles/cm3 for 2 h) and then to filtered air or vice versa with a 28-day recovery period in-between. Eighteen hours after each exposure, grass pollen was instilled into a lung lobe via bronchoscopy. Another 24 hours later, inflammatory cells were collected by means of bronchoalveolar lavage (BAL). (Trial registration: NCT00527462)
Results: For the entire study group, inhalation of UFP by itself had no significant effect on the allergen induced
inflammatory response measured with total cell count as compared to exposure with filtered air (p = 0.188). However, the subgroup of subjects, which inhaled UFP during the first exposure, exhibited a significant increase in total BAL cells (p = 0.021), eosinophils (p = 0.031) and monocytes (p = 0.013) after filtered air exposure and subsequent allergen challenge 28 days later. Additionally, the potential of BAL cells to generate oxidant radicals was
significantly elevated at that time point. The subgroup that was exposed first to filtered air and 28 days later to UFP did not reveal differences between sessions.
Conclusions: Our data demonstrate that pre-allergen exposure to UFP had no acute effect on the allergic inflammation. However, the subgroup analysis lead to the speculation that inhaled UFP particles might have a long-term effect on the inflammatory course in asthmatic patients. This should be reconfirmed in further studies with an appropriate study design and sufficient number of subjects.
The objective was to establish and standardise a broth microdilution susceptibility testing method for porcine Bordetella (B.) bronchiseptica. B. bronchiseptica isolates from different geographical regions and farms were genotyped by macrorestriction analysis and subsequent pulsed-field gel electrophoresis. One reference and one type strain plus two field isolates of B. bronchiseptica were chosen to analyse growth curves in four different media: cation-adjusted Mueller-Hinton broth (CAMHB) with and without 2% lysed horse blood, Brain-Heart-Infusion (BHI), and Caso broth. The growth rate of each test strain in each medium was determined by culture enumeration and the suitability of CAMHB was confirmed by comparative statistical analysis. Thereafter, reference and type strain and eight epidemiologically unrelated field isolates of B. bronchiseptica were used to test the suitability of a broth microdilution susceptibility testing method following CLSI-approved performance standards given in document VET01-A4. Susceptibility tests, using 20 antimicrobial agents, were performed in five replicates, and data were collected after 20 and 24 hours incubation and statistically analysed. Due to the low growth rate of B. bronchiseptica, an incubation time of 24 hours resulted in significantly more homogeneous minimum inhibitory concentrations after five replications compared to a 20-hour incubation. An interlaboratory comparison trial including susceptibility testing of 24 antimicrobial agents revealed a high mean level of reproducibility (97.9%) of the modified method. Hence, in a harmonization for broth microdilution susceptibility testing of B. bronchiseptica, an incubation time of 24 hours in CAMHB medium with an incubation temperature of 35°C and an inoculum concentration of approximately 5 x 105 cfu/ml was proposed.
Background: Often preventive measures are not accessed by the people who were intended to be reached. Programs for older adults may target men and women, older adults, advanced old age groups and/or chronically ill patients with specific indications. The defined target groups rarely participate in the conception of programs or in the design of information materials, although this would increase accessibility and participation. In the German “Reaching the Elderly” study (2008–2011), an approach to motivating older adults to participate in a preventive home visit (PHV) program was modified with the participatory involvement of the target groups. The study examines how older men and women would prefer to be addressed for health and prevention programs.
Methods: Four focus groups (N = 42 participants) and 12 personal interviews were conducted (women and men in 2 age groups: 65–75 years and ≥ 76 years). Participants from two districts of a major German city were selected from a stratified random sample (N = 200) based on routine data from a local health insurance fund. The study focused on the participants’ knowledge about health and disease prevention and how they preferred to be approached and addressed. Videos of the focus groups were recorded and analysed using mind mapping techniques. Interviews were digitally recorded, transcribed verbatim and subjected to qualitative content analysis.
Results: A gender-specific approach profile was observed. Men were more likely to favor competitive and exerciseoriented activities, and they associated healthy aging with mobility and physical activity. Women, on the other hand, displayed a broader understanding of healthy aging, which included physical activity as only one aspect as well as a healthy diet, relaxation/wellness, memory training and independent living; they preferred holistic and socially oriented services that were not performance-oriented. The “older seniors” (76+) were ambivalent towards
certain wordings referring to aging.
Conclusions: Our results suggest that gender-specific needs must be considered in order to motivate older adults to participate in preventive services. Age-specific characteristics seem to be less relevant. It is more important to pay attention to factors that vary according to the individual state of health and life situation of
the potential participants.
The CogALex-V Shared Task provides two datasets that consists of pairs of words along with a classification of their semantic relation. The dataset for the first task distinguishes only between related and unrelated, while the second data set distinguishes several types of semantic relations. A number of recent papers propose to construct a feature vector that represents a pair of words by applying a pairwise simple operation to all elements of the feature vector. Subsequently, the pairs can be classified by training any classification algorithm on these vectors. In the present paper we apply this method to the provided datasets. We see that the results are not better than from the given simple baseline. We conclude that the results of the investigated method are strongly depended on the type of data to which it is applied.
Integrating distributional and lexical information for semantic classification of words using MRMF
(2016)
Semantic classification of words using distributional features is usually based on the semantic similarity of words. We show on two different datasets that a trained classifier using the distributional features directly gives better results. We use Support Vector Machines (SVM) and Multirelational Matrix Factorization (MRMF) to train classifiers. Both give similar results. However, MRMF, that was not used for semantic classification with distributional features before, can easily be extended with more matrices containing more information from different sources on the same problem. We demonstrate the effectiveness of the novel approach by including information from WordNet. Thus we show, that MRMF provides an interesting approach for building semantic classifiers that (1) gives better results than unsupervised approaches based on vector similarity, (2) gives similar results as other supervised methods and (3) can naturally be extended with other sources of information in order to improve the results.
Editorial for the 15th European Networked Knowledge Organization Systems Workshop (NKOS 2016)
(2016)
Knowledge Organization Systems (KOS), in the form of classification systems, thesauri, lexical databases, ontologies, and taxonomies, play a crucial role in digital information management and applications generally. Carrying semantics in a well-controlled and documented way, Knowledge Organisation Systems serve a variety of important functions: tools for representation and indexing of information and documents, knowledge-based support to information searchers, semantic road maps to domains and disciplines, communication tool by providing conceptual framework, and conceptual basis for knowledge based systems, e.g. automated classification systems. New networked KOS (NKOS) services and applications are emerging, and we have reached a stage where many KOS standards exist and the integration of linked services is no longer just a future scenario. This editorial describes the workshop outline and overview of presented papers at the 15th European Networked Knowledge Organization Systems Workshop (NKOS 2016) in Hannover, Germany.
We compare the effect of different segmentation strategies for passage retrieval of user generated internet video. We consider retrieval of passages for rather abstract and complex queries that go beyond finding a certain object or constellation of objects in the visual channel. Hence the retrieval methods have to rely heavily on the recognized speech. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video no author defined paragraph structure is available. We compare retrieval results from 5 different types of segments: segments defined by shot boundaries, prosodic segments, fixed length segments, a sliding window and semantically coherent segments based on speech transcripts. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusions are (1) that fixed length and coherent segments are clearly superior to segments based on speaker turns or shot boundaries; (2) that the retrieval results highly depend on the right choice for the segment length; and (3) that results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently fewer segments have to be considered at retrieval time.
Das vorliegende Shortpaper befasst sich mit dem Thema Datenschnittstellen und Datenmapping im Bibliothekswesen für den Austausch von bibliografischen Daten. Ausgangspunkt der Arbeit ist die Schnittstelle Z39.50, welche den Austausch von Metadaten zwischen Bibliotheken als derzeitigen Standard bildet. Neben diesem Austauschformat sind die Darstellungsformate MAB, MARC 21, MARC-XML und als Weiterentwicklung von Z39.50 das SRU (Search/Retrieve via URL) genannt. Weiterhin wird auf das Linked Open Data Netzwerk Bezug genommen. Dieses Netzwerk, auch Semantic Web genannt, wird im Allgemeinen auch mit den Begriffen Web 3.0, Linked Open Data und Web of Data in Verbindung gebracht. Die technische Seite wird anhand von RDF (Resource Description Framework), XML (Extensible Markup Language) erläutert und im Weiteren wird auf die Wichtigkeit der CC0-Lizenzen (Creative Commons Lizenzen) eingegangen. Abschließend wird auf den Begriff Mapping im Kontext der Bibliothekslandschaft eingegangen und die Zusammenarbeit zwischen den Institutionen hervorgehoben.
In this article, we present the software architecture of a new generation of advisory systems using Intelligent Agent and Semantic Web technologies. Multi-agent systems provide a well-suited paradigm to implement negotiation processes in a consultancy situation. Software agents act as clients and advisors, using their knowledge to assist human users. In the presented architecture, the domain knowledge is modeled semantically by means of XML-based ontology languages such as OWL. Using an inference engine, the agents reason, based on their knowledge to make decisions or proposals. The agent knowledge consists of different types of data: on the one hand, private data, which has to be protected against unauthorized access; and on the other hand, publicly accessible knowledge spread over different Web sites. As in a real consultancy, an agent only reveals sensitive private data, if they are indispensable for finding a solution. In addition, depending on the actual consultancy situation, each agent dynamically expands its knowledge base by accessing OWL knowledge sources from the Internet. Due to the standardization of OWL, knowledge models easily can be shared and accessed via the Internet. The usefulness of our approach is proved by the implementation of an advisory system in the Semantic E-learning Agent (SEA) project, whose objective is to develop virtual student advisers that render support to university students in order to successfully organize and perform their studies.
In service-oriented architectures the management of services is a crucial task during all stages of IT operations. Based on a case study performed for a group of finance companies the different aspects of service management are presented. First, the paper discusses how services must be described for management purposes. In particular, a special emphasis is placed on the integration of legacy/non web services. Secondly, the service lifecycle that underlies service management is presented. Especially, the relation to SOA governance and an appropriate tool support by registry repositories is outlined.
In distributional semantics words are represented by aggregated context features. The similarity of words can be computed by comparing their feature vectors. Thus, we can predict whether two words are synonymous or similar with respect to some other semantic relation. We will show on six different datasets of pairs of similar and non-similar words that a supervised learning algorithm on feature vectors representing pairs of words outperforms cosine similarity between vectors representing single words. We compared different methods to construct a feature vector representing a pair of words. We show that simple methods like pairwise addition or multiplication give better results than a recently proposed method that combines different types of features. The semantic relation we consider is relatedness of terms in thesauri for intellectual document classification. Thus our findings can directly be applied for the maintenance and extension of such thesauri. To the best of our knowledge this relation was not considered before in the field of distributional semantics.
Auf Basis einer standardisierten schriftlichen Befragung an der Hochschule Hannover wurden Auswirkungen von subjektiv empfundenem finanziellen Druck auf die Studiensituation untersucht. Schwerpunkt waren Auswirkungen auf die gesundheitliche Verfassung von Studierenden und auf verschiedene Aspekte des Studienerfolgs. Die erhobenen Daten wurden in einem zweistufigen Verfahren analysiert. Im ersten Schritt konnten mithilfe eines konfirmatorischen Analyseverfahrens unter Kontrolle verschiedener externer Faktoren signifikante Zusammenhänge des finanziellen Drucks mit der psychischen Gesundheit, der physischen Gesundheit, dem allgemeinen Stressempfinden im Studium, der Studienzufriedenheit und der Häufigkeit ernsthafter Zweifel an einem erfolgreichen Abschluss festgestellt werden. Für nicht signifikant wurden dagegen die Einflüsse auf die Studienabbruchneigung und auf die Studiendauer befunden. Im Rahmen einer nachfolgenden, explorativen Analyse mittels universeller Strukturgleichungsmodellierung wurde ein Modellentwurf ausgearbeitet, der ein hypothetisches Konstrukt der Wirkungsbeziehungen zwischen finanziellem Druck, der gesundheitlichen Situation und dem Studienerfolg darstellt. Im Hinblick auf den Studienerfolg könnte es sein, dass nur die Studienzufriedenheit direkt durch finanziellen Druck negativ beeinflusst wird. Die Abbruchneigung und die Häufigkeit ernsthafter Zweifel über einen erfolgreichen Abschluss könnten durch finanziellen Druck möglicherweise indirekt beeinflusst werden. Ebenso kann vermutet werden, dass die Einschätzung der Studierenden hinsichtlich ihres physischen Gesundheitszustands nur indirekt von finanziellem Druck abhängig ist.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines generischen XML-Editors für das ProFormA-Aufgabenformat. ProFormA ermöglicht einen Aufgabenaustausch zwischen Hochschulen, Lernmanagementsystemen und Gradern. Aufgaben werden von Lehrkräften genutzt und für ihren individuellen Lehrkontext angepasst. Weil das manuelle Editieren von ProFormA-Aufgaben durch XML, Erweiterbarkeit und Komplexität des Formats erschwert wird, muss ein XML-Editor entwickelt werden, der generische Mechanismen implementiert, die das Anzeigen, Editieren, Hinzufügen und Entfernen von ProFormA- und Fremdformatelementen ermöglichen.
Im Rahmen der Projektphase des 6. Semesters der Studiengänge Bachelor Informationsmanagement (BIM) und Bachelor medizinisches Informationsmanagement (BMI) wurde eine Webseite für die Forschung erstellt. Um die Notwendigkeit zu ermitteln, sowie den Wünschen und Bedürfnissen der Angestellten an der Hochschule nachkommen zu können, wurde eine Bedarfsanalyse durchgeführt. Der nachfolgende Beitrag zeigt die Ergebnisse in aufbereiteter Form. Nach einer kurzen Einleitung werden die Bereiche statistische und allgemeine Fragen, Fragen zu digitalen Forschungsdaten und Netzwerken, zur Forschungswebseite und zur Pflege der Daten ausgewertet dargestellt.
Background: Hand hygiene practices (HHP), as a critical component of infection prevention/control, were investigated among physiotherapists in an Ebola endemic region.
Method: A standardized instrument was administered to 44 randomly selected physiotherapists (23 males and 21 females), from three tertiary hospitals in Enugu, Nigeria. Fifteen participants (aged 22–59 years) participated in focus group discussions (FGDs) and comprised 19 participants in a subsequent laboratory study. After treatment, the palms/fingers of physiotherapists were swabbed and cultured, then incubated aerobically overnight at 37°C, and examined for microbial growths. An antibiogram of the bacterial isolates was obtained.
Results: The majority (34/77.3%) of physiotherapists were aware of the HHP protocol, yet only 15/44.1% rated self-compliance at 71–100%. FGDs identified forgetfulness/inadequate HHP materials/infrastructure as the major barriers to HHP. Staphylococcus aureus were the most prevalent organisms, prior to (8/53.33%) and after (4/26.67%) HPP, while Pseudomonas spp. were acquired thereafter. E. coli were the most antibiotic resistant microbes but were completely removed after HHP. Ciprofloxacin and streptomycin were the most effective antibiotics.
Conclusion: Poor implementation of HPP was observed due to inadequate materials/infrastructure/poor behavioral orientation. Possibly, some HPP materials were contaminated; hence, new microbes were acquired. Since HPP removed the most antibiotic resistant microbes, it might be more effective in infection control than antibiotic medication.
Background: Immunization is the most cost-effective intervention for infectious diseases which are the major cause of morbidity and mortality worldwide. There is a scarcity of information on the vaccination status of young adults and the role of socioeconomic conditions in India. Objectives: Present study explored the adult vaccination status and influence of income and education of parents on adult vaccination status in university students from Mumbai, India.
Methods: On the basis of the eligibility criterion 149 students were selected for the present study. A total of 8 vaccines namely Tdap/DTP, Varicella, MMR, Influenza, Pneumococcal, Hepatitis A, Hepatitis B and Meningococcal were included in this study for all the respondents. In addition to these vaccines, Human Papilloma Virus vaccine was also included for female respondents.
Results: There were total of 149 (75 male and 74 females) respondents with the mean age of 21.5 years. The top 3 immunizations were Td/Tdap (97.3%), MMR (66.4%) and Hepatitis B (55%) among the respondents. Only 4 (5.5%) female respondents have been immunized against the HPV. Conclusions: Td/Tdap (97.3%) and MMR (66.4%) coverage was in line with the recommendations. For all the other vaccines the coverage was low varying from 5.5% to 35.4%. The vaccination coverage was better in respondents with higher educated and higher income parents. We suggest that patient education, planning by government for the implementation of policy for adult vaccination and involvement of physicians are must for better adult vaccination coverage.
Nanotechnology is emerging as one of the key technologies of the 21st century and is expected to enable developments across a wide range of sectors that can benefit citizens. Nanomedicine is an application of nanotechnology in the areas of healthcare, disease diagnosis, treatment and prevention of disease. Nanomedicines pose problem of nanotoxicity related to factors like size, shape, specific surface area, surface morphology, and crystallinity. Currently, nanomedicines are regulated as medicinal products or as medical devices and there is no specific regulatory framework for nanotechnology-based products neither in the EU nor in the USA. This review presents a scheme for classification and regulatory approval process for nanotechnology based medicines.
The drugs we use to treat any condition – from an innocuous cough to a life-threatening cancer – are the outcome of painstaking human clinical trials. These trials are the only way to credibly determine the safety and efficacy of drugs. In recent years there has been a clear shift in clinical trial sites from core developed countries like USA, European countries to developing countries like India, China, South American countries. This shift is related to challenges and opportunities like costs of trials, recruitment issues, and regulatory challenges in developed vs. developing countries. Developing countries and developed countries have their unique disease burden patterns based on various parameters like but not limited to age, health care facilities, health insurance, sanitary conditions, environmental issues, education, nutrition
and GDP. Previous studies have reported that many of the important global diseases are not much explored in clinical trials and many published clinical trials have very less international health relevance. This study was aimed at finding the correlation between disease burdens, number of clinical trials done and trial success rates. We compared 2005 - 2010 Global Burden of Disease data for Germany, India and number of clinical trials from clinicaltrials.gov database done in the same period. Our findings indicated that there was a good correlation between the disease burden and clinical trials for Germany in 2005 and 2010. For India in 2005 there was a moderate positive correlation, 2010 data showed the improvement in India in terms of match between disease burden and clinical trials. But careful observation of the data shows still a need for more trials on Communicable, maternal, neonatal and nutritional disorders.
Metriken und Leistungskennzahlen zur Steuerung eines Startups mit einem Abonnement-Geschäftsmodell
(2017)
Diese Ausarbeitung schlüsselt wesentliche Metriken und Kennzahlen für Startups mit Abonnement-Geschäftsmodellen auf. Der Schwerpunkt liegt auf der Erklärung von Kennzahlen, welche innerhalb von neu gegründeten Startups mit einem Abonnement-Geschäftsmodell Anwendung finden sollten. Nach Einführung in die terminologischen Grundlagen, also nachdem die Begriffe Startup, Abonnement-Geschäftsmodelle und die Grundlagen von Kennzahlen erklärt wurden, werden zahlreiche Kennzahlen wie beispielsweise Average Revenue per User, Customer Churn Rate oder Customer Lifetime Value im Detail erklärt und anhand von Beispielrechnungen nahegebracht.
Open Educational Resources (OER) sind sich in Deutschland bisher hauptsächlich im Bereich der schulischen Bildung im Gespräch. Ihr Potential innerhalb der deutschen Hochschullehre wurde zwar bereits erkannt, wird aber bisher noch nicht genutzt.
Die Arbeit gibt einen Überblick über die terminologischen Grundlagen von OER und ihren Entwicklungsmöglichkeiten im Hochschulbereich. In einer Zusammenfassung werden die Förderung von OER durch die Europäische Kommission und in Deutschland, sowie ihre Entwicklung im deutschen Hochschulbereich dargestellt. In einem theoretischen Abgleich aktueller Studien und Fachliteratur wird eine Bestandsaufnahme zu neuen Aufgabenbereichen für Wissenschaftlicher Bibliotheken durch OER durchgeführt.
Eine Expertenbefragung, die beispielhaft unter Lehrenden der Leibniz Universität Hannover (LUH) durchgeführt wurde, gibt Aufschluss über deren aktuellen Nutzungsstand von OER. Die wird ergänzt durch eine Untersuchung zweier Sharingdienste (Zenodo und SlideShare) nach freien Lehrmaterialien von Angehörigen der LUH.
Abschließend werden auf der Basis der theoretischen Möglichkeiten sowie der individuellen Bedürfnisse der Lehrenden Empfehlungen für neue Dienstleistungen und Serviceangebote Wissenschaftlicher Bibliotheken zur Unterstützung der Hochschulen bei der Einführung, Herstellung und Verbreitung von OER am Beispiel der Technischen Informationsbibliothek Hannover (TIB) gegeben, sowie neue Aufgabenbereiche für Hochschulbibliotheken skizziert, die sich daraus ergeben.
Der deutsche Strommarkt befindet sich im Wandel von einer zentralen Stromerzeugung hin zu einer dezentralen. Eine wesentliche Rolle spielen in diesen Zusammenhang erneuerbare Energien, welche durch die Energiewende bis 2050 einen Anteil von mindestens 80 % des in Deutschland erzeugten Stroms ausmachen sollen. Diese haben jedoch den großen Nachteil, dass sie wetterbedingt eine hohe Volatilität aufweisen und eine geringe Planbarkeit der Stromerzeugung mit sich bringen. Um die Stabilität des Stromnetzes zu gewährleisten, müssen sich die erzeugte Strommenge und deren Verbrauch stets im Gleichgewicht befinden. Eine Möglichkeit, mit der Flexibilität der Erzeugung umzugehen, bietet das Konzept der virtuellen Kraftwerke. Diese sind ein Zusammenschluss vieler dezentraler Erzeugungsanlagen, welche von einer zentralen
technischen Steuerung koordiniert und gesteuert werden. Die vorliegende Arbeit soll einen Überblick über die aktuelle Situation auf dem Markt für virtuelle Kraftwerke geben. Mittels einer Expertenbefragung wurden diesbezüglich vier Hypothesen überprüft. Die Auswertung ergab, dass der Markt langfristig wächst und sich virtuelle Kraftwerke noch in der Erprobungsphase befinden. Entgegen gängigen Definitionen sind in virtuelle Kraftwerke häufig keine Speicher und Verbraucher integriert. Obwohl die Energieerzeugung ausschließlich mit erneuerbaren Energien möglich wäre, wird dies häufig nicht umgesetzt. Ein wichtiger Grund lag in dem vermehrten Einsatz von KWKAnlagen, welche überwiegend mit fossilen Brennstoffen betrieben werden.
Das Berufsbild von Sozialarbeitern beinhaltet viele Anforderungen, zentral sind dabei Sprach- und Lesekompetenzen. Der vorliegende Beitrag stellt die Ergebnisse einer explorativen Studie zu Sprachkompetenzen (i.S. von Wortschatz) und Lesekompetenzen (i.S. von Lesegeschwindigkeit und Leseverständnis) von Studierenden der Sozialen Arbeit dar und zeigt auf, das hier Verbesserungsbedarf besteht, wenn Studierende optimal auf Ihren späteren Beruf vorbereitet werden sollen. Auch wird ein Vergleich zu anderen Studiengängen gezogen, wo sich ähnliche Bedarfslagen zeigen.
Am Ende des Beitrags findet sich ein Kommentar zur (Nicht-)Veröffentlichung der Studienergebnisse.
Arbeitspapier im Rahmen des Arbeitsschwerpunktes "Entwicklung von Spiritualität in der Wirtschaft : ein komplementärer Weg zur Verbesserung von Wettbewerbsfähigkeit und Steigerung von Produktivität in Unternehmen im Sinne einer nachhaltigen Entwicklung, die es zukünftigen Generationen ermöglichen soll, auf der Erde ein lebenswertes Leben zu leben."
Der Beitrag stellt zunächst die Ergebnisse einer Auswertung von Stellenanzeigen aus der Mailingliste InetBib vor, die zeigt, dass die Nachfrage nach Absolventinnen und Absolventen bibliothekarischer Studiengänge mit einer Qualifikation für den Aufgabenbereich der Vermittlung von Informationskompetenz
seit dem Jahr 2000 signifikant gestiegen ist. Ergänzend hierzu präsentieren die Autorinnen die Ergebnisse einer Befragung unter Vertreterinnen und Vertretern der bibliothekarischen Berufspraxis zu im Bereich der Vermittlung von Informationskompetenz geforderten Kompetenzen und deren
Gewichtung innerhalb der verschiedenen Qualifikationsstufen.
Die neuen Medien haben in der Sozialwirtschaft Einzug gehalten: Immer mehr Menschen informieren sich online über Träger, Einrichtungen und Dienste. Moderne Instrumente der Marktkommunikation sind eine wichtige Säule im Kontakt mit Kunden, Mitarbeitenden, Medien, aber auch Ehrenamtlichen und Förderern.
Für die Übermittlung personenbezogener Daten ist eine verschlüsselte Übertragung unverzichtbar und seit Jahren etabliert. Durch die erhöhte Datenschutz-Sensibilität gewinnt der vertrauliche Zugriff über https auf die Websites von Sozialunternehmen an Bedeutung. Sobald über Kontaktformulare oder etwa Bewerberportale der Austausch personenbezogener Daten angeboten wird, ist mit Einführung des IT-Sicherheitsgesetzes im Juli 2015 eine SSL-Verschlüsselung zur Pflicht geworden.
Die nachfolgende Studie beleuchtet den aktuellen Umsetzungsgrad zur Sicherheit von Web-Server in der Sozialwirtschaft. Es wird dargestellt, in welchem Umfang heute https-basierte Zugriffe auf die Internetseiten von Sozialunternehmen möglich sind. Darüber hinaus werden mögliche Probleme in der technischen Implementierung überprüft und ausgewertet.
Das Ziel der Bachelorarbeit ist es, die Webseite einer wissenschaftlichen Bibliothek hinsichtlich der Benutzerfreundlichkeit zu testen und die Ergebnisse als Handlungsempfehlung an die Bibliothek aufzuarbeiten. Die Studie wird mit zwei Methoden zur Evaluation der Web Usability durchgeführt, die zunächst definiert und erläutert werden. Die Methoden umfassen die Analyse des aktuellen Zustands der Usability der Webseite mit dem Leitfaden BibEval, sowie die Methode des lauten Denkens mit Vertretern aus verschiedenen Nutzergruppen der Bibliothek als Testpersonen. Aus den erhobenen Daten ergibt sich, dass die Webseite in Teilbereichen, wie der Navigation und der Seitengestaltung kleine bis schwere Usability-Probleme aufweist. Die aufgetretenen Kritikpunkte werden zusammen-fassend beschrieben. Anschließend werden Lösungsvorschläge gegeben. Die Arbeit ist vorwiegend für die Mitarbeiter der Bibliothek von Interesse, deren Webseite evaluiert wird. Andere Bibliothekare, die vorhaben die Benutzerfreundlichkeit ihrer Webseite zu testen, können sich in dieser Arbeit Anregungen holen.
Smart Cities require reliable means for managing installations that offer essential services to the citizens. In this paper we focus on the problem of evacuation of smart buildings in case of emergencies. In particular, we present an abstract architecture for situation-aware evacuation guidance systems in smart buildings, describe its key modules in detail, and provide some concrete examples of its structure and dynamics.
Trotz der vielfältigen Bemühungen ist auch in Niedersachsen der Anteil von Professorinnen an Fachhochschulen - insbesondere in technisch orientierten Studiengängen - noch sehr gering. Deshalb wird das Ziel, den Frauenanteil bei den Professuren zu steigern, auch weiterhin intensiv verfolgt. Das Forschungsprojekt „Verbesserung der Chancen potenzieller Professorinnen“ will dazu einen Beitrag leisten. Auf der Basis des Projektes „PROfessur“ und in enger Kooperation mit diesem soll in dem Forschungsprojekt eine empirische Erhebung durchgeführt werden. Diese hat das Ziel, durch eine Befragung von potenziellen Professorinnen zu ermitteln, welche Unterstützungen diese Zielgruppe benötigt, um zukünftig ihre Erfolgschancen bei Berufungsverfahren zu erhöhen. Aus den Ergebnissen dieser Bedarfsanalyse können dann erste konkrete Ansätze und Maßnahmen zur Verbesserung der Erfolgschancen potenzieller Professorinnen für niedersächsische Fachhochschulen abgeleitet werden.
Seit einiger Zeit lässt sich eine Neuorientierung im Marketing beobachten: Lag früher der Fokus auf den umsatz- und wachstumsorientierten Strategien der Neukunden-Akquisition, so bilden heute die Themen des Kundenbindungs- und des Relationship-Managements die Schwerpunkte einer kundenorientierten Unternehmensführung.
Verstärkten Bemühungen und steigenden Investitionen der Unternehmen im „Bindungswettbewerb“ stehen jedoch auf Seiten der Nachfrager immer öfter sinkende Loyalitätsraten gegenüber. Selbst ein hoher Grad an Kundenzufriedenheit vermag die Abwanderung von Kunden häufig nicht aufzuhalten.
In Theorie und Praxis blieb das Thema der Wiedergewinnung ehemaliger Kunden bisher weitgehend vernachlässigt und empirische Daten liegen nur vereinzelt vor. An der FH Hannover wurde deshalb 1999 eine nicht auftragsgebundene, von der Hochschule selbst initiierte, empirische Erhebung über die Rückgewinnung abgewanderter Kunden durchgeführt. Diese Studie zum Customer Recovery Management konzentriert sich auf die Dienstleistungsbranche und gliedert sich in drei Stufen: eine Vor-, eine Haupt- und eine Nebenstudie.
Im Wintersemester 2005/06 und im darauf folgenden Sommersemester wurde an der FHH ein fachbereichsübergreifendes Vortragsprogramm für promovierte Gastreferentinnen aus der Wirtschaftspraxis geplant und durchgeführt. Zur Evaluation des Projekts und zur Entwicklung eines Konzeptes für einzelne Fakultäten wurde eine empirische Erhebung in Form einer Befragung der Teilnehmerinnen an dem Gastvortragsprogramm und der beteiligten Professorinnen und Professoren durchgeführt. Schwerpunkte der Befragung bildeten die Fragen nach der bisherigen und der zukünftigen Einbindung von Gastreferentinnen in die Lehre der FHH sowie die Beurteilung des Gastvortragsprogramms.
Im Wintersemester 2005/06 und im darauf folgenden Sommersemester wurde an der FHH ein fachbereichsübergreifendes Vortragsprogramm für promovierte Gastreferentinnen aus der Wirtschaftspraxis geplant und durchgeführt. Die Resonanz darauf war sehr positiv. Die Ergebnisse der im November 2006 durchgeführten Evaluation des Gastvortragsprogramms zeigen deutlich, dass das Projekt sowohl aus Sicht der Professorenschaft als auch aus Sicht der Referentinnen als sehr erfolgreich anzusehen ist. Vor diesem Hintergrund erscheint es besonders sinnvoll, eine Konzeption für ein Gastvortragsprogramm an einzelnen Fakuläten der FHH zu entwickeln. Die Konzeption beinhaltet einen einfachen, jedoch realistischen und erprobten Ablaufplan, detaillierte Handlungsempfehlungen für jede Projektphase, sowie umfangreiche, konkrete Organisationshilfen, wie z.B. komplette Musterbriefe.
In huge warehouses or stockrooms, it is often very difficult to find a certain item, because it has been misplaced and is therefore not at its assumed position. This position paper presents an approach on how to coordinate mobile RFID agents using a blackboard architecture based on Complex Event Processing.
In recent years, multiple efforts for reducing energy usage have been proposed. Especially buildings offer high potentials for energy savings. In this paper, we present a novel approach for intelligent energy control that combines a simple infrastructure using low cost sensors with the reasoning capabilities of Complex Event Processing. The key issues of the approach are a sophisticated semantic domain model and a multi-staged event processing architecture leading to an intelligent, situation-aware energy management system.
Complex Event Processing (CEP) has been established as a well-suited software technology for processing high-frequent data streams. However, intelligent stream based systems must integrate stream data with semantical background knowledge. In this work, we investigate different approaches on integrating stream data and semantic domain knowledge. In particular, we discuss from a software engineering per- spective two different architectures: an approach adding an ontology access mechanism to a common Continuous Query Language (CQL) is compared with C-SPARQL, a streaming extension of the RDF query language SPARQL.
In this paper, we consider the route coordination problem in emergency evacuation of large smart buildings. The building evacuation time is crucial in saving lives in emergency situations caused by imminent natural or man-made threats and disasters. Conventional approaches to evacuation route coordination are static and predefined. They rely on evacuation plans present only at a limited number of building locations and possibly a trained evacuation personnel to resolve unexpected contingencies. Smart buildings today are equipped with sensory infrastructure that can be used for an autonomous situation-aware evacuation guidance optimized in real time. A system providing such a guidance can help in avoiding additional evacuation casualties due to the flaws of the conventional evacuation approaches. Such a system should be robust and scalable to dynamically adapt to the number of evacuees and the size and safety conditions of a building. In this respect, we propose a distributed route recommender architecture for situation-aware evacuation guidance in smart buildings and describe its key modules in detail. We give an example of its functioning dynamics on a use case.
The objective of this student project was for the students to develop, conduct, and supervise a training course for basic work place applications (word processing and business graphics). Students were responsible for the planning, organizing and the teaching of the course. As participants, underprivileged adolescents took part in order to learn the handling of IT applications and therefore, improve their job skills and have a better chance to get into employment. Therefore the adolescents do the role of trainees at the course. Our students worked with a population that is continually overlooked by the field.
As a result, the students trained to design and implement training courses, exercised to manage projects and increased their social responsibility and awareness concerning the way of life and living conditions of other young people. The underprivileged adolescents learned to use important business applications and increased their job skills and job chances. The overall design of our concept required extensive resources to supervise and to steer the students and the adolescents. The lecturers had to teach and to counsel the students and had to be on “stand-by” just in case they were needed to solve critical situations between the two groups of young people.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
Cradle to Cradle – An analysis of the market potential in the German outdoor apparel industry
(2016)
The purpose of this study is to investigate the market potential in the German outdoor apparel industry by focusing on sustainable production in terms of environmental and human health. A literature study of the Cradle to Cradle (C2C) design concept is provided, as it represents a solution for pollution, waste and environmental destruction caused by the current industrial design and waste management. The data for the subsequent market- and competitive analysis of the German outdoor apparel industry was collected through secondary research in order to identify several key market indicators for the assessment of the market potential. The outcome of this research is the identification of a positioning strategy for outdoor apparel according to the C2C design concept. The results show stagnant growth rates in recent years in the German outdoor apparel market and strong rivalry among the competitors. However, a significant market potential was calculated and beneficial trends for sustainable outdoor brands were recognised. These findings reveal the existence of a market potential for an outdoor apparel brand according to the C2C design concept. By following a positioning strategy of transparency and full commitment to a sustainable production, the company might be able to gain market shares from its competitors, as future predictions indicate slow growth rates in the market. The results of this analysis can be of great interest for entrepreneurs that plan to enter the German outdoor apparel industry.
In diesem Beitrag wird diskutiert, wie Korruption oder korruptionsnahes Verhalten in der Sozialen Arbeit wahrgenommen und bewertet wird. Dabei liegt der Fokus auf dem Unterschied zwischen Studiengängen der Sozialen Arbeit sowie Wirtschafts- und Verwaltungsstudiengängen. Geprüft wird, ob korruptionsnahe Handlungen von Studierenden der Sozialen Arbeit anders wahrgenommen werden als von Studierenden anderer Studiengänge. Diese Frage rekurriert auf den hohen ethischen Anspruch der Profession. Dahinter steckt die implizite Annahme, dass Studierende der Sozialen Arbeit durch ihre Profession und die damit zusammenhängende Grundhaltung „etwas Gutes tun zu wollen“ vor Korruption möglicherweise geschützt sind. Basierend auf den Ergebnissen der Forschungsprojekte Subjektive Sicherheit – Einflussfaktoren auf Korruptionsschwellen (Litzcke et al. 2010) und Korruption und unethisches Handeln in Berufsfeldern der Sozialen Arbeit (Linssen/Kammigan, 2014) wurden diese Fragen empirisch überprüft und ausgewertet. Die Ergebnisse lassen Rückschlüsse auf besondere Risiken zu, denen Fachkräfte der Sozialen Arbeit gegenüberstehen. Des Weiteren ergeben sich Rückschlüsse hinsichtlich möglicher Präventionsstrategien zur Bekämpfung von Korruption im Arbeitsfeld Soziale Arbeit.
Vergleich von webbasierten Programmierschnittstellen zum Zugriff auf kontrollierte Vokabulare
(2016)
Diese Arbeit beschäftigt sich mit der Analyse von Webschnittstellen für kontrollierte Vokabulare von Informationseinrichtungen. Hierfür werden zunächst einige relevante Arten solcher Vokabulare vorgestellt. Außerdem wird ein Überblick über die in diesem Zusammenhang verwendeten Technologien und Standards für den maschinellen Datenaustausch über das World Wide Web gegeben. Darauf aufbauend werden schließlich die Schnittstellen von vier in der Bibliothekswelt viel genutzten Vokabularen miteinander verglichen. Zu diesem Zweck wird jedes Begriffssystem kurz vorgestellt und die Funktionalitäten der entsprechenden API untersucht. Danach werden die Untersuchungsobjekte nach ausgewählten Kriterien einander gegenübergestellt. Im Abschluss werden die Ergebnisse des Vergleichs präsentiert.
Während sich das Zahlungsverfahren Mobile Payment seit einigen Jahren international mehr und mehr etabliert, fristet es entgegen jährlich wiederkehrender Erfolgsprognosen in Deutschland immer noch ein Nischendasein. Die vorliegende Untersuchung entstand im Rahmen einer Bachelorarbeit des Studiengangs der Betriebswirtschaftslehre an der Hochschule Hannover und beschäftigt sich mit den Potentialen und Barrieren der Nutzung des Mobile Payment aus Kundensicht, mit dem Ziel, die wesentlichen Faktoren der geringen Nutzung in Deutschland zu identifizieren. Hierzu wurden Studierende sowohl mittels eines Fragebogens (N = 128) zu ihren persönlichen Nutzungs-Voraussetzungen sowie –Erfahrungen befragt, als auch um die Bewertung verschiedener Faktoren als Potential oder Barriere für eine mögliche Nutzung gebeten. Bei der Auswertung der Ergebnisse konnten Zusammenhänge zwischen den untersuchten Einflussgrößen und der Nutzung des Mobile Payment festgestellt werden. Insbesondere der fehlende Schutz, drohender Missbrauch und eine fehlende Standardanwendung erwiesen sich als wichtige Faktoren für die Entscheidung, Mobile Payment zu nutzen.
Usability-Studie des TIB-Portals: eine Evaluation der Website der Technischen Informationsbibliothek
(2017)
In den letzten Jahren gewinnt das Thema Usability von Websites auch für Bibliotheken zunehmend an Bedeutung. In dieser Bachelorarbeit wird die Benutzerfreundlichkeit des neugestalteten Internetauftritts der Technischen Informationsbibliothek (TIB) in Hannover für die Zielgruppe der Studierenden der Leibniz Universität Hannover (LUH) untersucht. Auslöser für die Neugestaltung stellt die Stiftungswerdung der TIB dar. Im theoretischen Teil der Arbeit werden Grundlagen und Anwendungsbereiche von Usability in verschiedenen Normen dargestellt. Mit den empirischen Methoden der heuristischen Evaluation, dem Experteninterview und dem Usability-Testing, das von der Thinking-Aloud-Methode begleitet wird, werden Stärken und Schwächen des TIB-Portals analysiert. Im Anschluss werden Empfehlungen zur Verbesserung der Anwenderfreundlichkeit des Webauftritts der TIB benannt. Die Studie zeigt, dass die Aufmachung der Website durchaus noch Verbesserungspotential für die Zielgruppe der Studierenden aufweist. Zugleich wird festgestellt, dass neben der Anwenderfreundlichkeit auch noch andere Aspekte die Gestaltung der Webpräsenz der TIB beeinflussen.
Daten einer umfangreichen Erhebung bei Absolventen/innen des Bachelor-Studiengangs Wirtschaftsinformatik der Hochschule Hannover eröffnen einen Einblick in das Berufsleben von Wirtschaftsinformatiker/n in den ersten Jahren nach Studienabschluss. Die Ergebnisse weisen auf eine hohe Berufszufriedenheit. Allerdings sind durchaus auch Einschränkungen der Zufriedenheit zu verzeichnen, die teilweise auf die typische Arbeitskultur in IT-Berufen zurückzuführen sind. Daneben wird das Arbeitsklima zwischen Männern und Frauen durchaus unterschiedlich wahrgenommen, auch der Wunsch nach einem ausgewogenen Verhältnis von Arbeits- und Privatleben (work/life balance) zeigt Unterschiede zwischen Männern und Frauen. Insgesamt lassen sich aus den Ergebnissen Hinweise ableiten, durch welche Maßnahmen das Studium und die Berufstätigkeiten in IT-Berufen attraktiver gestaltet werden und damit dem Fachkräftemangel entgegengewirkt werden kann.
Vor der Abgabe von Studienarbeiten ist dringend eine sorgfältige Überarbeitung vorzunehmen, um Einbußen bei der Bewertung zu vermeiden. So ist nach dem Abschluss aller inhaltlichen Arbeiten sowie der Anfertigung aller Texte, Abbildungen und Tabellen – als zusätzlicher Arbeitsschritt – eine Endredaktion vorzunehmen, bei der spezielle Fehler ausgemerzt werden. Für diesen Arbeitsschritt wird hiermit eine Anleitung vorgelegt. Der Ausdruck „Studienarbeit“ steht dabei immer für alle unterschiedlichen Formen wie Hausarbeiten, Seminararbeiten, Abschlussarbeiten, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten und ähnliche schriftliche Leistungsnachweise. Im Sport steht der Ausdruck „unforced error“ für Fehler, die im sportlichen Wettstreit nicht vom Gegner ausgelöst werden, sondern selbstverschuldet – und damit besonders ärgerlich – sind. Dieser Ausdruck soll hier für Fehler in Studienarbeiten stehen, die leicht vermeidbar sind und nicht vom Thema oder der Aufgabenstellung einer Studienarbeit hervorgerufen oder verursacht werden. Eine Vermeidung dieser Fehler ist relativ einfach: Die zu beachtenden Regeln sind elementar und die Vorgehensweisen zur Fehlerkorrektur sind schlicht und wenig aufwändig. Daher wäre es besonders ärgerlich, diese Fehler nicht zu beheben und deswegen Abzüge bei der Bewertung von Studienarbeiten hinzunehmen. Wesentlich schwieriger zu erkennen und zu beheben sind Mängel in der Vorgehensweise oder Methode oder bei der Strukturierung von Studienarbeiten; die dabei zu beachtenden Hinweise und Regeln sind durchaus anspruchsvoll und aufwändig in der Umsetzung (siehe Literaturhinweis). Unforced Errors hingegen sind leicht erkennbar und behebbar und daher – wenn sie trotzdem gemacht werden – besonders ärgerlich für Autoren/innen von Studienarbeiten. Leider geschehen diese Fehler häufig und verringern die Qualität vieler Studienarbeiten erheblich. Daher ist hier eine Reihe besonders häufiger „unforced errors“ angegeben, die in Studienarbeiten vorkommen, jedoch eigentlich leicht erkennbar und behebbar, also vermeidbar, sind. Diese Anleitung kann als Checkliste zur letzten Überarbeitung von Studienarbeiten genutzt werden, um vor der Abgabe die Anzahl der Fehler zu verringern. Denn gewiss ist es besser, wenn die Autoren/innen diese Fehler bei der letzten Überarbeitung bemerken und beheben, als dass diese den Lesern/Leserinnen beim ersten Lesen zur Bewertung der Studienarbeit auffallen.
Die Auswertung von Fachbeiträgen zu bedeutenden internationalen Zeitschriften und Konferenzen aus Wirtschaftsinformatik und Information Systems zeigt, dass im Zeitraum der Jahre von 2000 bis 2012 die durchschnittliche Anzahl der Autoren pro Beitrag in Zeitschriften von etwa 2,2 auf etwa 2,8 und für Konferenzen von etwa 2,2 auf etwa 2,7 steigt, während der jeweilige Anteil der Beiträge von Einzelautoren über die Jahre deutlich sinkt. Die Autorschaften von Fachbeiträgen hat sich also im Zeitverlauf deutlich geändert, diese Entwicklung ähnelt der in vielen anderen Fachgebieten, zu denen Schlagzeilen gehören wie „Author Inflation“, „excessive coauthors“, „dramatic trend toward multiple authorship“ und “solo authorship becoming rare …” oder der Hinweis, Einzelautoren seien mittlerweile auf der Liste aussterbender Spezies zu führen.
In vielen wissenschaftlichen Fachgebieten werden derartige Entwicklungen seit Jahrzehnten kritisch beobachtet. Das profan wirkende Problem, wie angemessen und gerecht mit Koautoren umgegangen werden soll, ist lange in einer ernsten Diskussion und wird schon 1969 durch den Vorschlag eines elaborierten Algorithmus und den Einsatz einer IBM 360/50 persifliert. Dabei haben Publikationen und deren Autorschaften hohe Bedeutung bei der Messung und Bewertung von Qualifikationen und Forschungsleistungen für Institutionen wie Fakultäten und Hochschulen sowie für Personen. Die Bedeutung derartiger Messungen nimmt zu. Wenn sich Maßzahlen zu Publikationen in einem Fachgebiet signifikant ändern, dann ist das ein Signal dafür, dass im Fachgebiet wichtige Änderungen oder Entwicklungen stattfinden. Was bedeutet eine signifikante Änderung, wenn also die deutliche Zunahme bei der Anzahl der Autoren pro Beitrag oder die deutliche Abnahme des Anteils der Beiträge von Einzelautoren zu beobachten ist? Hier wird diskutiert, welche Interpretationen der Entwicklungen in unserem Fachgebiet zulässig und angezeigt sind.
Wissensmanagement (knowledge management) ist ein aktuelles Thema in Theorie und Praxis vieler verschiedener Fachgebiete. Sowohl Betriebswirtschaftslehre, Organisationslehre, Wirtschaftsinformatik, Kommunikationswissenschaften als auch Soziologie und Erkenntnistheorie setzen sich mit Fragen auseinander, die sich mit dem Verständnis von Wissensprozessen und mit der Handhabung von Wissen beschäftigen. Die Bedeutung der Ressource Wissen und die Notwendigkeit des systematischen und methodischen Umgangs mit Wissen betrifft besonders Anwälte und Anwaltskanzleien (und ähnliche beratende Berufe wie etwa Steuerberater, Wirtschaftsprüfer, Unternehmensberater), da ihr Wissen wesentlicher Bestandteil der Marktleistung ist.
Veränderungen der Rechtsberufe durch neue Technologien - Beispiel: Wissensmanagement bei Anwälten
(2002)
Wissensmanagement ist eines der aktuellen Themen in Theorie und Praxis und wird in vielen verschiedenen Fachgebieten aufgegriffen. Für Anwälte wird die Berufsausübung derzeit durch mehrere verschiedene Entwicklungen geprägt – und zukünftig noch stärker geprägt werden - die zu einer anspruchsvollen Situation voller Herausforderungen führen. Viele der Entwicklungen haben unmittelbaren Bezug zu dem Umgang mit dem Wissen der Mitarbeiter und der Kanzlei und führen so zum Thema "Wissensmanagement bei Anwälten".
Wissensmanagement (knowledge management) ist ein aktuelles Thema in Theorie und Praxis vieler verschiedener Fachgebiete. Sowohl Wirtschaftsinformatik, Organisationslehre, Kommunikationswissenschaften als auch Soziologie und Erkenntnistheorie setzen sich mit Fragen auseinander, die sich mit dem Verständnis von Wissensprozessen und mit der Handhabung von Wissen beschäftigen. Viele Branchen und Wirtschaftsbereiche werden dabei aufgegriffen, so wird beispielsweise die Handhabung von Wissen in multinationalen, verteilten Unternehmen und Allianzen, die Kreation und Weitergabe von Wissen in Innovationsprozessen und nicht zuletzt die Handhabung von Wissen in Beratungsunternehmen wie Steuerkanzleien, Unternehmensberatungen und auch Anwaltsbüros diskutiert. Mit Wissen sollte in Unternehmen nicht beiläufig und zufällig umgegangen werden, sondern bewusst, zielgerichtet, systematisch und methodisch. Dies gilt besonders für Anwälte, deren Beruf und Berufsausübung durch mehrere aktuelle Entwicklungen geprägt sind. Der Umgang mit dem Wissen der Mitarbeiter und der Kanzlei gewinnt durch einige Entwicklungen unmittelbar Bedeutung.
Seit Ende des Jahres 2005 existiert für das IT-Service-Management die internationale Norm ISO 20000, die einen Rahmen zur Ausrichtung der Leistungserbringung und Lieferung von IT-Dienstleistungen anbietet und Unternehmen eine Prüfung und Zertifizierung der Konformität mit diesem Rahmen gestattet. Die Anzahl der Unternehmen, die sich einem Zertifizierungsverfahren nach ISO 20000 unterziehen und damit ein Testat über die Konformität ihrer IT-Dienstleistungen mit den Vorgaben der Norm erhalten wollen, steigt. Der Beitrag beschreibt Ziele, die mit einer Zertifizierung nach ISO 20000 verfolgt werden, die Inhalte der Norm sowie den Ablauf einer Zertifizierung.
Schon lange müssen Betreiber von IT-Systemen damit rechnen, dass die Systeme angegriffen und in der Folge unbefugt und missbräuchlich genutzt werden. Frühe Fälle sind etwa für das Jahr 1961 verzeichnet, als am MIT das Abrechnungsverfahren des Großrechners durch spezielle Programme unterlaufen wurde und die Programmierer so Rechnerkapazitäten nutzen konnten, ohne die Kosten dafür tragen zu müssen. Derartige Hacker (im Sinne von „Einbrecher“), die damals auch Kontrollen der Telefonsysteme ausschalteten und dadurch unentgeltlich telefonierten, lösten in der Öffentlichkeit durchaus positive Assoziationen aus, da sie als übermächtig wahrgenommene Konzerne und Monopole mit technischem Geschick ausmanövrierten. In Spielfilmen der 70er und 80er Jahre wurden Hacker stilisiert und als Vertreter des Widerstands gegen das Establishment dargestellt. Allerdings sind auch schon seit den 60er Jahren Vermögensschäden durch Manipulationen an IT-Systemen bekannt, mit denen Gehalts- oder Rechnungszahlungen umgeleitet oder Kontostände verändert wurden. Die ersten Schadprogramme, die sich über Übertragungsnetze fortpflanzen und IT-Systeme außer Funktion setzten - so genannte „Würmer“ – werden für das Jahr 1988 notiert. Missbrauch von IT-Systemen ist somit als Begleiterscheinung anzusehen, die nur schwer vermeidbar ist, solange Angreifer zwischen dem erzielbaren Eigennutz und dem notwendigen Aufwand sowie dem Risiko der Entdeckung bzw. Bestrafung abwägen und zum Ergebnis kommen, dass ihr Handeln lohnenswert erscheint. Unter den Begriff "Angriff" (engl.: attacks) fallen alle vorsätzlichen Handlungen mit dem dezidierten Ziel, die IT-Systeme eines Unternehmens zu zerstören, zu schädigen oder zu missbrauchen.
Steuerberater erbringen bei der Beratung ihrer Mandanten wissensintensive Dienstleistungen, folgerichtig gilt Wissen als wichtigste Ressource, um im Wettbewerb zu bestehen. Daher sollte mit dieser Ressource gezielt und systematisch umgegangen werden; dafür steht seit einigen Jahren der Begriff „Wissensmanagement“. Dabei stellen sich für Steuerberater spezifische Aufgabenstellungen im Wissensmanagement. Eine Reihe vorliegender Lösungsansätze ist darauf zu prüfen, ob nachhaltige Erfolge bei der Steigerung von Qualität, Effizienz und Stabilität der Beratungsleistungen zu erwarten sind.
In der betrieblichen Datenverarbeitung ist die Übergabe eines neuen (oder geänderten) Anwendungssystems in den DV-Betrieb eine kritische Situation: Aus Sicht der Fachbereiche und der Anwendungsentwicklung sollte die Anwendung möglichst zügig in Betrieb genommen werden, um Termine einzuhalten und den betrieblichen Nutzen der Anwendung früh auszulösen. Für den DV-Betrieb haben Sicherheit, Stabilität und Kontinuität des laufenden Betriebs höchste Priorität, so dass Anwendungen nur in Betrieb genommen werden, wenn weder die Anwendung noch deren Integration in den Betrieb ein Risiko darstellen. Daher ist der Prozess des Übergangs von der Anwendungsentwicklung in den DV-Betrieb besonders kritisch. Der Artikel berichtet aus einem aktuellen Forschungsprojekt.
Background: Foodstuff traders operating from warehouses (FTFW) are potentially exposed to dangerous rodenticides/pesticides that may have adverse effects on cardiopulmonary function. Methods: 50 consenting male foodstuff traders, comprising 15 traders (21–63 years) operating outside warehouses and 35 FTFW (20–64 years), were randomly recruited at Ogbete Market, Enugu, in a cross-sectional observational study of spirometric and electrocardiographic parameters. 17 FTFW (21–57 years) participated in focus group discussions. Qualitative and quantitative data were analysed thematically and with independent t-test and Pearson correlation coefficient at p < 0.05, respectively. Results: Most FTFW experienced respiratory symptoms, especially dry cough (97,1%) and wheezing (31.4%) with significant reductions in forced vital capacity (FVC) (t = -2.654; p = 0.011), forced expiratory volume in one second (FEV1) (t = -2.240; p = 0.030), maximum expiratory flow rate (FEF200-1200) (t = -1.148; p = -0.047), and forced end-expiratory flow (FEF25-75) (t = -1.11; p = 0.007). The maximum mid-expiratory flow (FEF25-75) was marginally decreased (p > 0.05) with a significantly prolonged (p < 0.05) QTc interval. Conclusion: Allergic response was evident in the FTFW. Significant decrease in FVC may negatively impact lung flow rates and explains the marginal decrease in FEF25-75, which implies a relative limitation in airflow of peripheral/distal airways and elastic recoil of the lungs. This is consistent with obstructive pulmonary disease; a significant decrease in FEF75-85/FEV1 supports this conclusion. Significant decrease in FEF200-1200 indicates abnormalities in the large airways/larynx just as significantly prolonged ventricular repolarization suggests cardiac arrhythmias.
Diese Studie untersucht Gruppen von Ortsnamen in Deutschland (in den Postleitregionen) nach vorhandenen Ähnlichkeiten. Als Messgröße wird ein Häufigkeitsvektor von Trigrammen in jeder Gruppe herangezogen. Mit der Anwendung des Average Linkage-Algorithmus auf die Messgröße werden Cluster aus räumlich zusammenhängenden Gebieten gebildet, obwohl das Verfahren keine Kenntnis über die Lage der Cluster zueinander besitzt. In den Clustern werden die zehn häufigsten n-Gramme ermittelt, um charakteristische Wortpartikel darzustellen. Die von den Clustern umschriebenen Gebiete lassen sich zwanglos durch historische oder linguistische Entwicklungen erklären. Das hier verwendete Verfahren setzt jedoch kein linguistisches, geographisches oder historisches Wissen voraus, ermöglicht aber die Gruppierung von Namen in eindeutiger Weise unter Berücksichtigung einer Vielzahl von Wortpartikeln in einem Schritt. Die Vorgehensweise ohne Vorwissen unterscheidet diese Studie von den meisten bisher angewendeten Untersuchungen.
Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informationssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zudem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich positiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
Sehen ist für den Menschen eine besonders wichtige Form der Wahrnehmung. Über den Sehsinn nimmt der Mensch ca. 80 Prozent seiner Informationen auf, sodass „etwa ein Viertel des gesamten Gehirns und 60 Prozent der Großhirnrinde, dem Sitz höherer Hirnfunktionen, mit der Analyse der sichtbaren Welt beschäftigt ist“ (Simm, 2011). Sogar auf unsere Sprache hat das Sehen einen großen Einfluss ausgeübt. So bezeichnet man auch nicht visuelle Dinge oder Darbietungen als farblos, wenn diesen „aus unserer Sicht eine bestimmt Qualität fehlt“ (Erb, 1998, S. 1). Die große Bedeutung des Sehsinns erkannte natürlich auch Aristoteles. Er widmete dem Sehen daher einige Gedanken, die überwiegend in de anima (II 7, 418a 26 – 419b 3), aber auch in de sensu (439a 21 bis 447a 11) zu finden sind. Eine besondere Schwierigkeit der Erklärung der visuellen Wahrnehmung besteht darin, dass im Unterschied zum Fühlen, Riechen und Hören unklar ist, welches Medium zur Übertragung der Sehinformationen vom Objekt ins Auge des Betrachters verwendet wird bzw. wie diese Übertragung eventuell auch ohne klar erkennbares Medium funktionieren kann.
Das Ziel dieser Arbeit ist es also, Aristoteles´ Auffassung des Sehvorganges und des hierzu benötigten Übertragungsmediums zu analysieren. Hierzu wird zunächst versucht, die teilweise schwer verständlichen und teilweise auch widersprüchlichen Ausführungen Aristoteles´ systematisch aufzuarbeiten und klar und einfach darzustellen. Dabei wird sich diese Arbeit auf das Sehen im
physikalischen Sinne beschränken, also darauf wie es gelingen kann, dass Informationen über die reale Welt optisch bis zum Auge gelangen und somit der Wahrnehmung zur Verfügung stehen.
Zeitarbeit ist eine Boombranche. Zeitarbeit ist prekäre Beschäftigung. Mit Zeitarbeit wird Missbrauch getrieben. Zeitarbeit ist wichtig. Jeder, der die öffentliche Diskussion verfolgt, hat einen dieser Sätze schon einmal gehört. Wir reden über Zeitarbeit, wie über die Frage, ob Entlohnung gut oder schlecht ist. Vergessen wird dabei oft, dass Zeitarbeit nicht gleich Zeitarbeit ist, sondern sich Motive und Einsatz der Zeitarbeit von Unternehmen zu Unternehmen deutlich unterscheiden können. So kann ein Personaldienstleister Hausfrauen an eine Versicherung vermitteln, um dort für die Reinigung und Sauberkeit der Büros zu sorgen. Ebenso kann ein Ingenieurbüro eigene Mitarbeiter an eine Kraftwerksfirma verleihen, um hochspezielle Projektaufgaben an einem Solarkraftwerk zu verrichten.
Und genau darum geht es, wenn wir die Zukunft der Zeitarbeit gestalten wollen: herauszufinden, unter welchen Bedingungen und für welche Zwecke Zeitarbeit in Unternehmen eingesetzt wird und was ihre Nutzung fördert bzw. behindert. Um darauf eine Antwort zu haben, muss man zunächst die Verschiedenartigkeit der Zeitarbeit anerkennen. Im Anschluss daran muss man herausfinden, welchen Typ Zeitarbeit man in einem bestimmten Unternehmen vor sich hat, wovon dieser beeinflusst wird und was man anders oder besser machen kann. Es geht in diesem Beitrag also zuallererst darum, Motive der Zeitarbeitsnutzung herauszuarbeiten und zu untersuchen, wie sie zu verschiedenen Formen des Zeitarbeitseinsatzes in Unternehmen führen.