Refine
Year of publication
Document Type
- Article (525)
- Conference Proceeding (162)
- Bachelor Thesis (148)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
Is part of the Bibliography
- no (1321)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
Our research project, "Rationalizing the virtualization of botanical document material and their usage by process optimization and automation (Herbar-Digital)" started on July 1, 2007 and will last until 2012. Its long-term aim is the digitization of the more than 3,5 million specimens in the Berlin Herbarium. The University of Applied Sciences and Arts in Hannover collaborates with the department of Biodiversity Informatics at the BGBM (Botanic Garden and Botanical Museum Berlin-Dahlem) headed by Walter Berendsohn. The part of Herbar-Digital here presented deals with the analysis of the generated high resolution images (10,400 lines x 7,500 pixel).
Milk concentrates are used in the manufacturing of dairy products such as yogurt and cheese or are processed into milk powder. Processes for the nonthermal separation of water and valuable milk ingredients are becoming increasingly widespread at farm level. The technical barriers to using farm-manufactured milk concentrate in dairies are minimal, hence the suspicion that the practice of on-farm raw milk concentration is still fairly uncommon for economic reasons. This study, therefore, set out to investigate farmers’ potential willingness to adopt a raw milk concentration plant. The empirical analysis was based on discrete choice experiments with 75 German dairy farmers to identify preferences and the possible adoption of on-farm raw milk concentration. The results showed that, in particular, farmers who deemed the current milk price to be insufficient viewed on-farm concentration using membrane technology as an option for diversifying their milk sales. We found no indication that adoption would be impeded by a lack of trustworthy information on milk processing technologies or capital.
Family risks are known to be detrimental to children’s attachment development. This study investigated whether parental sensitivity plays different roles in early attachment development in the context of risk: Sensitivity was hypothesized to mediate risk effects on attachment, as well as a moderator that shapes the relation between risk and attachment. Multiple family risks, parental sensitivity (defined as responsivity and supportive presence), and children’s attachment security of 197 infants and toddlers (Mage = 15.25 months) and their caregivers were assessed in a prospective study with a cohort-sequential-design in Germany. Caregivers’ sensitivity served as a mediator of risk effects on attachment as well as a moderator that buffers adverse consequences of risk. Early sensitivity might be relevant in setting the stage for attachment development supporting resilience.
Bereits zum dritten Mal in Folge nahm eine zehnköpfige Gruppe Studierender der Hochschule Hannover aus dem Vollzeit- sowie dem berufsbegleitenden Bachelor-Studiengang Informationsmanagement, in Begleitung zweier Dozentinnen, an der BOBCATSSS-Konferenz teil. Nachdem bisher ausschließlich auf der Hochschulwebseite und tagesaktuell im Blog über Erfahrungen und Erlebnisse während der drei BOBCATSSS-Exkursionen berichtet wurde, folgt hiermit nun ein zusammenhängender Beitrag über die diesjährige Konferenz vom 24. bis zum 26. Januar 2018 in Riga, Lettland. Die BOBCATSSS-Konferenz ist eine internationale Konferenz der Bibliotheks- und Informationswissenschaften. Im Gegensatz zu IFLA & Co wird sie fast ausschließlich von Studierenden wechselnder Universitäten in Europa ausgerichtet.
In den letzten Jahren hat sich der Trend zu forcierter Rationalisierung, zur Automatisierung und Mechanisierung der Produktion beschleunigt. Automatisierung erfordert aber hohe Inverstitionen und lässt so den Fixkostenblock wachsen. Bei einem Rückgang der Kapazitätsauslastung rutscht das Unternehmen aber rasch in die Verlustzone. Deshalb erscheint eine Rückbesinnung auf eher flexiblere, arbeitsorientierte Organisationskonzepte sinnvoll. Vorgestellt wird ein kybernetisches Regelkreismodell mit flacher Hierarchie als "Klammer" und sich weitgehend selbstregulierenden Unternehmenseinheiten.
Severe mastitis can lead to considerable disturbances in the cows’ general condition and even to septicemia and death. The aim of this cross-sectional study was to identify factors associated with the severity of the clinical expression of mastitis. Streptococcus (Str.) uberis (29.9%) was the most frequently isolated pathogen, followed by coliform bacteria (22.3%). The majority of all mastitis cases (n = 854) in this study were either mild or moderate, but 21.1% were severe. It can be deduced that the combination of coliform pathogens and increasing pathogen shedding of these showed associations with severe mastitis. Furthermore, animal-related factors associated with severe disease progression were stages of lactation, and previous diseases in the period prior to the mastitis episode. Cows in early lactation had more severe mastitis. Ketosis and uterine diseases in temporal relation to the mastitis were associated with more severe mastitis in the diseased cows. Hypocalcemia was significantly associated with milder mastitis. As another factor, treatment with corticosteroids within two weeks before mastitis was associated with higher severity of mastitis. Knowledge of these risk factors may provide the basis for randomized controlled trials of the exact influence of these on the severity of mastitis.
Background: Stereotactic radiosurgery (SRS) is an effective treatment for trigeminal neuralgia (TN). Nevertheless, a proportion of patients will experience recurrence and treatment-related sensory disturbances. In order to evaluate the predictors of efficacy and safety of image-guided non-isocentric radiosurgery, we analyzed the impact of trigeminal nerve volume and the nerve dose/volume relationship, together with relevant clinical characteristics.
Methods: Two-hundred and ninety-six procedures were performed on 262 patients at three centers. In 17 patients the TN was secondary to multiple sclerosis (MS). Trigeminal pain and sensory disturbances were classified according to the Barrow Neurological Institute (BNI) scale. Pain-free-intervals were investigated using Kaplan Meier analyses. Univariate and multivariate Cox regression analyses were performed to identify predictors.
Results: The median follow-up period was 38 months, median maximal dose 72.4 Gy, median target nerve volume 25mm3, and median prescription dose 60 Gy. Pain control rate (BNI I-III) at 6, 12, 24, 36, 48, and 60 months were 96.8, 90.9, 84.2, 81.4, 74.2, and 71.2%, respectively. Overall, 18% of patients developed sensory disturbances. Patients with volume ≥ 30mm3 were more likely to maintain pain relief (p = 0.031), and low integral dose (< 1.4 mJ) tended to be associated with more pain recurrence than intermediate (1.4–2.7 mJ) or high integral dose (> 2.7 mJ; low vs. intermediate: log-rank test, χ2 = 5.02, p = 0.019; low vs. high: log-rank test, χ2 = 6.026, p = 0.014). MS, integral dose, and mean dose were the factors associated with pain recurrence, while re-irradiation and MS were predictors for sensory disturbance in the multivariate analysis.
Conclusions: The dose to nerve volume ratio is predictive of pain recurrence in TN, and re-irradiation has a major impact on the development of sensory disturbances after non-isocentric SRS. Interestingly, the integral dose may differ significantly in treatments using apparently similar dose and volume constraints.
Dieser Band ist eine Festschrift zum 68. Geburtstag von Klaus Schubert, der seit 30 Jahren – zunächst an der Fachhochschule Flensburg, dann an der Universität Hildesheim – als Professor im Bereich der Fachkommunikationswissenschaft starke Impulse gesetzt und das Fach nachhaltig geprägt hat. Nicht nur durch sein Modell der vier Dimensionen der Fachkommunikation, sondern auch durch umfassende Publikationstätigkeit, unerschöpfliche Einsatzbereitschaft in der Lehre und herausragendes Engagement für die Förderung des wissenschaftlichen Nachwuchses hat Klaus Schubert die eigenständige Disziplin der Fachkommunikationswissenschaft begründet, bekannt gemacht und fortentwickelt. Seine Studierenden, Promovierenden und Fachkolleginnen und -kollegen sind dadurch nachhaltig geprägt worden.
„Fachkommunikationswissenschaft gestern, heute, morgen“ versammelt Beiträge von Klaus Schuberts ehemaligen und aktuellen Doktorandinnen und Doktoranden, Mitarbeiterinnen und Mitarbeitern und Weggefährtinnen und Weggefährten, in denen die große Diversität der Fachkommunikationswissenschaft zum Ausdruck kommt.
Report of a research project of the Fachhochschule Hannover, University of Applied Sciences and Arts, Department of Information Technologies. Automatic face recognition increases the security standards at public places and border checkpoints. The picture inside the identification documents could widely differ from the face, that is scanned under random lighting conditions and for unknown poses. The paper describes an optimal combination of three key algorithms of object recognition, that are able to perform in real time. The camera scan is processed by a recurrent neural network, by a Eigenfaces (PCA) method and by a least squares matching algorithm. Several examples demonstrate the achieved robustness and high recognition rate.
Background: This basically anatomical study focuses on two items; firstly, the establishment of a system for the cartographic subdivision of the neopallium; secondly, the topographical correlation of extracranial landmarks and intracranial sites on the neopallium.
Materials and methods: The surface of the neopallium was subdivided into 15 sectors with reference to a newly introduced pattern of Primary Sulci. The topographical link between extracranial landmarks and certain intracranial sites (i.e. neopallium sectors) was elaborated by using a simple stereotactic device and a computer-assisted measurement device. Measurements were performed between points on the head's outer surface and on the isolated brain.
Results and Conclusions: The introduction of an anatomical three-dimensional coordinate system was an essential key issue for this investigation. This setting facilitated the measurements and calculations of the so-called indirect distances that were characterised by their alignment along the three orthogonal axes (x, y, z) of the anatomical coordinate system. The inter-individual comparison (16 adult horses [Equus caballus]) of the indirect distances revealed that each sector centre lay within a distinct morphometric residence area. The measured and calculated data also showed that each sector centre could be assigned to its proper extracranial landmark that - in comparison with other landmarks - was best suited for the optimal allocation of the sector centre point.
Pathologists need to identify abnormal changes in tissue. With the developing digitalization, the used tissue slides are stored digitally. This enables pathologists to annotate the region of interest with the support of software tools. PathoLearn is a web-based learning platform explicitly developed for the teacher-student scenario, where the goal is that students learn to identify potential abnormal changes. Artificial intelligence (AI) and machine learning (ML) have become very important in medicine. Many health sectors already utilize AI and ML. This will only increase in the future, also in the field of pathology. Therefore, it is important to teach students the fundamentals and concepts of AI and ML early in their studies. Additionally, creating and training AI generally requires knowledge of programming and technical details. This thesis evaluates how this boundary can be overcome by comparing existing end-to-end AI platforms and teaching tools for AI. It was shown that a visual programming editor offers a fitting abstraction for creating neural networks without programming. This was extended with real-time collaboration to enable students to work in groups. Additionally, an automatic training feature was implemented, removing the necessity to know technical details about training neural networks.
This paper presents a possibility to extend the formalism of linear indexed grammars. The extension is based on the use of tuples of pushdowns instead of one pushdown to store indices during a derivation. If a restriction on the accessibility of the pushdowns is used, it can be shown that the resulting formalisms give rise to a hierarchy of languages that is equivalent with a hierarchy defined by Weir. For this equivalence, that was already known for a slightly different formalism, this paper gives a new proof. Since all languages of Weir's hierarchy are known to be mildly context sensitive, the proposed extensions of LIGs become comparable with extensions of tree adjoining grammars and head grammars.
Renewable energy production is one of the strongest rising markets and further extreme growth can be anticipated due to desire of increased sustainability in many parts of the world. With the rising adoption of renewable power production, such facilities are increasingly attractive targets for cyber attacks. At the same time higher requirements on a reliable production are raised. In this paper we propose a concept that improves monitoring of renewable power plants by detecting anomalous behavior. The system does not only detect an anomaly, it also provides reasoning for the anomaly based on a specific mathematical model of the expected behavior by giving detailed information about various influential factors causing the alert. The set of influential factors can be configured into the system before learning normal behaviour. The concept is based on multidimensional analysis and has been implemented and successfully evaluated on actual data from different providers of wind power plants.
Background: In Germany, hospice and palliative care is well covered through inpatient, outpatient, and home-based care services. It is unknown if, and to what extent, there is a need for additional day care services to meet the specific needs of patients and caregivers.
Methods: Two day hospices and two palliative day care clinics were selected. In the first step, two managers from each facility (n = 8) were interviewed by telephone, using a semi-structured interview guide. In the second step, four focus groups were conducted, each with three to seven representatives of hospice and palliative care from the facilities’ hospice and palliative care networks. Interviews and focus groups were audio recorded, transcribed verbatim and analyzed using qualitative content analysis.
Results: The interviewed experts perceived day care services as providing additional patient and caregiver benefits. Specifically, the services were perceived to meet patient needs for social interaction and bundled treatments, especially for patients who did not fit into inpatient settings (due to, e.g., their young age or a lack of desire for inpatient admission). The services were also perceived to meet caregiver needs for support, providing short-term relief for the home care situation.
Conclusions: The results suggest that inpatient, outpatient, and home-based hospice and palliative care services do not meet the palliative care needs of all patients. Although the population that is most likely to benefit from day care services is assumed to be relatively small, such services may meet the needs of certain patient groups more effectively than other forms of care.
Recent research efforts have highlighted the potential of hybrid composites in the context of additive manufacturing. The use of hybrid composites can lead to an enhanced adaptability of the mechanical properties to the specific loading case. Furthermore, the hybridization of multiple fiber materials can result in positive hybrid effects such as increased stiffness or strength. In contrast to the literature, where only the interply and intrayarn approach has been experimentally validated, this study presents a new intraply approach, which is experimentally and numerically investigated. Three different types of tensile specimens were tested. The non-hybrid tensile specimens were reinforced with contour-based fiber strands of carbon and glass. In addition, hybrid tensile specimens were manufactured using an intraply approach with alternating carbon and glass fiber strands in a layer plane. In addition to experimental testing, a finite element model was developed to better understand the failure modes of the hybrid and non-hybrid specimens. The failure was estimated using the Hashin and Tsai–Wu failure criteria. The specimens showed similar strengths but greatly different stiffnesses based on the experimental results. The hybrid specimens demonstrated a significant positive hybrid effect in terms of stiffness. Using FEA, the failure load and fracture locations of the specimens were determined with good accuracy. Microstructural investigations of the fracture surfaces showed notable evidence of delamination between the different fiber strands of the hybrid specimens. In addition to delamination, strong debonding was particularly evident in all specimen types.
Objective
The study’s objective was to assess factors contributing to the use of smart devices by general practitioners (GPs) and patients in the health domain, while specifically addressing the situation in Germany, and to determine whether, and if so, how both groups differ in their perceptions of these technologies.
Methods
GPs and patients of resident practices in the Hannover region, Germany, were surveyed between April and June 2014. A total of 412 GPs in this region were invited by email to participate via an electronic survey, with 50 GPs actually doing so (response rate 12.1%). For surveying the patients, eight regional resident practices were visited by study personnel (once each). Every second patient arriving there (inclusion criteria: of age, fluent in German) was asked to take part (paper-based questionnaire). One hundred and seventy patients participated; 15 patients who did not give consent were excluded.
Results
The majority of the participating patients (68.2%, 116/170) and GPs (76%, 38/50) owned mobile devices. Of the patients, 49.9% (57/116) already made health-related use of mobile devices; 95% (36/38) of the participating GPs used them in a professional context. For patients, age (P < 0.001) and education (P < 0.001) were significant factors, but not gender (P > 0.99). For doctors, neither age (P = 0.73), professional experience (P > 0.99) nor gender (P = 0.19) influenced usage rates. For patients, the primary use case was obtaining health (service)-related information. For GPs, interprofessional communication and retrieving information were in the foreground. There was little app-related interaction between both groups.
Conclusions
GPs and patients use smart mobile devices to serve their specific interests. However, the full potentials of mobile technologies for health purposes are not yet being taken advantage of. Doctors as well as other care providers and the patients should work together on exploring and realising the potential benefits of the technology.
Objective: The study’s objective was to assess factors contributing to the use of smart devices by general practitioners (GPs) and patients in the health domain, while specifically addressing the situation in Germany, and to determine whether, and if so, how both groups differ in their perceptions of these technologies.
Methods: GPs and patients of resident practices in the Hannover region, Germany, were surveyed between April and June 2014. A total of 412 GPs in this region were invited by email to participate via an electronic survey, with 50 GPs actually doing so (response rate 12.1%). For surveying the patients, eight regional resident practices were visited by study personnel (once each). Every second patient arriving there (inclusion criteria: of age, fluent in German) was asked to take part (paper-based questionnaire). One hundred and seventy patients participated; 15 patients who did not give consent were excluded.
Results: The majority of the participating patients (68.2%, 116/170) and GPs (76%, 38/50) owned mobile devices. Of the patients, 49.9% (57/116) already made health-related use of mobile devices; 95% (36/38) of the participating GPs used them in a professional context. For patients, age (P<0.001) and education (P<0.001) were significant factors, but not gender (P>0.99). For doctors, neither age (P¼0.73), professional experience (P>0.99) nor gender (P¼0.19) influenced usage rates. For patients, the primary use case was obtaining health (service)-related information. For GPs, interprofessional communication and retrieving information were in the foreground. There was little app-related interaction between both groups.
Conclusions: GPs and patients use smart mobile devices to serve their specific interests. However, the full potentials of mobile technologies for health purposes are not yet being taken advantage of. Doctors as well as other care providers and the patients should work together on exploring and realising the potential benefits of the technology.
Exkursion
(2011)
Die wirtschaftspolitische Förderung von Existenz- und besonders Unternehmensgründungen zielt auf die Schaffung von Wertschöpfung und damit von Einkommen, Nachfrage und Wachstum im Kontext regionaler Mikrokreisläufe. In diesem Zusammenhang besteht die Aufgabe der Existenzgründungsberatung im Hinblick auf die Gründungsplanung und die nachfolgende Gründungsrealisierung in der Vermeidung oder Minimierung der Gründungsrisiken. Diese Risiken werden hier anhand des modifizierten Modells der Gewinnschwellenanalyse (Break – Even - Analyse) aufgezeigt und in ihren Konsequenzen erläutert. Zugleich wird erkennbar, wie sie vermieden oder minimiert werden können. Und eine phasenorientierte, am Projektmanagement orientierte praktische Vorgehensweise, in deren Mittelpunkt der Geschäftsplan (Business Plan) steht, gewährleistet die nötige Systematik, die begleitende Qualitätssicherung und die betriebswirtschaftliche Steuerung des mehrjährigen Gründungsprozesses.
Die Bachelorarbeit befasst sich mit dem Generieren kurzer fröhlicher und harmonischer Musikstücke mittels des Einsatzes genetischer Algorithmen. Dabei werden die Evolutionsprozesse der Biologie nachgeahmt. In der Programmiersprache Java, unter der Verwendung der Open-Source-Programmierbibliothek JFugue, sind dafür die einzelnen Zyklusphasen entworfen und implementiert worden.
Die Vereinigung der Biologie, der Kunst und der Informatik wird damit erreicht, um etwas ästhetisch Wirksames zu schaffen und stellt den besonderen Reiz der Arbeit dar.
Background: Upsurge in cardiopulmonary dysfunctions in Enugu, Nigeria, involved mainly cement workers, automobile spray painters, woodworkers, and Cleaners and was worsened in the dry season, suggesting the need for an occupation-specific characterization of the disease features and seasonal evaluation of air quality for prevention and management.
Methods: We conducted a randomized cross-sectional study of eighty consenting participants (in Achara Layout, Enugu), comprising 20 cement workers (39.50 ± 14.95 years), 20 automobile spray painters (40.75 ± 9.85 years), 20 woodworkers (52.20 ± 9.77 years), and 20 cleaners (42.30 ± 9.06 years). The air quality, some haematological (fibrinogen-Fc, and C-reactive protein-CRP), and cardiopulmonary parameters were measured and analyzed using ANCOVA, at p < 0.05.
Results: The dry season particulate matter (PM) in ambient air exceeded the WHO standards in the New layout [PM10 = 541.17 ± 258.72 µg/m3; PM2.5 = 72.92 ± 25.81 µg/m3] and the University campus [PM10 = 244 ± 74.79 µg/m3; PM2.5 = 30.33 ± 16.10 µg/m3], but the former was twice higher. The PM differed significantly (p < 0.05) across the sites. Forced expiratory volume at the first second (FEV1) (F = 6.128; p = 0.001), and Peak expiratory flow rate (PEFR) (F = 5.523; p = 0.002), differed significantly across the groups. FEV1/FVC% was < 70% in cement workers (55.33%) and woodworkers (61.79%), unlike, automobile spray painters (72.22%) and cleaners (70.66%). FEV1 and work duration were significantly and negatively related in cement workers (r = -0.46; r2 = 0.2116; p = 0.041 one-tailed). CRP (normal range ≤ 3.0 mg/L) and Fc (normal range—1.5–3.0 g/L) varied in cement workers (3.32 ± 0.93 mg/L versus 3.01 ± 0.85 g/L), automobile spray painters (2.90 ± 1.19 mg/L versus 2.54 ± 0.99 mg/L), woodworkers (2.79 ± 1.10 mg/L versus 2.37 ± 0.92 g/L) and cleaners (3.06 ± 0.82 mg/L versus 2.54 ± 0.70 g/L).
Conclusion(s): Poor air quality was evident at the study sites, especially in the dry season. Cement workers and automobile spray painters showed significant risks of obstructive pulmonary diseases while woodworkers had restrictive lung diseases. Cement workers and cleaners recorded the highest risk of coronary heart disease (CRP ≥ 3.0 mg/L). The similarity in Fc and CRP trends suggests a role for the inflammation-sensitive proteins in the determination of cardiovascular risk in cement workers and cleaners. Therefore, there are occupation-specific disease endpoints of public health concern that likewise warrant specific preventive and management approaches among the workers.
Background: Foodstuff traders operating from warehouses (FTFW) are potentially exposed to dangerous rodenticides/pesticides that may have adverse effects on cardiopulmonary function. Methods: 50 consenting male foodstuff traders, comprising 15 traders (21–63 years) operating outside warehouses and 35 FTFW (20–64 years), were randomly recruited at Ogbete Market, Enugu, in a cross-sectional observational study of spirometric and electrocardiographic parameters. 17 FTFW (21–57 years) participated in focus group discussions. Qualitative and quantitative data were analysed thematically and with independent t-test and Pearson correlation coefficient at p < 0.05, respectively. Results: Most FTFW experienced respiratory symptoms, especially dry cough (97,1%) and wheezing (31.4%) with significant reductions in forced vital capacity (FVC) (t = -2.654; p = 0.011), forced expiratory volume in one second (FEV1) (t = -2.240; p = 0.030), maximum expiratory flow rate (FEF200-1200) (t = -1.148; p = -0.047), and forced end-expiratory flow (FEF25-75) (t = -1.11; p = 0.007). The maximum mid-expiratory flow (FEF25-75) was marginally decreased (p > 0.05) with a significantly prolonged (p < 0.05) QTc interval. Conclusion: Allergic response was evident in the FTFW. Significant decrease in FVC may negatively impact lung flow rates and explains the marginal decrease in FEF25-75, which implies a relative limitation in airflow of peripheral/distal airways and elastic recoil of the lungs. This is consistent with obstructive pulmonary disease; a significant decrease in FEF75-85/FEV1 supports this conclusion. Significant decrease in FEF200-1200 indicates abnormalities in the large airways/larynx just as significantly prolonged ventricular repolarization suggests cardiac arrhythmias.
Zusammen mit der Microservice-Bewegung werden immer häufiger synchrone Request-Response-Schnittstellen nach dem REST-Paradigma entwickelt, um Service-Landschaften zu integrieren. Die Einfachheit des Paradigmas verleitet viele Organisationen, nahezu die komplette Interprozesskommunikation ihres Ökosystems über diese Art von Schnittstelle abzuwickeln – nicht ohne Konsequenzen.
Diese Arbeit entwickelt Ansätze, wie die Integrationsprobleme, die bei übermäßiger Verwendung von REST entstehen, mithilfe von Event-Driven Architecture gelöst werden können, ohne den Status quo dieser Organisationen außer Acht zu lassen. Dafür werden der gegenwärtige Zustand der Integrationsmuster und eingesetzten Infrastruktur von Event-Driven Architecture kritisiert und Kriterien erarbeitet, die pragmatische und zugängliche Integrationsansätze erfüllen müssen. Um die Einführungskosten gering zu halten, wird eine Middleware entwickelt, die in bestehende REST-Schnittstellen eingesetzt werden kann und auf Basis der API-Aufrufe Events generiert. Darauf aufbauend werden vier Integrationsmuster entwickelt, die eine schrittweise Transformation zu Event-Driven Microservices ermöglichen. Um die Zugänglichkeit der Eventing-Infrastruktur zu erhöhen, wird außerdem wird die Standardisierung der Event-Struktur durch die CloudEvents-Spezifikation vorgeschlagen. Um die Zugänglichkeit weiter zu erhöhen, erfolgt die Kommunikation der Services nicht direkt mit dem Event-Broker, sondern über Proxies, die die Events per HTTP annehmen oder ausspielen. Um die Transparenz über den Datenfluss im System zu wahren, werden alle Produzenten und Konsumenten werden mitsamt ihrer Events durch den Beschreibungsstandard AsyncAPI dokumentiert.
Nach einer Validierung dieser Ansätze mithilfe eines Prototyps kommt diese Arbeit zu der Erkenntnis, dass der Einsatz der entwickelten Middleware für alle Organisationen sinnvoll ist, die bereits viele REST-Schnittstellen im Einsatz haben. Die Standardisierung der Event-Struktur und des Event-Protokolls mittels CloudEvents und HTTP-Proxies sowie die Dokumentation durch AsyncAPI empfiehlt sich auch unabhängig des Status quo für alle Organisationen, die Event-Driven Microservices entwickeln möchten.
Decision support systems for traffic management systems have to cope with a high volume of events continuously generated by sensors. Conventional software architectures do not explicitly target the efficient processing of continuous event streams. Recently, event-driven architectures (EDA) have been proposed as a new paradigm for event-based applications. In this paper we propose a reference architecture for event-driven traffic management systems, which enables the analysis and processing of complex event streams in real-time and is therefore well-suited for decision support in sensor-based traffic control sys- tems. We will illustrate our approach in the domain of road traffic management. In particular, we will report on the redesign of an intelligent transportation management system (ITMS) prototype for the high-capacity road network in Bilbao, Spain.
Heterogeneity has to be taken into account when integrating a set of existing information sources into a distributed information system that are nowadays often based on Service- Oriented Architectures (SOA). This is also particularly applicable to distributed services such as event monitoring, which are useful in the context of Event Driven Architectures (EDA) and Complex Event Processing (CEP). Web services deal with this heterogeneity at a technical level, also providing little support for event processing. Our central thesis is that such a fully generic solution cannot provide complete support for event monitoring; instead, source specific semantics such as certain event types or support for certain event monitoring techniques have to be taken into account. Our core result is the design of a configurable event monitoring (Web) service that allows us to trade genericity for the exploitation of source specific characteristics. It thus delivers results for the areas of SOA, Web services, CEP and EDA.
This article discusses event monitoring options for heterogeneous event sources as they are given in nowadays heterogeneous distributed information systems. It follows the central assumption, that a fully generic event monitoring solution cannot provide complete support for event monitoring; instead, event source specific semantics such as certain event types or support for certain event monitoring techniques have to be taken into account. Following from this, the core result of the work presented here is the extension of a configurable event monitoring (Web) service for a variety of event sources. A service approach allows us to trade genericity for the exploitation of source specific characteristics. It thus delivers results for the areas of SOA, Web services, CEP and EDA.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
In dieser Arbeit wurden vorliegende Fragebögen zur Evaluation von Lehrveranstaltungen hinsichtlich ihrer Eignung zum Einsatz im Rahmen der regelmäßigen studentischen Lehrveranstaltungsevaluation an der Hochschule Hannover – Fakultät IV – Abteilung Betriebswirtschaft geprüft. Ziel war es, einen ökonomischen und methodisch überzeugenden Fragebogen zu identifizieren. Die Sichtung der einschlägigen Literatur sowie der vorliegenden Fragebögen zeigte, dass keiner dieser Fragebögen zur Evaluation von Lehrveranstaltungen alle relevanten Kriterien vollständig erfüllte. Deshalb wurden alle Items der recherchierten Fragebögen für die Verwendung innerhalb eines neuen Fragebogens inhaltlich gruppiert und überprüft. Im Ergebnis steht ein ökonomisch und unter Berücksichtigung methodisch aktueller Befunde konzipierter Fragebogen zur Verfügung, der sowohl für den Einsatz in der regelmäßigen studentischen Evaluation von Lehrveranstaltungen einer Hochschule geeignet ist als auch für den Einsatz in Fort- und Weiterbildungsveranstaltungen.
Background: Autism Spectrum Disorder (ASD) is characterized by impairments in social communication, limited repetitive behaviors, impaired language development, and interest or activity patterns, which include a group complex neurodevelopmental syndrome with diverse phenotypes that reveal considerable etiological and clinical heterogeneity and are also considered one of the most heritable disorders (over 90%). Genetic, epigenetic, and environmental factors play a role in the development of ASD.
Aim: This study was designed to investigate the extent of DNA damage in parents of autistic children by treating peripheral blood mononuclear cells (PBMCs) with bleomycin and hydrogen peroxide (H2O2).
Methods: Peripheral blood mononuclear cells (PBMCs) were isolated by the Ficoll method and treated with a specific concentration of bleomycin and H2O2 for 30 min and 5 min, respectively. Then, the degree of DNA damage was analyzed by the alkaline comet assay or single cell gel electrophoresis (SCGE), an effective way to measure DNA fragmentation in eukaryotic cells.
Results: Our findings revealed that there is a significant difference in the increase of DNA damage in parents with affected children compared to the control group, which can indicate the inability of the DNA molecule repair system. Furthermore, our study showed a significant association between fathers’ occupational difficulties (exposed to the influence of environmental factors), as well as family marriage, and suffering from ASD in offspring.
Conclusion: Our results suggested that the influence of environmental factors on parents of autistic children may affect the development of autistic disorder in their offspring. Subsequently, based on our results, investigating the effect of environmental factors on the amount of DNA damage in parents with affected children requires more studies.
Dulisch, Linssen und Reiter (2001) legten ein umfassendes Evaluationskonzept für die FH Bund vor. In den zehn Fachbereichen und im Zentralbereich der FH Bund erfolgt/e eine Diskussion, Modifikation und konkrete Anpassung an die Belange vor Ort. Dieser Prozess wurde in einer Evaluationtagung an der FH Bund im Juni 2003 gebündelt. Die Tagung zeigte, dass alle Fachbereiche und der Zentralbereich Fortschritte machen, wenn auch in unterschiedlichem Tempo. Dieser Band dokumentiert den Status Quo der Evaluation in den Fachbereichen und dem Zentralbereich und folgt damit § 6 Hochschulrahmengesetz (HRG), wonach die Arbeit der Hochschulen bewertet und das Ergebnis der Bewertung veröffentlicht werden soll. Inhaltsübersicht: - Evaluation an Fachhochschulen - Überblick - Empfehlungen des Benchmarking Clubs - Evaluationstagung der FH Bund 2003 - Zentralbereich - Allgemeine und Innere Verwaltung - Arbeitsverwaltung - Auswärtige Angelegenheiten - Bundesgrenzschutz - Bundeswehrverwaltung - Finanzen - Landwirtschaftliche Sozialversicherung - Öffentliche Sicherheit - Gesamtkonzept - Öffentliche Sicherheit - Abteilung Kriminalpolizei - Sozialversicherung - Wetterdienst
Nowadays, REST is the most dominant architectural style of choice at least for newly created web services. So called RESTfulness is thus really a catchword for web application, which aim to expose parts of their functionality as RESTful web services. But are those web services RESTful indeed? This paper examines the RESTfulness of ten popular RESTful APIs (including Twitter and PayPal). For this examination, the paper defines REST, its characteristics as well as its pros and cons. Furthermore, Richardson's Maturity Model is shown and utilized to analyse those selected APIs regarding their RESTfulness. As an example, a simple, RESTful web service is provided as well.
Background
Systematic reviews demonstrated that gait variables are the most reliable predictors of future falls, yet are rarely included in fall screening tools. Thus, most tools have higher specificity than sensitivity, hence may be misleading/detrimental to care. Therefore, this study aimed to determine the validity, and reliability of the velocity field diagram (VFD -a gait analytical tool), and the Timed-up-and-go test (TUG)-commonly used in Nigeria as fall screening tools, compared to a gold standard (known fallers) among community-dwelling older adults.
Method
This is a cross-sectional observational study of 500 older adults (280 fallers and 220 non-fallers), recruited by convenience sampling technique at community health fora on fall prevention. Participants completed a 7-m distance with the number of steps and time it took determined and used to compute the stride length, stride frequency, and velocity, which regression lines formed the VFD. TUG test was simultaneously conducted to discriminate fallers from non-fallers. The cut-off points for falls were: TUG times ≥ 13.5 s; VFD’s intersection point of the stride frequency, and velocity regression lines (E1) ≥ 3.5velots. The receiver operating characteristic (ROC) area under the curves (AUC) was used to explore the ability of the E1 ≥ 3.5velots to discriminate between fallers and non-fallers. The VFD’s and TUG’s sensitivity, specificity, positive predictive value (PPV), and negative predictive value (NPV) were determined. Alpha was set at p < 0.05.
Results
The VFD versus TUG sensitivity, specificity, PPV and NPV were 71%, 27%, 55%, and 42%, versus 39%, 59%, 55%, and 43%, respectively. The ROC’s AUC were 0.74(95%CI:0.597,0.882, p = 0.001) for the VFD. The optimal categorizations for discrimination between fallers/non-fallers were ≥ 3.78 versus ≤ 3.78 for VFD (fallers versus non-fallers prevalence is 60.71% versus 95.45%, respectively), with a classification accuracy or prediction rate of 0.76 unlike TUG with AUC = 0.53 (95% CI:0.353,0.700, p = 0.762), and a classification accuracy of 0.68, and optimal characterization of ≥ 12.81 s versus ≤ 12.81 (fallers and non-fallers prevalence = 92.86% versus 36.36%, respectively).
Conclusion
The VFD demonstrated a fair discriminatory power and greater reliability in identifying fallers than the TUG, and therefore, could replace the TUG as a primary tool in screening those at risk of falls.
Our work is motivated primarily by the lack of standardization in the area of Event Processing Network (EPN) models. We identify general requirements for such models. These requirements encompass the possibility to describe events in the real world, to establish temporal and causal relationships among the events, to aggregate the events, to organize the events into a hierarchy, to categorize the events into simple or complex, to create an EPN model in an easy and simple way and to use that model ad hoc. As the major contribution, this paper applies the identified requirements to the RuleCore model.
Mobile crowdsourcing refers to systems where the completion of tasks necessarily requires physical movement of crowdworkers in an on-demand workforce. Evidence suggests that in such systems, tasks often get assigned to crowdworkers who struggle to complete those tasks successfully, resulting in high failure rates and low service quality. A promising solution to ensure higher quality of service is to continuously adapt the assignment and respond to failure-causing events by transferring tasks to better-suited workers who use different routes or vehicles. However, implementing task transfers in mobile crowdsourcing is difficult because workers are autonomous and may reject transfer requests. Moreover, task outcomes are uncertain and need to be predicted. In this paper, we propose different mechanisms to achieve outcome prediction and task coordination in mobile crowdsourcing. First, we analyze different data stream learning approaches for the prediction of task outcomes. Second, based on the suggested prediction model, we propose and evaluate two different approaches for task coordination with different degrees of autonomy: an opportunistic approach for crowdshipping with collaborative, but non-autonomous workers, and a market-based model with autonomous workers for crowdsensing.
Of late, decrease in mineral oil supplies has stimulated research on use of biomass as an alternative energy source. Climate change has brought problems such as increased drought and erratic rains. This, together with a rise in land degeneration problems with concomitant loss in soil fertility has inspired the scientific world to look for alternative bio-energy species. Euphorbia tirucalli L., a tree with C3/CAM metabolism in leaves/stem, can be cultivated on marginal, arid land and could be a good alternative source of biofuel.
We analyzed a broad variety of E. tirucalli plants collected from different countries for their genetic diversity using AFLP. Physiological responses to induced drought stress were determined in a number of genotypes by monitoring growth parameters and influence on photosynthesis. For future breeding of economically interesting genotypes, rubber content and biogas production were quantified.
Cluster analysis shows that the studied genotypes are divided into two groups, African and mostly non-African genotypes. Different genotypes respond significantly different to various levels of water. Malate measurement indicates that there is induction of CAM in leaves following drought stress. Rubber content varies strongly between genotypes. An investigation of the biogas production capacities of six E. tirucalli genotypes reveals biogas yields higher than from rapeseed but lower than maize silage.
Schattenbibliotheken sind Lösungen, die sich aus einem Literaturmangel in der Forschung ergeben haben. Urheberrechtlich geschützte Inhalte werden hier online jedem frei zur Verfügung gestellt. In der vorliegenden Arbeit wird versucht, das Wirken dieser Dokumentsammlungen einzuordnen. So wird die Entstehung von Schattenbibliotheken aufgezeigt, auf den rechtlichen Umgang mit diesen Plattform eingegangen, zwei Schattenbibliotheken beispielhaft näher betrachtet und deren Auswirkungen abgebildet, bevor die Arbeit mit einem persönlichen Fazit abschließt.
Die fortschreitende Digitalisierung unserer modernen Welt betrifft zwangsläufig auch den Bereich der Nachlässe. Fast jede verstorbene Person hinterlässt nicht nur Hausrat, Bücher, Bargeld oder Wohnungen, sondern auch digitale Spuren in Form von Daten auf heimischen Computern sowie E-Mail Konten, Chatverläufe in Nachrichtensofortdiensten auf Smartphones, Online-Bankkonten, Konten bei Bezahldiensten, Internethandelsplattformen, sozialen Netzwerken, sowie Daten unterschiedlichster Art in Cloudspeicherorten oder in anderer nicht genannter Form im World-Wide-Web. Wahrscheinlich werden diese digitalen Speicherorte oder Zugangsdaten deshalb noch nicht grundsätzlich in Vorsorgevollmachten bzw. Testamenten benannt, weil sie noch nicht im nachlass-verwaltenden Bewusstsein der Bevölkerung verankert sind. Der nahezu selbstverständlich gewordene Umgang mit den digitalen Formaten sollte diese jedoch in die Auflistung des Nachlasses miteinschließen, damit eine Erbengemeinschaft die Möglichkeit erhält, sich auch um diesen Teil des Nachlasses adäquat kümmern zu können.
Die Vision „Industrial Ethernet bis zu den Sensoren und Aktoren“ wurde Realität. Auf der Achema im Juni 2021 wurde Ethernet-APL in den Markt eingeführt. Basis dieser Technologie ist ein 2-Draht-Ethernet (engl. 2-wire-Ethernet), das sowohl Informationen als auch Energie zu den Sensoren und Aktoren des Automatisierungssystems überträgt. Ethernet-APL basiert auf dem Ethernet-Standard IEEE 802.3cg und arbeitet mit einer Datenrate von 10 Mbit/s. Eine zusätzliche Spezifikation, die Ethernet-APL Port Profile Specification, definiert zusätzliche Parameter für den Einsatz in der Prozessindustrie, insbesondere in explosionsgefährdeten Bereichen. In einem nächsten Schritt müssen sich potenzielle Anwender mit dem Engineering-Prozess von Ethernet-APL-Netzwerken vertraut machen. Zu diesem Zweck stellt das Ethernet-APL-Projekt die Ethernet-APL-Engineering-Richtlinie zur Verfügung, welche die wichtigsten Bereiche der Planung, Installation und Abnahmeprüfung abdeckt. Dieser Artikel soll einen Überblick über den Ethernet-APL-Engineering-Prozess geben und die relevanten Planungsschritte aufzeigen.
Deutsche Übersetzung des englischen Beitrags, abrufbar unter https://doi.org/10.25968/opus-2087
Der Heilberuf Pflege mit seinem am Zentralwert Gesundheit ausgerichteten gesellschaftlichen Mandat ist mit definierten Vorbehaltsaufgaben betraut und gesetzlich legitimiert. Pflegefachpersonen als Vertreter*innen der Berufsgruppe obliegt eine spezifische professionelle Verantwortung. Um ihrem gesetzlich definierten Auftrag in beruflicher Autonomie und Eigenverantwortung verlässlich zu entsprechen, verpflichten sich Pflegefachpersonen einem gemeinsam konsentierten und verbindlichen Berufsethos, das über Landesgrenzen hinaus weltweit akzeptiert ist: Der ICN-Ethikkodex ist international für 20 Mio. Pflegefachpersonen gültig und von den nationalen Kammern oder berufsständischen Vertretungen in 130 Ländern ratifiziert. Gesellschaftliche Entwicklungen und daran gebundene Innovations- und Transformationsbedarfe in der Pflege machen auch in Deutschland die dauerhafte Etablierung von Pflegekammern unausweichlich. Das Fehlen einer berufsständischen Vertretung der Pflege im Bereich der sozialrechtlichen Selbstverwaltung des Gesundheitswesens stellt ein Risiko für die Versorgungssicherheit und Versorgungsqualität der Bevölkerung dar. Die Aufgaben von Pflegekammern werden hinsichtlich ihrer gesellschaftlichen Relevanz und ihres professionsethischen Auftrags in Anlehnung an den Ethikkodex des International Council of Nurses (ICN) erläutert.
In service-oriented architectures the management of services is a crucial task during all stages of IT operations. Based on a case study performed for a group of finance companies the different aspects of service management are presented. First, the paper discusses how services must be described for management purposes. In particular, a special emphasis is placed on the integration of legacy/non web services. Secondly, the service lifecycle that underlies service management is presented. Especially, the relation to SOA governance and an appropriate tool support by registry repositories is outlined.
Bedingt durch die zunehmende Digitalisierung der wissenschaftlichen Ausbildung entstanden verschiedenste Lehrplattformen, mit denen die Verwaltung von Lehrveranstaltungen und Lehrmitteln möglich geworden ist. Die Plattform LON-CAPA ist eine davon.
Neben der Verwaltung von Lehrveranstaltungen konnten innerhalb der Plattform über eine Programmierschnittstelle auch Übungsaufgaben definiert werden, die durch das Hinterlegen der korrekten Antwort oder bei der Definition von Multiple-Choice Aufgaben einem Studierenden automatisch Feedback über dessen Lösung geben können. Komplexere Aufgaben mussten dagegen häufig manuell durch Menschen korrigiert werden.
Für die formalen Sprachen und die Automatenlehre der theoretischen Informatik wurde daher die in Java geschriebene Bibliothek JFLAP modifiziert, um als Bewertungsinstrument Aufgaben aus diesem Themengebiet automatisch auf Korrektheit bewerten zu können. Ein genereller Interfaceansatz ermöglich zusätzliche eine zugängliche Definition weiterer Aufgaben für die untersuchten Themengebiete.
Das Forschungsinformationssystem VIVO bietet als Linked-Data-basiertes System die Möglichkeit, Daten aus anderen Quellen wiederzuverwenden. In der Praxis kann man dabei auf Konvertierungsprobleme stoßen. Oft liegen Daten nur in tabellarischem Format vor, z.B. als CSV-Datei. Zur Konvertierung dieser Daten existieren verschiedene Werkzeuge, viele dieser Werkzeuge erfordern jedoch entweder spezielle technische Umgebungen (oft Linux-Systeme) oder sie sind in der Bedienung sehr anspruchsvoll. Im Artikel wird ein Workflow für die Konvertierung von Daten aus GeoNames für VIVO mit Google Refine beschrieben.
Die Prävention und Erkennung von Cyber-Angriffen ist eine Herausforderung von hoher Bedeutung, da die Digitalisierung nahezu aller Lebensbereiche immer weiter voranschreitet. Im Forschungssektor der sogenannten Intrusion Detection wird fortlaufend untersucht, inwiefern sich Machine Learning (ML) zur Erkennung von Angriffen eignet. Während ML-Algorithmen bei Anwendungsfällen wie Produktempfehlungen oder Spam-Filtern erfolgreich in Produktion eingesetzt werden können, gestaltet sich die Anwendung in der Intrusion Detection schwieriger.
In sogenannten signatur-basierten IDS-Systemen werden Regelwerke eingesetzt, um Angriffe im Netzwerkverkehr zur Laufzeit zu erkennen. Die Erstellung und Verwaltung dieser IDS-Regeln erfolgt normalerweise manuell und erfordert eine hohe Domänenexpertise. Diese Masterthesis liefert einen Forschungsbeitrag, da diese IDS-Regeln erstmals automatisiert unter der Verwendung von Machine Learning erzeugt werden. Die für diesen Zweck entwickelte Toolchain verwendet Entscheidungsbaum-Algorithmen zur Regelerzeugung aus Trainingsdaten. Des Weiteren werden die Regeln für den Einsatz in einem signatur-basierten IDS-System in das Format von Suricata konvertiert.
Die Evaluierung der erzeugten Regeln hat gezeigt, dass in einer Vielzahl von Experimenten hohe Erkennungsraten und wenige Fehlalarme möglich sind. Allerdings basieren die betroffenen Regelwerke zum Teil auf unterkomplexen Zusammenhängen in den zugrundeliegenden Trainingsdaten. Darüber hinaus verfügen die Regelwerke über eine eingeschränkte Generalisierungsfähigkeit. Für ein finales Urteil wäre es notwendig und empfehlenswert, zusätzliche Forschungskapazitäten für die Erstellung repräsentativer IDS-Datensätze aufzuwenden.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Für Freizeitmaßnahmen mit Jugendlichen sollten anspruchsvolle formale und inhaltliche Standards und Qualitätskriterien gelten. Ebenso gebührt Dokumentation und Evaluation von Freizeiten kontinuierliche Beachtung. Die einzelnen Abschnitte dieses Handbuches unterstützen eine derartige professionelle Arbeit. Die Ausführungen enthalten u. a. Konzepterstellung, Rechtsgrundlagen, Teamarbeit, Mitarbeiterschulung und pädagogische Problemfelder. Die Verfasserin, Absolventin der Studiengänge Religionspädagogik/Diakonie und Sozialarbeit an der Evangelischen Fachhochschule Hannover erläutert außerdem Rechte, Pflichten und Aufgaben von Mitarbeitern auf Freizeiten. Neben den weiteren Themen Öffentlichkeitsarbeit, Reflexion und Nachbereitung von Freizeitmaßnahmen sind Gesetzestexte, Zeitraster und Spielvorschläge in einem Anhang aufgelistet. Die Praxishilfe für Freizeitmaßnahmen richtet sich gleichermaßen an sozialpädagogische wie religionspädagogische Fachkräfte. Letzteren sind einige spezielle Themen wie Rituale, Glaube und Gottesdienst gewidmet.
Das Forschungsprojekt „Herbar Digital” [JKS00] startete 2007 mit dem Ziel der Digitalisierung des Bestands von mehr als 3,5 Millionen getrockneter Pflanzen bzw. Pflanzenteile auf Papierbögen (Herbarbelege) des Botanischen Museums Berlin. Da gelegentlich der Sammler der Pflanze unbekannt ist, wurde in der vorliegenden Arbeit ein Verfahren entwickelt, um aus kursiv geschriebenen Buchstaben deren Schreiber zu bestimmen. Dazu muss der statische Buchstabe in eine dynamische Form gebracht werden. Dies geschieht mit dem Modell einer trägen Kugel, die durch den Schriftzug rollt. Bei dieser Offline-Schreibererkennung werden verschiedene Verfahren wie die Nachbildung der Schreiblinie einzelner Buchstaben durch z.B. Legendre-Polynome verwendet. Bei Verwendung nur eines Buchstabens der Schreiber wird eine Erkennungsrate von durchschnittlich 40% erreicht. Durch Kombination von mehreren Buchstaben steigt die Erkennungsrate stark an und beträgt bei 13 Buchstaben und 93 Schreibern einer internationalen Datenbank 98,6%.
Die Auswahl geeigneter Bewerber/Innen nimmt aufgrund der demographischen Entwicklung und der damit verbundenen Verknappung der Ressource Personal einen immer höheren Stellenwert ein. Der Einsatz von Anforderungsprofilen soll dabei helfen das Risiko einer fehlerhaften Auswahlentscheidung zu verringern und somit den geeignetsten Bewerber auszuwählen. Ein Trend hin zu den Soft-Skills, wie beispielsweise Teamfähigkeit und Kommunikationsbereitschaft, ist klar zu erkennen. Gegenstand der nachfolgenden Diplomarbeit ist daher die Entwicklung eines Anforderungsprofils, welches sich auf diese Soft-Skills konzentriert. Die Erstel-lung des Anforderungsprofils erfolgt dabei auf Grundlage der von John C. Flanagan entwickelten „Critical Incident Technique“, die im deutschen Sprachgebrauch auch als Methode der kritischen Ereignisse bezeichnet wird. Infolgedessen werden zunächst die theoretischen Grundlagen eines Anforderungsprofils sowie die der „Critical Incident Technique“ detailliert erläutert. Im Anschluss daran erfolgt eine ausführliche Beschreibung der methodischen Vorgehensweise, die den kompletten Ablauf der praktischen Durchführung widerspiegelt. In diesem Zusammenhang werden getroffene Entscheidungen, die zu einer Anpassung der Vorgehensweise führten, näher erläutert und begründet. Die aus den Mitarbeiterbefragungen gewonnenen „Critical Incidents“ werden nachfolgend kategorisiert und zu Anforderungsbereichen zusammengefasst, die abschließend zum Anforderungsprofil verdichtet werden. Ferner wird die Möglichkeit einer praktischen Anwendung der Ergebnisse anhand von drei vom Autor begleiteten Projekten dargestellt.
Seit 2013 ist die Erhebung der psychischen Belastung an deutschen Arbeitsplätzen verpflichtend, verankert ist dies im §4 ArbSchG. Studien wie die der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin belegen, dass dies nicht flächendeckend geschieht. Diese Arbeit beschäftigt sich zum einen mit der Frage, warum die psychische Belastung von Mitarbeitenden in kleinen wissenschaftlichen Bibliotheken in Baden-Württemberg nicht erhoben wird. Zum anderen mit der Frage nach dem Bewusstsein der Bibliotheksleitenden für das Thema psychische Belastung. Ziel ist dabei die Nennung von Gründen fehlender Erhebungen und eine Beschreibung des Bewusstseins der Leitungspersonen. Mithilfe von Leitfadeninterviews werden Daten erhoben und mit der inhaltlich strukturierenden Inhaltsanalyse nach Kuckartz ausgewertet. Im Theorieteil werden das Arbeitsschutzgesetz, die DIN EN ISO 10075-1:2017 und eine Leitlinie der Gemeinsamen deutschen Arbeitsschutzstrategie (GDA) vorgestellt. Thematisiert wird außerdem die Veränderung der Arbeitswelt von Bibliotheksmitarbeitenden und Studien zur Arbeitszufriedenheit dieser Personen. Ergebnisse dieser Arbeit sind Hindernisse, wie zum Beispiel unklare Zuständigkeiten und Mangel an Wissen. Das Bewusstsein wird in Bezug auf das Vorwissen über psychische Belastung und die Reflexion der eigenen Rolle und eigener Erhebungsmethoden ausgewertet. Ein übergreifendes Problem scheint die umgangssprachliche und damit negative Auffassung des Begriffs psychische Belastung zu sein.
Das Institut für Gesundheitsmanagement (IGM) der Fakultät IV (Wirtschaft und Informatik) der Fachhochschule Hannover hat im Auftrag der Wirtschaftsförderungsgesellschaft „hannoverimpuls“ ein Projekt zum Thema „betriebliches Gesundheitsmanagement – Ansatzpunkte für Arbeitsmarktpotenziale in der Region Hannover“ durchgeführt und im Oktober 2008 mit Übergabe des Projektberichts abgeschlossen. Im Rahmen dieses Projektes wurden u. a. gezielt Experten zum betrieblichen Gesundheitsmanagement (BGM) aus bestehenden und neu erschlossenen Kontakten recherchiert und zur Teilnahme an einer telefonischen bzw. persönlichen Expertenbefragung motiviert. Ziel dieser empirischen Untersuchung war es herauszufinden, ob und ggf. wo genau Arbeitsmarktpotenziale durch BGM nach Einschätzung verschiedener Marktkenner existieren? Der nun vorgelegte Arbeitsbericht dokumentiert ausführlich die Ergebnisse dieser Expertenbefragung.
Das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt "Stärken oder schützen? Über Inhalte, Methoden und kollektive Orientierungen sexualpädagogischer und gewaltpräventiver Praxis – ein Professionalisierungsbeitrag (SoS)" erforschte pädagogischen Praxen mit Schwerpunkt auf der Sexualpädagogik und der Prävention sexualisierter Gewalt. Dieses Memorandum fasst die Ergebnisse des Verbundvorhabens zusammen.
Das Ziel dieser Forschungsarbeit ist es, KMU einen Überblick über die möglichen Instrumente für die Erfolgskontrolle von Social Media Marketing zu geben. Dabei wird sich auf die folgende Forschungsfrage konzentriert: „Welche Instrumente existieren, um Social Media Maßnahmen auf ihren Erfolg zu prüfen?“. Zur Beantwortung der Forschungsfrage wurde zunächst eine Literaturrecherche durchgeführt, bei der gezielt nach Modellen und Kennzahlen gesucht wurde. In diesem Zusammenhang fand eine empirische Analyse von Social Media Tools statt. Außerdem wurde eine Online-Umfrage konzipiert und an KMU versendet, um zu erfahren, wie die KMU aktuell den Erfolg messen. Dabei zeigte die Literaturrecherche, dass bis heute kein einheitlicher Ansatz für die Erfolgskontrolle existiert und die Social Media Tools verschiedene Kennzahlen bereitstellen. Darüber hinaus hat die Online-Umfrage ergeben, dass viele der Teilnehmer ihre Erfolgskontrolle sehr einfach handhaben, wofür vor allem fehlende Ressourcen verantwortlich sind.
Erfolgsfaktoren im Griff
(1993)
Ein Integriertes Risiko- und Chancenmanagement (IRCM) geht deutlich über das hinaus, was in den Organisationen heute anzutreffen ist. Es bietet jedoch die beste Möglichkeit, nicht nur mit der VUKA-Welt Schritt zu halten, sondern sogar von ihr zu profitieren. Entsprechend ist die Einführung eines chancenbasierten Denkens in Ergänzung zum risikobasierten Denken Bestandteil der Revisionsagenda für die ISO 9000 und 9001. Voraussetzung für die erfolgreiche Gestaltung eines IRCM ist die individuelle Definition, Steuerung und Integration von Risiko- und Chancenmanagementprozessen unter Beachtung von 8 Erfolgsfaktoren, den „8K“. Vom Ergebnis profitiert das Top-Management direkt: Bessere, abgestimmte Entscheidungsvorlagen ermöglichen schnellere, sachgerechtere Entscheidungen.
Im März 2021 fand erneut der langjährig etablierte „Erfahrungsaustausch: Fachreferate der Geisteswissenschaften“ statt, organisiert von Dorothee Graf (UB Duisburg-Essen), Alice Rabeler (ULB Bonn), Rosemarie Kosche (UB Duisburg-Essen) sowie Björn Gebert (ULB Münster). Ausgangspunkt der diesjährigen Veranstaltung war die Frage: „Was hat Corona im Fachreferat verändert? “ Die Veranstaltung, an der 80 Interessierte aus Deutschland und der Schweiz teilnahmen, gliederte sich in sechs inhaltliche Blöcke. Der Aufsatz fasst die Beiträge inhaltlich zusammen.
Background:
Multiple Sclerosis (MS) is a chronic inflammatory, immune mediated disease of the central nervous system, with Relapsing Remitting MS (RRMS) being the most common type. Within the last years, the status of high disease activity (HDA) has become increasingly important for clinical decisions. Nevertheless, little is known about the incidence, the characteristics, and the current treatment of patients with RRMS and HDA in Germany. Therefore, this study aims to estimate the incidence of HDA in a German RRMS patient population, to characterize this population and to describe current drug treatment routines and further healthcare utilization of these patients.
Methods:
A claims data analyses has been conducted, using a sample of the InGef Research Database that comprises data of approximately four million insured persons from around 70 German statutory health insurances (SHI). The study was conducted in a retrospective cohort design, including the years 2012–2016. Identification of RRMS population based on ICD-10 code (ICD-10-GM: G35.1). For identification of HDA, criteria from other studies as well as expert opinions have been used. Information on incidence, characteristics and current treatment of patients with RRMS and HDA was considered.
Results:
The overall HDA incidence within the RRMS population was 8.5% for 2016. It was highest for the age group of 0–19 years (29.4% women, 33.3% men) and lowest for the age group of ≥ 50 years (4.3% women, 5.6% men). Mean age of patients with RRMS and incident HDA was 38.4 years (SD: 11.8) and women accounted for 67.8%.
Analyses of drug utilization showed that 82.4% received at least one disease-modifying drug (DMD) in 2016. A percentage of 49.8% of patients received drugs for relapse therapy. A share of 55% of RRMS patients with HDA had at least one hospitalization with a mean length of stay of 13.9 days (SD: 18.3 days) in 2016. The average number of outpatient physician contacts was 28.1 (SD: 14.0).
Conclusions:
This study based on representative Germany-wide claims data from the SHI showed a high incidence of HDA especially within the young RRMS population. Future research should consider HDA as an important criterion for the quality of care for MS patients.
Aim
Musculoskeletal disorders are a major public health problem in most developed countries. As a main cause of chronic pain, they have resulted in an increasing prescription of opioids worldwide. With regard to the situation in Germany, this study aimed at estimating the prevalence of musculoskeletal diseases such as chronic low back pain (CLBP) and hip/knee osteoarthritis (OA) and at depicting the applied treatment patterns.
Subject and methods
German claims data from the InGef Research Database were analyzed over a 6-year period (2011–2016). The dataset contains over 4 million people, enrolled in German statutory health insurances. Inpatient and outpatient diagnoses were considered for case identification of hip/knee OA and CLBP. The World Health Organization (WHO) analgesic ladder was applied to categorize patients according to their pain management interventions. Information on demographics, comorbidities, and adjuvant medication was collected.
Results
In 2016, n = 2,693,481 individuals (50.5% female, 49.5% male) were assigned to the study population; 62.5% of them were aged 18–60 years. In 2016, n = 146,443 patients (5.4%) with CLBP and n = 307,256 patients (11.4%) with hip/knee OA were identified. Of those with pre-specified pain management interventions (CLBP: 66.3%; hip/knee OA: 65.1%), most patients received WHO I class drugs (CLBP: 73.6%; hip/knee OA: 68.7%) as the highest level.
Conclusion
This study provides indications that CLBP and hip/knee OA are common chronic pain conditions in Germany, which are often subjected to pharmacological pain management. Compared to non-opioid analgesic prescriptions of the WHO I class, the dispensation of WHO class II and III opioids was markedly lower, though present to a considerable extent.
Background:
Huntington’s disease (HD) is a rare, genetic, neurodegenerative and ultimately fatal disease with no cure or progression-delaying treatment currently available. HD is characterized by a triad of cognitive, behavioural and motor symptoms. Evidence on epidemiology and management of HD is limited, especially for Germany. This study aims to estimate the incidence and prevalence of HD and analyze the current routine care based on German claims data.
Methods:
The source of data was a sample of the Institute for Applied Health Research Berlin (InGef) Research Database, comprising data of approximately four million insured persons from approximately 70 German statutory health insurances. The study was conducted in a retrospective cross-sectional design using 2015 and 2016 as a two-year observation period. At least two outpatient or inpatient ICD-10 codes for HD (ICD-10: G10) during the study period were required for case identification. Patients were considered incident if no HD diagnoses in the 4 years prior to the year of case identification were documented. Information on outpatient drug dispensations, medical aids and remedies were considered to describe the current treatment situation of HD patients.
Results:
A 2-year incidence of 1.8 per 100,000 persons (95%-Confidence interval (CI): 1.4–2.4) and a 2-year period prevalence of 9.3 per 100,000 persons (95%-CI: 8.3–10.4) was observed. The prevalence of HD increased with advancing age, peaking at 60–69 years (16.8 per 100,000 persons; 95%-CI: 13.4–21.0) and decreasing afterwards.
The most frequently observed comorbidities and disease-associated symptoms in HD patients were depression (42.9%), dementia (37.7%), urinary incontinence (32.5%), extrapyramidal and movement disorders (30.5%), dysphagia (28.6%) and disorders of the lipoprotein metabolism (28.2%).
The most common medications in HD patients were antipsychotics (66.9%), followed by antidepressants (45.1%). Anticonvulsants (16.6%), opioids (14.6%) and hypnotics (9.7%) were observed less frequently.
Physical therapy was the most often used medical aid in HD patients (46.4%). Nursing services and speech therapy were used by 27.9 and 22.7% of HD patients, respectively, whereas use of psychotherapy was rare (3.2%).
Conclusions:
Based on a representative sample, this study provides new insights into the epidemiology and routine care of HD patients in Germany, and thus, may serve as a starting point for further research.
An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgelöst werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexität von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu übersetzen und eine manuelle Nacharbeit notwendig.
In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden können und welche Parameter im Moodle-STACK-Format gesetzt werden müssen, um eine äquivalente Aufgabe in Moodle-STACK zu erhalten.
Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verfügung: https://github.com/kiliandangendorf/lc2mdl
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Das Forschungspapier entwirft ein Soll-Prozessmuster für die Verwaltung von Herbarbelegen im Botanischen Garten/ Botanischen Museum in Berlin-Dahlem im Rahmen des Forschungsvorhabens "Herbar Digital". Ausgangspunkt für die Erstellung des Soll- Modells sind die bereits dokumentierten Geschäftsprozesse. Die bestehenden Prozesse werden an die Ausbaustufe 1 von Herbar Digital angepasst, um die Kosten für die Digitalisierung eines Herbarbeleges zu senken. Als Grundlage für die Optimierung der Geschäftsprozesse dient die Kanban- Methode zur Ablaufsteuerung. Die Untersuchung des Wertschöpfungskettendiagramms zeigt, dass eingehende Pflanzen nach Montage im General Herbar eingelagert werden. Bei Bedarf werden die Belege zur Digitalisierung hervorgeholt, um danach wieder eingelagert oder verliehen zu werden. Werden neue Herbarbelege ohne vorherige Einlagerung digitalisiert, lassen sich Einfrier-, Ein- und Auslagerungstätigkeiten sowie Wegezeiten einsparen. Aus diesem Optimierungspotential resultiert die Soll- Modellierung der Hauptprozesse "Eingang bearbeiten" und "Herbarbeleg digitalisieren" sowie deren unterstützende Prozesse. Anschließend wird das Optimierungspotential quantifiziert. Es zeigt sich, dass 1,2 Arbeitsstellen eingespart werden können.
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation.
Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche.
In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen.
Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Aufgrund der klimatischen Veränderungen und steigender Energiepreise hat das nachhaltige und umweltbewusste Handeln in den letzten Jahren an Bedeutung gewonnen. Um dieses Handeln zu unterstützen, können Unternehmen Energiemanagementsysteme nach dem ISO-Standard 50001 einführen. Diese Systeme ermöglichen es u. a. Energieverbräuche in einem Energie-Monitoring visuell aufzubereiten und auf Basis der Ergebnisse Analysen durchzuführen. Aus den Ergebnissen der Analyse können Energieeffizienzmaßnahmen abgeleitet werden. Nach einer Überprüfung der energetischen Optimierung kann der Zyklus erneut beginnen, sodass eine kontinuierliche Verbesserung der Energieeffizienz erfolgen kann. Im industriellen Umfeld bestehen jedoch noch Hindernisse in Bezug auf eine einheitliche Auswertung von Energiedaten für ein effektives Energiemanagement. Verschiedene semantische Interpretationen von Energiedaten und proprietäre Datenformate erschweren die Einrichtung und Erweiterung von Energiemanagementsystemen. Im Rahmen des IGF-Vorhabens "IoT_EnRG" wurde ein universelles Energieinformationsmodell entwickelt. Dieses Modell ermöglicht es, Energiedaten eine einheitliche Semantik zu geben, damit diese einfacher interpretierbar werden. Durch die Anwendung des Energieinformationsmodells können Energiedaten schneller und mit weniger Engineering-Aufwand in technische Energiemanagementsysteme integriert werden. Diese Integration war bisher erschwert, denn konventionelle Lösungen konnten für die Interpretation der Energiedaten aus unterschiedlichen Quellen der Feldebene verschiedene proprietäre Semantiken unterschiedlicher Kommunikationsprotokolle verwenden. Der Ansatz des universellen Energieinformationsmodells reduziert den Engineering-Aufwand technischer Energiemanagement-Systeme und unterstützt die Industrie bei der Installation von Energiemanagementsystemen für eine sparsame und klimaneutrale Produktion. Die Ergebnisse des Vorhabens wurden der Joint Working Group "Power Consumption Management" [1] übergeben, die sich das Ziel gesetzt hat, einen einheitlichen OPC UA-Standard für Energieinformationen auf Basis des entwickelten Modells in Form einer OPC UA Companion Spezifikation zu erarbeiten. Durch die Übergabe der Forschungsergebnisse in die Joint Working Group konnte eine nachhaltige Nutzung der Forschungsergebnisse sichergestellt werden, die deutlich über den Keis der Unternehmen im projektbegleitenden Ausschuss hinausgeht. Das Ziel des Vorhabens wurde erreicht.
Entwicklung und Untersuchung von Erkennungssoftware für den Einsatz im Projekt Herbar Digital
(2009)
Kommerzielle OCR-Programme sind nicht in der Lage kursiv geschriebene Handschriften zu lesen. Deshalb wurde in der vorliegenden Arbeit ein Verfahren entwickelt, um kursive handgeschriebene Buchstaben zu erkennen und darüber hinaus auch deren Schreiber zu bestimmen. Dazu muss der statische Buchstabe in eine dynamische Form gebracht werden. Dies geschieht mit dem Modell einer trägen Kugel, die durch den Schriftzug rollt. Über den Schreiber kann evtl. der Name des Entdeckers einer Pflanze bestimmt werden. Bei dieser Offline-Schreibererkennung werden verschiedene Verfahren wie die Nachbildung der Schreiblinie einzelner Buchstaben durch z.B. Legendre-Polynome verwendet. Bei Verwendung nur eines Buchstabens der Schreiber wird eine Erkennungsrate von bis zu 80% erreicht.
Die Studie leistet einen Beitrag zur Entwicklung der professionellen Handlungsfähigkeit in der Sozialen Arbeit. Ziel ist es, Berufsanfänger*innen zukünftig größere Sicherheit über ihr erworbenes Wissen und Können und ihre Handlungsfähigkeit zu geben. Die Handlungsfelder Sozialer Arbeit sind i.d.R. komplex und gehen mit hohen Belastungen einher, so dass gerade der Berufseinstieg eine große Herausforderung darstellt.
Die vertiefte Literaturrecherche zum Kompetenzbedarf im Berufsfeld der Sozialen Arbeit bietet ein umfassendes Bild von professioneller Handlungsfähigkeit in der Sozialen Arbeit. Dabei liegt der Fokus auf der Sicht der Betroffenen, den mit der Hochschule kooperierenden Praxisanleiter*innen sowie den sich im Anerkennungsjahr befindenden Sozialarbeiter*innen, die im Forschungszeitraum ihr Anerkennungsjahr ableisteten. Die Ergebnisse aus den über einen Methodenmix erhobenen Daten geben Hinweise für die Weiterentwicklung des Curriculums, zur Unterstützung der Praxisanleiter*innen und zur Verankerung von beruflicher Reflexion im Alltag und den Studientagen sowie auf den großen Bedarf an Vernetzung zwischen den Einrichtungen und der Hochschule.
In der vorliegenden Arbeit wird ein Leitfaden zur Einrichtung eines Informationssicherheitsmanagementsystems bei kleinen und mittleren Unternehmen (KMU) entwickelt. Ein Informationssicherheitsmanagementsystem (ISMS) ist im Grunde eine geordnete Ansammlung an Verfahren, Regeln und Maßnahmen zur Wahrung der Sicherheit von Informationen. Mit diesem System wird die Steuerung und Kontrolle der Informationssicherheit durch strukturierte Vorgehensweisen entscheidend verbessert.
In dieser Bachelorarbeit werden in den ersten Kapiteln die relevanten Normen und Richtlinien (insbesondere aus der DIN EN ISO/IEC 27000 Normenfamilie und aus den Richtlinien der VdS 10000 sowie VdS 10005) betrachtet. Auf dieser Grundlage wird in den darauffolgenden Kapiteln der grundlegende Aufbau eines ISMS für Unternehmen erklärt. Im Anschluss wird diese Thematik auf KMU übertragen. Im weiteren Verlauf wird die Entwicklung des Leitfadens beschrieben, wobei auch auf den allgemeinen Aufbau eines Leitfadens eingegangen wird.
Der eigentliche Leitfaden ist separat als eigenständiges Dokument auf dieser Seite zum Download abrufbar. Er kann losgelöst von dieser Arbeit eingesetzt werden.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines generischen XML-Editors für das ProFormA-Aufgabenformat. ProFormA ermöglicht einen Aufgabenaustausch zwischen Hochschulen, Lernmanagementsystemen und Gradern. Aufgaben werden von Lehrkräften genutzt und für ihren individuellen Lehrkontext angepasst. Weil das manuelle Editieren von ProFormA-Aufgaben durch XML, Erweiterbarkeit und Komplexität des Formats erschwert wird, muss ein XML-Editor entwickelt werden, der generische Mechanismen implementiert, die das Anzeigen, Editieren, Hinzufügen und Entfernen von ProFormA- und Fremdformatelementen ermöglichen.
Anwendungen in Bibliotheken auf Basis von Augmented Reality (AR), der Erweiterung der Realität durch zusätzliche, virtuelle Informationen, existieren bislang nur vereinzelt. Das vom Bundesministerium für Wirtschaft und Energie geförderte Forschungsprojekt mylibrARy ermittelt seit Juni 2014 Szenarien für den Einsatz von AR in Bibliotheken und Informationseinrichtungen. Das Projekt zielt auf die Entwicklung einer deutschlandweit einsetzbaren Applikation (App). An diesen Gedanken knüpft die vorliegende Arbeit mit der Entwicklung eines Konzepts für Einführungen in Hochschulbibliotheken mittels AR-Technik. Aus der Analyse aktueller Führungsmodelle von Bibliotheken der Hochschulen im Exzellenzcluster 2012-2017, werden die für die Modellführung benötigten charakteristischen Merkmale einer Bibliotheksführung abgeleitet. Auf die technisch relevanten Grundlagen der AR folgt eine Bestandsaufnahme der bisherigen Augmented-Reality-Projekte im internationalen Bibliothekskontext. Daran schließt die Formulierung der theoretischen Anforderungen und die Ausarbeitung der Funktionen im Einzelnen. Nachfolgend lenkt eine kritische Betrachtung den Fokus auf Mehrwert und Risiken der AR für Bibliothek und Nutzer. Mit einer Zusammenfassung und dem Ausblick auf die zukünftige Entwicklung findet die Arbeit ihren Abschuss.
Das Ziel dieser Bachelorarbeit war die Entwicklung einer voll funktionstüchtigen Webanwendung, die für den Anwendungsfall „Bronchokonstriktion“ Werkzeuge für die Darstellung und die händische Nachbearbeitung von Bilddaten und Vorhersagen aus Neuronalen Netzen bereitstellt. Dadurch können die Test- und Trainingsdatensätze für problematische Fälle erweitert werden. Konkret wurde die Anwendung durch die Verwendung von standardisierten und individuell auf das Problem zugeschnittenen Software-Engineering-Methoden sowie unter Beachtung allgemeiner Usability-Prinzipien entwickelt und evaluiert. Diese Bachelorarbeit fand in Zusammenarbeit mit dem Fraunhofer ITEM und der Forschungsgruppe „Bioinformatik“ statt.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
Die Digitalisierung birgt sowohl für den Unternehmer, als auch für den Kunden diverse Vorteile. Als Instrument zur Veranschaulichung dieser Vorteile dienen vor allem Service-Apps, welche bereits von großen Unternehmen beispielsweise zur Produktnachverfolgung etabliert wurden. Das Mittelstand 4.0 – Kompetenzzentrum Hannover legt den Fokus auf kleine und mittelständische Produktionsbetriebe und vermittelt das Potenzial der Digitalisierung im Rahmen von Industrie 4.0. Dies geschieht anhand einer Produktionslinie personalisierter Kugelschreiber und einer zu Demonstrationszwecken entwickelten App für mobile Endgeräte. Konzeptionierung, Entwicklung und Umsetzung dieser App werden genauestens aufgeführt und erläutert. Die App wurde unter dem Betriebssystem Android entwickelt und gliedert sich in sieben Phasen, beginnend mit der Anforderungsanalyse bis hin zur Veröffentlichung im Google Play Store. Während der Unternehmer die Möglichkeit geboten bekommt, Rückschlüsse als Entscheidungshilfe zur effizienteren Gestaltung der Produktion zu nutzen, ist der Kunde in der Lage, seine Aufträge echtzeitnah in der Produktion nachzuverfolgen und gegebenenfalls Änderungen vorzunehmen.
In der Arbeit wird untersucht, wie Aufgaben im pathologischen Kontext automatisiert bewertet und für die Lernenden lernförderliches Feedback generiert werden kann. Dafür wurde eine Lernsoftware entwickelt, welche das Erstellen und automatisierte Bewerten der Aufgaben ermöglicht. Das Feedback informiert die Lernenden nicht nur darüber, ob eine Aufgabe richtig oder falsch gelöst worden ist, sondern unterstützt auch bei der Findung der richtigen Lösung. Hierzu wurde untersucht, wie das Feedback in einer Lernsoftware aufgebaut sein muss, um den Lernerfolg zu fördern. Auf dieser Grundlage wurden mit den Stakeholdern der Medizinischen Hochschule Hannover die Anforderungen an die Lernsoftware definiert und umgesetzt.
Die zunehmenden Anwendungsfälle der vertikalen und horizontalen Vernetzung von Automatisierungssystemen erhöhen gleichzeitig auch die Bedrohungen der IT-Sicherheit der relevanten automatisierten technischen Prozesse. Zukünftige Anlagenstrukturen werden stärker vernetzt und dezentralisiert organisiert sein, oder sogar weltweit mit anderen technischen Systemen über das Internet kommunizieren. Dies erfolgt häufig über standardisierte Kommunikationsprotokolle, im Weiteren Middleware genannt. Daher ist die Bedeutung standardisierter Verfahren und Modelle zur Erleichterung der Sicherheitskonfigurationen der Middleware, die die folgenden Anforderungen erfüllen, von wesentlicher Bedeutung:
- Sichere Kommunikation (sichere Middleware)
- Authentifizierung und Autorisierung der Kommunikationspartner auch bei stark vernetzten Systemen und Ad-hoc-Verbindungen
- Einfache Verwaltung von Sicherheitsmaßnahmen ohne erheblichen Mehraufwand für die Organisation
Die bestehende Referenzarchitektur und die Sicherheitsmerkmale der entsprechenden Middleware werden untersucht, um deren Anwendbarkeit in verschiedenen Stufen der Automatisierungspyramide zu ermitteln. Es werden die Sicherheitsmerkmale für eine durchgängig sichere Kommunikation und deren Flexibilität bei der Integration in eine Public Key Infrastruktur (PKI) untersucht. Die bestehenden Zugangskontrollmechanismen und deren Zukunft im Rahmen von Industrie 4.0 werden bewertet. Die Möglichkeiten zur Integration des mit Attributzertifikaten aktivierten Berechtigungsmechanismus im Rahmen von OPC UA werden in diesem Projekt untersucht und als Teil des Demonstrators implementiert. Die Anwendungsrelevanz der entwickelten Lösungen wird gewährleistet, indem die Projektpartner des projektbegleitenden Ausschusses bei der Erstellung und dem Review von Konzepten frühzeitig beteiligt werden.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
Das Ziel dieser Arbeit ist es, eine kommentierte Dokumentation der Entwicklung des Kunstportals ARTRIKAT unter Verwendung des Content-Management-Systems TYPO3 zu erstellen. Das Kunstportal ARTRIKAT ist eine Community-Plattform für Kunstschaffende und Kunstinteressierte. Dort können sich die Künstler kostenpflichtig registrieren und ihre Werke in 2D- oder 3D-Galerien virtuell ausstellen und verkaufen. Außerdem stehen übliche Community-Funktionalitäten wie Terminkalender, ein internes Messaging-System sowie eine Schnittstelle zum Hochladen der Werke zur Verfügung. Das Portal beinhaltet darüber hinaus ein Nachrichten-Modul, eine Linksammlung mit geprüften Internetquellen zu kunstrelevanten Themen, einen Museumsshop und einen Kunstkatalog, in dem die Künstler mit ihren Werken vorgestellt werden. Der Hauptteil der vorliegenden Arbeit beschäftigt sich vornehmlich mit der ersten Phase der Portalentwicklung -- von der Konzeptionierung über die Programmierung bis zum Launch. Es wird untersucht, inwiefern sich TYPO3 für ein Projekt wie ARTRIKAT eignet. Außerdem beschreibt die Arbeit einige wichtige Probleme, die während der Entwicklung aufgetreten sind. Mögliche Lösungsansätze werden dargestellt.
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
End users urgently request using mobile devices at their workplace. They know these devices from their private life and appreciate functionality and usability, and want to benefit from these advantages at work as well. Limitations and restrictions would not be accepted by them. On the contrary, companies are obliged to employ substantial organizational and technical measures to ensure data security and compliance when allowing to use mobile devices at the workplace. So far, only individual arrangements have been presented addressing single issues in ensuring data security and compliance. However, companies need to follow a comprehensive set of measures addressing all relevant aspects of data security and compliance in order to play it safe. Thus, in this paper at first technical architectures for using mobile devices in enterprise IT are reviewed. Thereafter a set of compliance rules is presented and, as major contribution, technical measures are explained that enable a company to integrate mobile devices into enterprise IT while still complying with these rules comprehensively. Depending on the company context, one or more of the technical architectures have to be chosen impacting the specific technical measures for compliance as elaborated in this paper. Altogether this paper, for the first time, correlates technical architectures for using mobile devices at the workplace with technical measures to assure data security and compliance according to a comprehensive set of rules.
In diesem Beitrag wird der Energieertrag von Flussturbinen abgeschätzt. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Die Energieberechnung erfolgt an den Flüssen Oberrhein, Weser, Werra und Unterelbe. Unter der Annahme von mittleren Fließgeschwindigkeiten und Werten zum Ausnutzungsgrad von frei fahrenden Wasserturbinen wird der Energieertrag ermittelt. Bei Einsatz von Flussturbinen mit einem Laufraddurchmesser D = 2,5 m und im Mittel 33 Turbinen je km ergibt sich eine jährliche Gesamtenergie von 1,2 TWh. Dies sind mehr als 10% des in einer BMBF-Studie ermittelten Energiepotenzials der frei fließenden Strecken von Fließgewässern in Deutschland mit einem Einzugsgebiet von mehr als 10 km2.
Die empfindliche Verteuerung des Rohöls im Laufe der letzten Jahre und die in ihrem Sog erfolgten Preissteigerungen auch für die anderen Energieträger haben Energie zu einem besonders kostbaren Wirtschaftsgut werden lassen. Es ist ganz deutlich geworden, dass Energie in allen Lebens- und Produktionsbereichen äußerst sparsam verwendet und optimal genutzt werden muss. Mittel- und langfristig gesehen sind daher gezielt Anstrengungen zu unternehmen, nicht einen Brennstoff durch einen anderen zu ersetzen, sondern - wo immer auch möglich - die natürlcihen Energiequellen zu nutzem.
Die Problematik der aktuell batteriebetriebenen Elektrofahrzeuge liegt in der geringen Reichweite, einem geringen Fahrtgastkomfort, sowie den langen Ladezeiten und einer nicht ausreichenden Ladeinfrastruktur. Diese Tatsachen stellen für die Nutzer eine Hürde für den Umstieg zu batteriebetriebenen Fahrzeugen dar. Eine schon heute verfügbare Brückentechnologie ist der Range Extender. Diese, meist im Fahrzeug integrierten Einheiten, liefern zusätzliche Reichweite, bei einer elektrischen Leistung von meist über 15 kWel und einem durchschnittlichen Anlagenwirkungsgrad von Ƞ RE ≈ 29 %. In dieser Arbeit wird ein modulares Konzept eines erweiterten Range Extenders untersucht, welches die Funktion der Kraft-Wärme-Kopplung und Kraft-Kälte-Kopplung nutzt. Diese Hilfseinheit soll zum einen den Nachteil der geringen Reichweite aufgrund der eingeschränkten Batteriekapazitäten, zum anderen den geringen thermischen Innenraumkomfort von batteriebetriebenen Fahrzeugen ausgleichen. Das Konzept einer Kraftwärme/-kältekopplung zur Klimatisierung von BEV wird in der vorliegenden Arbeit mit Hilfe eines Versuchsaufbaus messtechnisch und theoretisch mittels Simulation untersucht, sowie anhand der ermittelten Kennfelder beurteilt. Die Simulation basiert dabei auf empirisch ermittelten Daten. In den gewählten Fahrzeugklassen Kleinstwagen, Kompakt- und Mittelklasse wird der mittlere Gesamtwirkungsgrad der Anlagenkomponenten in Abhängigkeit von Klimadaten (Wetterdaten) bestimmt. Dieser ermittelte Wirkungsgrad ist abhängig von äußeren thermischen Anforderungen und der Ausnutzung der Anlagenkomponenten. Der modulierbare Leistungsbereich des mikro Blockheizkraftwerks mit Kraft-Kälte-Kopplung hat zum Heizen einen thermischen Leistungsbereich von 5,7 – 13,0 kWthh. Der mechanische Leistungsbereich von 2,0 - 14,5 kWme wird in zwei Bereiche aufgeteilt. Zur Kühlung wird ein thermischer Bereich von 1,0 – 7,0 kWthk und zur elektrischen Stromerzeugung ein Leistungsbereich von 1,0 – 6,0 kWel verwendet. Basierend auf den in dieser Arbeit experimentell ermittelten Kennfeldern, die unter Berücksichtigung der lokalen klimatischen Bedingungen in Deutschland berechnet wurden, kann der Anlagenwirkungsgrad für Kleinstwagen mit Ƞ Kl = 58,9 ± 3,5 %, für die Kompaktklasse mit Ƞ Ko = 62,2 ± 5,5 % und für die Mittelklasse mit durchschnittlich Ƞ Mk = 65,2 ± 4,8 % ermittelt werden. Die zusätzlich gewonnenen Reichweiten, die durch Einsparung von batterieelektrischer Energie für die Klimatisierung und durch Einspeisung von erzeugter elektrischer Energie erreicht werden, liegen bei den Kleinstwagen bei 246 ± 31 km, in der Kompaktklasse bei 296 ± 103 km und in der Mittelklasse bei 314 ± 104 km. Eine Abtrennung des Klimakompressors von der Verbrennungskraftmaschine führt dabei zusätzlich zu einer teilweisen Verbesserung der ermittelten Werte. Im Vergleich dazu, lässt sich ein durchschnittlicher Reichweitenzuwachs von 103 km, ohne den Einsatz eines Kraftstoffes, nur durch Nutzung eines effizienteren Systems erreichen, wenn eine Wärmepumpe eingesetzt wird. Zusammenfassend kann festgehalten werden, dass der Einsatz der Kraftwärme -Kältekopplung zur Klimatisierung von Elektrofahrzeugen nachhaltig und sinnvoller erscheint, als der Einsatz eines konventionellen Range Extender, denn der Einsatz eines zusätzlichen Kraftstoffes sollte so effizient wie möglich genutzt werden.
Das Forschungscluster Energie – Mobilität – Prozesse stellt in acht Beiträgen aktuelle Ergebnisse aus laufenden Forschungsprojekten vor. Es werden Aspekte der Urbanen Logistik, der Automatisierung von Energiemanagementsystemen, der Effizienz von neuen Kältemaschinen, der Entsäuerung von Kulturgütern, der Auslastung von Pedelec-Vermietsystemen und der Reichweite von Elektrofahrzeugen behandelt. Zusätzlich werden relevante Daten in Form von 17 Diagrammen kompakt zusammengestellt.
In this study, we calculated the energetics of hydrogen atoms adsorbing on and diffusing into the first few layers of γ-Fe for the (100), (110) and (111) surfaces and for the non-magnetic (NM), ferromagnetic (FM), and antiferromagnetic single (AFM1) and double layer (AFMD) structures. These studies are relevant as they atomistically simulate the early stages of hydrogen embrittlement in steels. We employed density functional theory to establish adsorption sites and energies for each plane and the minimum energy pathways for diffusion through the first few layers with associated activation barriers. Adsorption energies for all cases vary between ∼3.7 and 4.4 eV, and the energy barriers to diffusion in the bulk region vary between ∼0.2 and 1.2 eV for the twelve cases, with the highest and lowest bulk diffusion barriers occurring in the NM(111) and the FM(100) case, respectively. We conclude that the texturing of steels in order to expose certain cleavage planes or magnetic structures can decrease the likelihood of hydrogen embrittlement.
Research question: Rivalries in team sports are commonly conceptualized as a threat to the fans’ identity. Therefore, past research has mainly focused on the negative consequences. However, theoretical arguments and empirical evidence suggest that rivalry has both negative and positive effects on fans’ self-concept. This research develops and empirically tests a model which captures and integrates these dual effects of rivalry.
Research methods: Data were collected via an on-site survey at home games of eight German Bundesliga football teams (N = 571). Structural equation modeling provides strong support for the proposed model.
Results and findings: In line with previous research, the results show that rivalry threatens fans’ identity as reflected in lower public collective self-esteem in relation to supporters of the rival team. However, the results also show that there are crucial positive consequences, such as higher perceptions of public collective self-esteem in relation to supporters of non-rival opponents, perceived ingroup distinctiveness and ingroup cohesion. These positive effects are mediated through increases in disidentification with the rival and perceived reciprocity of rivalry.
Implications: We contribute to the literature by providing a more balanced view of one of team sports’ key phenomena. Our results indicate that the prevalent conceptualization of rivalry as an identity threat should be amended by the positive consequences. Our research also offers guidance for the promotion of rivalries, where the managerial focus should be on creating a perception that a rivalry is reciprocal.
The bio-based plastic market is forecast to grow in the next years. With a growing market share and product range, the implementation of circular thinking is becoming more and more important also for bio-based plastics to enable a sound circular economy for these group of plastics. Therefore, it is important to assess the environmental performance for different end-of-life options of bio-based plastics from an early stage on. This review presents a comprehensive overview on the current status quo of different end-of-life options for bio-based plastics from an environmental perspective. Based on the status quo and the corresponding impact assessment results, the global plastic demand as well as the technical substitution potential of bio-based plastics, the environmental saving potential in case of the different end-of-life options was calculated. The review shows that there is a focus on polylactic acid (PLA) regarding end-of-life assessment, with studies covering all end-of-life options. The focus of the impact assessment has been set on global warming potential (GWP). With respect to GWP, the analysis of a future global potential of PLA showed, for mechanical recycling, the highest saving potential with 94.1 Mio. t CO2-eq. per year in comparison to virgin material.
Bibliotheken und andere Informationseinrichtungen arbeiten täglich in vielfältiger Weise mit Daten unterschiedlicher Verwendungszwecke und Bestimmung. Sie agieren als Datenproduzenten, Datenlieferanten, Datennutzer und Aggregatoren. Um den größtmöglichen Nutzen der durch öffentliche Einrichtungen produzierten
Daten zu gewährleisten, ist es geboten, sie offen im Internet zu publizieren.
In diesen Empfehlungen der DINI-AG KIM ist dokumentiert, wie eine offene Publikation stattfinden kann.
Die für die Abteilung Information und Kommunikation der Fakultät III, Medien, Information und Design – MID (im Folgenden: Abteilung IK) der Fachhochschule Hannover erarbeiteten „Empfehlungen für die Gestaltung schriftlicher Arbeiten“ bieten Anregungen und Erläuterungen zur formalen Gestaltung von schriftlichen Arbeiten, die von den Studierenden im Laufe ihres Studiums an der Abteilung IK als Studien- oder Prüfungsleistungen zu erbringen sind. Sie bringen teilweise ausführliche Beispiele und legen beson-deres Gewicht auf eine Darstellung der Zitiertechnik und der Zitierregeln (auch von Internet-Dokumenten). Weitere Schwerpunkte dieser Empfehlungen sind besondere Richtlinien für die Gestaltung von Diplom- oder Bachelorarbeiten, eine Auflistung der diesen Empfehlungen zugrunde gelegten Literatur und Anhänge (mit Beispielen zur Gestaltung von Titelseiten und Inhaltsverzeichnissen).
The topic of electromagnetic compatibility (EMC) remains an important aspect during the planning, installation and operation of automation systems. Communication networks, such as PROFIBUS and PROFINET, are known to be robust and reliable transmission systems. Nevertheless, it is important that a number of fundamental principles needs to be observed to ensure fault-free operation over a long plant lifetime. This paper first describes a number of principles of EMC. On the basis of these principles, six recommendations for action are then developed which are to be observed during the planning of an automation system for use in the manufacturing industry. Finally, an overview is provided of future work for systems in the process industry.
The properties of these carbon nanostructures are determined by the structure and orientation of the graphitic domains during pyrolysis of carbon precursors. In this work, we investigated systematically the impact of creep stress during the stabilization process on the cyclization and molecular orientation of polyacrylonitrile as well as the graphitized structure after high temperature carbonization. Therefore, polyacrylonitrile (PAN) is electrospun and then stabilized with and without application of creep stress at different temperatures. The effect of creep stress on cyclization was monitored via Fourier transform IR spectroscopy (FTIR) and it was found that the degree of cyclization varies with the application of creep stress during the initial stages of cyclization at low temperatures (190°C and 210°C) in contrast to cyclization done at higher temperature (230°C). Herman molecular orientation factor was evaluated by polarized FTIR for PAN nanofibers cyclized with and without creep stress at 230°C-10 h. Subsequently, carbonization was performed at 1000°C and 1200°C for nanofibers cyclized at 230°C-10 h. Our results from XRD and Raman spectroscopy shows that the degree of graphitization and ordering of graphitic domains was enhanced for PAN nanofibers that were creep stressed during the cyclization process, even though both PAN nanofibers cyclized with creep stress and without creep stress showed the same amount of cyclized material. This increased degree of graphitization can be tracked to application of creep stress during the stabilization process which obviously favors the formation of sp2-hybridized carbon planes in the carbonization process. This finding highlights the impact of mechanical stress linking the cyclization of PAN nanofibers to graphitization.
Our results will pave the way for a deeper understanding of mechano-chemical processes to fabricate well-aligned graphitic domains which improves the mechanical and electrical properties of CNFs.
Zeitarbeit ist eine Boombranche. Zeitarbeit ist prekäre Beschäftigung. Mit Zeitarbeit wird Missbrauch getrieben. Zeitarbeit ist wichtig. Jeder, der die öffentliche Diskussion verfolgt, hat einen dieser Sätze schon einmal gehört. Wir reden über Zeitarbeit, wie über die Frage, ob Entlohnung gut oder schlecht ist. Vergessen wird dabei oft, dass Zeitarbeit nicht gleich Zeitarbeit ist, sondern sich Motive und Einsatz der Zeitarbeit von Unternehmen zu Unternehmen deutlich unterscheiden können. So kann ein Personaldienstleister Hausfrauen an eine Versicherung vermitteln, um dort für die Reinigung und Sauberkeit der Büros zu sorgen. Ebenso kann ein Ingenieurbüro eigene Mitarbeiter an eine Kraftwerksfirma verleihen, um hochspezielle Projektaufgaben an einem Solarkraftwerk zu verrichten.
Und genau darum geht es, wenn wir die Zukunft der Zeitarbeit gestalten wollen: herauszufinden, unter welchen Bedingungen und für welche Zwecke Zeitarbeit in Unternehmen eingesetzt wird und was ihre Nutzung fördert bzw. behindert. Um darauf eine Antwort zu haben, muss man zunächst die Verschiedenartigkeit der Zeitarbeit anerkennen. Im Anschluss daran muss man herausfinden, welchen Typ Zeitarbeit man in einem bestimmten Unternehmen vor sich hat, wovon dieser beeinflusst wird und was man anders oder besser machen kann. Es geht in diesem Beitrag also zuallererst darum, Motive der Zeitarbeitsnutzung herauszuarbeiten und zu untersuchen, wie sie zu verschiedenen Formen des Zeitarbeitseinsatzes in Unternehmen führen.
Zur Verbesserung der IT-Sicherheit im klassischen Büroumfeld wird bereits eine neue Firewall-Technologie, die sogenannte Next Generation Firewall verwendet. Um diese Technologie im Produktionsbereich einzusetzen, muss sie vorher getestet werden, da sich die Priorisierung der Schutzziele im Produktionsbereich und im Büroumfeld unterscheidet. In dieser Arbeit werden das Einsatzgebiet und die Wirkungsweise von Firewalls in industriellen Automatisierungssystemen im Allgemeinen und spezifisch für Next Generation Firewalls untersucht. Die Untersuchung geht auf die Aufgaben der einzelnen Firewalls in einem Produktionsunternehmen ein und prüft, welche Firewall durch eine Next Generation Firewall ergänzt werden kann. Dazu werden die konventionellen Firewall-Technologien mit der neuen Firewall-Technologie verglichen und bewertet. Der Nutzen der Next Generation Firewall in der Produktionsumgebung wird am Beispiel eines ausgewählten Angriffsszenarios erklärt. Abschließend werden Empfehlungen für dessen Einsatz in industriellen Automatisierungssystemen gegeben.