Refine
Year of publication
- 2014 (43) (remove)
Document Type
- Article (13)
- Report (12)
- Study Thesis (4)
- Conference Proceeding (3)
- Bachelor Thesis (2)
- Book (2)
- Course Material (2)
- Working Paper (2)
- Master's Thesis (1)
- Periodical Part (1)
Has Fulltext
- yes (43)
Is part of the Bibliography
- no (43)
Keywords
- Flussturbine (2)
- Kindertagesstätte (2)
- Kommunikation (2)
- Korruption (2)
- Tagesbetreuung (2)
- Wasserkraft (2)
- Affektives Commitment (1)
- Alterung (1)
- Approval (1)
- Asynchronmaschine (1)
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation.
Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche.
In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen.
Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Ziel des Projektes war es, nominative Grundlagen für die Kriterien eines Performace-Quality-Labels (PQL) für LED-Leuchten zu erarbeiten. Unter dem PQL wird ein Qualitäts- und Energielabel verstanden, das für LED-Produkte auf Grundlage der aktuellen und sich entwickelnden Normensituation erarbeitet werden soll. Durch das Bestimmen der für eine gute Produktqualität erforderlichen Faktoren, soll durch die beteiligten Forschungseinrichtungen ein Katalog von Mindestanforderungen für LED-Leuchten entwickelt werden. Auf der anderen Seite sollen der Leuchtenindustrie konkrete Hinweise für die Entwicklung und Optimierung von LED-Leuchten bezüglich der im Projekt geforderten Werte zur Verfügung gestellt werden.
Ergebnis: Es wurde die Alterung von Hoch- und Mittelleistungs-LEDs bei verschiedenen Strömen und Boardtemperaturen hinsichtlich Lichtstrom, Farbort, Spektren und Änderung des thermischen Widerstands untersucht, um die Lebensdauer der LEDs durch eine Extrapolation herstellerunabhängig ermitteln und den Leuchtenherstellern verfügbar zu machen. Durch umfangreiche Untersuchungen zu ESD und EMV-Eigenschaften sowie Temperatur- und Stromverhalten der LEDs, war eine thermische und elektrische Modellierung möglich. Ziel: ein korrektes Datenblatt für die LEDs seitens der LED-Hersteller zu erarbeiten sowie ein relevantes Binning-Schema mit Beurteilungskriterien für die verschiedenen Binning-Klassen zu erstellen. Zudem lassen sich Hinweise ableiten, wie zukünftige LED-Leuchten mit RGB- und weißen LEDs auf Farbort- und Lichtstromkonstanz bei verschiedenen Temperatur- und Stromänderungen geregelt werden können. Durch die Vergleichsmessungen von mehr als 70 LED-Leuchten konnten die Schwachstellen und Unzulänglichkeiten in der qualitätssicherenden Kette ermittelt und mit den Firmen besprochen werden. Die Auswertung der an der TU Darmstadt gealteten LED-Leuchten konnte der Leuchtenindustrie konkrete Hinweise über Alterungsmechanismen, thermisches Management bei verschiedenen Betriebstemperaturen und die Restwelligkeit der LED-Ströme geben. Zudem wurden Faktoren erarbeitet, wie die LED-Leuchte durch Materialauswahl (Wärmeleitpasten, Dichtungsring), durch konstruktive Kabelführung und Elektronik-Auswahl an Zuverlässigkeit gewinnen kann. Eine Datenbank mit einer Typisierung der LED-Fehler, Entstehungsorte, Ursachen und wirtschaftlicher Folge konnte erstellt und mit der Leuchtenindustrie und professionellen Anwendern ausgetauscht und gepflegt werden.
Die Grundlage für die Akzeptanz der LED-Beleuchtung durch die professionellen und privaten Anwender kann nur geschaffen werden, wenn die Licht- und Farbqualität untersucht und deren Mindestwerte für hochqualitive LED-Produkte definiert werden können. An Hand der Untersuchung der Farbwiedergabeskalierung konnte gezeigt werden, dass LED-Systeme mit guter Farbwiedergabe eine Ra-Wert von 86 und R9 für gesättigte rote Farben von mehr als 45 aufweisen sollten. Um die Detektierbarkeit der stroboskopischen Erscheinungen von PQWM-betriebenen LEDs zu minimieren sollte die Pulsfrequenz nicht weniger als als 350 Hz – 400 Hz betragen.
Alle gewonnenen optischen, lichttechnischen, thermischen und elektrischen Erkenntnisse und Erfahrungen wurden während der Projektarbeit systematisch zusammengestellt und mit Zielwerten bzw. Grenzwerten versehen, so dass sie über die Qualitätsmerkmale (Performance Quality Label) in drei Vorträgen der Leuchtenindustrie präsentiert werden konnten. Die Ziele des Projekts konnten im vollen Umfang erfüllt werden. Die Erkenntnisse vom Projekt konnten durch sechs reguläre Treffen, zwei Sonderworkshops, drei VDE/ZVEI Workshops und zahlreiche Publikationen, Buchbeiträge und Konferenzbeiträge an die Lichtindustrie, Lichtplaner und weitere Interessierte transferiert werden.
Das IGF-Vorhaben 14 LBG der Forschungsvereinigung Elektrotechnik wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Die vorliegende Studienarbeit geht der Fragestellung nach, ob Hochschulabsolventen mit Migrationshintergrund, im Gegensatz zu Hochschulabsolventen ohne Migrationshintergrund, in einem fiktiven Bewerbungsprozess benachteiligt werden. Es erfolgte eine Untersuchung hinsichtlich der mittleren Einstellungswahrscheinlichkeit. Dazu wurden eine fiktive Stellenanzeige und Bewerbungsunterlagen erstellt. Diese unterscheiden sich lediglich in den Namen der Bewerber, welche verschiedenen Nationalitäten zuzuordnen sind. Anschließend sollten Studierende der Hochschule Hannover anhand dieser Studienunterlagen beurteilen, mit welcher Wahrscheinlichkeit sie den Bewerber einstellen würden. Die Analyse der Ergebnisse ergab, dass sich der Mittelwert der Einstellungswahrscheinlichkeit nicht signifikant unterschied. Somit konnte keine Benachteiligung der Hochschulabsolventen mit Migrationshintergrund im Vergleich zu denjenigen ohne Migrationshintergrund durch Studierende der Hochschule Hannover festgestellt werden.
In diesem Beitrag wird der Energieertrag von Flussturbinen abgeschätzt. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Die Energieberechnung erfolgt an den Flüssen Oberrhein, Weser, Werra und Unterelbe. Unter der Annahme von mittleren Fließgeschwindigkeiten und Werten zum Ausnutzungsgrad von frei fahrenden Wasserturbinen wird der Energieertrag ermittelt. Bei Einsatz von Flussturbinen mit einem Laufraddurchmesser D = 2,5 m und im Mittel 33 Turbinen je km ergibt sich eine jährliche Gesamtenergie von 1,2 TWh. Dies sind mehr als 10% des in einer BMBF-Studie ermittelten Energiepotenzials der frei fließenden Strecken von Fließgewässern in Deutschland mit einem Einzugsgebiet von mehr als 10 km2.
In diesem Beitrag wird die Möglichkeit dargestellt, wie Belastungsspitzen beim Betrieb von Flussturbinen in Inselnetzen durch die kinetische Energie des Wassers abgedeckt werden können. Als Beispiel dienen dabei Kühlgeräte für Lebensmittel. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Sie stellen eine Möglichkeit zur Energieversorgung von kleinen Siedlungen ohne öffentliche Stromversorgung dar. Der besondere Vorteil ist, dass sie ohne aufwändige Bauwerke zur Wasserführung auskommen.
Bei der Versorgung von Inselnetzen muss die Turbine alleine die benötigte Leistung bereitstellen. Dies gilt auch für die Abdeckung von Belastungsspitzen. In diesem Beitrag wird anhand von Beispielrechnen dargestellt, welches Potenzial die kinetische Energie des Wassers in der Turbine hat, um die Belastungsspitzen abzudecken. Die Berechnungen an Kühlgeräten zeigen, dass das Einschalten der Kühlaggregate ein kritischer Betriebspunkt beim Betrieb von Flussturbinen in Inselnetzen sein kann. Dies gilt besonders dann, wenn die stationäre Leistung bereits nahe an der verfügbaren Leistung ist.
Hier muss in recht kurzer Zeit eine große elektrische Arbeit zur Verfügung gestellt werden, die Leistung also in kurzer Zeit ansteigen und anschließend wieder abfallen. Die Abschätzung der elektrischen Arbeit, die sich aus der kinetischen Energie des Wassers in der Turbine gewinnen lässt, zeigt aber, dass durch Absenken der Fließgeschwindigkeit kurzfristig die benötigte elektrische Leistung und Arbeit bereit gestellt werden kann.
In den letzten Jahren hat sich der Auskunftsdienst in wissenschaftlichen Bibliotheken gewandelt. Die bibliothekarische Auskunft setzt zahlreiche unterschiedliche Kommunikationsformen ein, um dem Kunden die gewünschten Informationen zukommen zu lassen. Neben den konventionellen Auskunftsmitteln setzen die Bibliotheken verstärkt auf die elektronischen Auskunftsdienste. Seit dem Jahr 2004 haben Chatbots als Auskunftsmittel einen festen Platz in diesem Bereich. Chatbots sind virtuelle Assistenten, die mit Hilfe einer hinterlegten Datenbank die Fragen der Kunden beantworten. Die vorliegende Arbeit stellt die vier Chatbots ASKademicus, Stella, Albot und Hugo Blotius näher vor. Anhand von verschiedener Literatur wird eine Checkliste für eine Qualitätsüberprüfung von Chatbots erarbeitet. Am Beispiel von Hugo Blotius, dem Chatbot der Österreichischen National-bibliothek aus Wien werden die Chatbots analysiert und bewertet. Das Ziel dieser Arbeit ist es, die Thematik der Chatbots näher zu betrachten und deren Nutzungsberechtigung im Bibliothekswesen nachzuweisen. Die durchgeführte Analyse konnte eine Nutzungsberechtigung der bibliothekarischen Chatbots belegen und Hugo Blotius als wertvolle Ergänzung des Auskunftsangebotes der Bibliothek bestätigen.
Die dargestellte Kompetenzmatrix beschreibt die in reliigons- und gemeindepädagogischen Bachelorstudiengängen zu erwerbenden Kompetenzen entlang von fünf inhaltlichen Kompetenzfeldern und orientiert sich dabei an den Kompetenzkategorien (Wissen - Fertigkeiten - Personale Kompetenz) des Deutschen Qualifikationsrahmens (DQR).
Diese Kompetenzmatrix ist Grundlage des Zwei-Fächer-Bachelorstudiengangs „Religionspädagogik und Soziale Arbeit“ an der Hochschule Hannover, der gleichermaßen für eine Berufstätigkeit als DiakonIn bzw. GemeindepädagogIn und als SozialarbeiterIn qualifiziert.
Der Anglizismus „Gender Studies“ bezeichnet in Deutschland faktisch Frauenforschung, also Forschung von Frauen über Frauen für Frauen. Es gibt sie seit mehr als drei Jahrzehnten. Die Zahl der Gender - Professuren beträgt mittlerweile ca. 250. Sie binden finanzielle Ressourcen in entsprechender Höhe. Das ist nicht der einzige, aber doch ein Grund, nach dem wissenschaftlichen Output dieser Forschungen zu fragen.
In Niedersachsen ist 2013 eine Forschungsevaluation zum Thema Gender Studies durchgeführt worden. Möglicherweise handelt es dabei um die erste und einzige Untersuchung ihrer Art. Der Ergebnisbericht dieser Evaluation wird hier dargestellt und kritisch kommentiert. Das Ergebnis der Kritik lautet, dass gar keine Evaluation des Forschungs-Outputs vorgenommen worden ist, sondern dass es der beauftragten Kommission nur darum ging, die Input-Strukturen zu stärken, indem mehr Stellen, mehr finanzielle Mittel und noch weniger Kontrollen gefordert wurden.
Background: After kidney transplantation, immunosuppressive therapy causes impaired cellular immune defense leading to an increased risk of viral complications. Trough level monitoring of immunosuppressants is insufficient to estimate the individual intensity of immunosuppression. We have already shown that virus-specific T cells (Tvis) correlate with control of virus replication as well as with the intensity of immunosuppression. The multicentre IVIST01-trial should prove that additional steering of immunosuppressive and antiviral therapy by Tvis levels leads to better graft function by avoidance of over-immunosuppression (for example, viral infections) and drug toxicity (for example, nephrotoxicity).
Methods/design: The IVIST-trial starts 4 weeks after transplantation. Sixty-four pediatric kidney recipients are randomized either to a non-intervention group that is only treated conservatively or to an intervention group with additional monitoring by Tvis. The randomization is stratified by centre and cytomegalovirus (CMV) prophylaxis. In both groups the immunosuppressive medication (cyclosporine A and everolimus) is adopted in the same target range of trough levels. In the non-intervention group the immunosuppressive therapy (cyclosporine A and everolimus) is only steered by classical trough level monitoring and the antiviral therapy of a CMV infection is performed according to a standard protocol. In contrast, in the intervention group the dose of immunosuppressants is individually adopted according to Tvis levels as a direct measure of the intensity of immunosuppression in addition to classical trough level monitoring. In case of CMV infection or reactivation the antiviral management is based on the individual CMV-specific immune defense assessed by the CMV-Tvis level. Primary endpoint of the study is the glomerular filtration rate 2 years after transplantation; secondary endpoints are the number and severity of viral infections and the incidence of side effects of immunosuppressive and antiviral drugs.
Discussion: This IVIST01-trial will answer the question whether the new concept of steering immunosuppressive and antiviral therapy by Tvis levels leads to better future graft function. In terms of an effect-related drug monitoring, the study design aims to realize a personalization of immunosuppressive and antiviral management after transplantation. Based on the IVIST01-trial, immunomonitoring by Tvis might be incorporated into routine care after kidney transplantation.
Das vorliegende Papier soll zur Unterstützung der Diskussion um Personalmindeststandards
im Pflegebereich dienen. Dazu wird zunächst ein Rückblick auf die Vorgeschichte und Hintergründe des Stellenabbaus sowie die Auswirkungen des Pflege-Förderprogramms und dessen Überführung in das DRG-System gegeben. Da die Frage einer staatlichen Regulierung der Personalbesetzung im Pflegedienst der Krankenhäuser sehr eng mit der Verteilung der Gesetzgebungskompetenzen zwischen Bund und Ländern verbunden ist, werden im darauf folgenden Kapitel Möglichkeiten und Grenzen einer Regulierung durch Landesrecht oder Bundesrecht vorgestellt und diskutiert. Daran schließt sich ein Überblick über die wichtigsten bisher vorgelegten Überlegungen und Vorschläge für eine staatliche Regulierung der Personalbesetzung an. Im darauf folgenden Kapitel werden die bisherigen Vorschläge einer kritischen Analyse unterzogen, dabei wird insbesondere auf die Frage der Eignung des DRG-Systems als Ansatzpunkt für eine Regulierung der Personalbesetzung eingegangen. Daran anschließend werden zwei Regulierungsansätze, die möglicherweise besser geeignet wären, um verbindlich einzuhaltende Personalbesetzungsstandards nicht nur vorzugeben, sondern auch durchzusetzen: Eine Regulierung auf Landesebene im Rahmen der Krankenhausplanung und eine Regulierung auf Bundesebene, die den OPS nutzt, um die Einhaltung vorgegebener Personalbesetzungsstandards zur Bedingung für die Kodierung und somit auch Abrechnung von Leistungen macht. Das letzte Kapitel ist der Frage der Finanzierung verbindlich eizuhaltender Personalbesetzungsstandards gewidmet.
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
Internetpräsenzen von Bibliotheken müssen zunehmend mit kommerziellen oder frei zugänglichen Informationsangeboten konkurrieren. Um sich von diesen Angeboten abzuheben, müssen nicht nur, wie gehabt, qualitativ hochwertige Informationen bereitgestellt werden - der Zugang zu diesen Informationen muss nutzerfreundlich gestaltet werden und sich an Usability-Standards orientieren, um für den Nutzer attraktiv zu sein.
In der Bachelorarbeit wird eine Studie zur Usability der Website der Landesbibliothek Oldenburg durchgeführt. Nach einer Einführung in die Thematik der Usability und der Analyse des IST-Zustandes der Website erfolgt eine Evaluation anhand von vier Methoden. Basierend auf Evaluationen mittels Personas, Heuristiken, Thinking-Aloud-Tests und einer Logfile-Analyse werden Usability-Probleme der Website ermittelt und anschließend Empfehlungen zur Verbesserung der Usability gegeben.
Normdaten in Wikidata
(2014)
Wikidata ist eine freie, gemeinsame Datenbank und Projekt der Wikimedia-Foundation. Ziel ist es, strukturierte Daten zu zentralisieren und nutzbar zu machen. Dieses Handbuch bietet mit detaillierten und bebilderten Texten eine Anleitung zur Unterstützung des Wikidata-Projektes. Ein theoretischer und ein praktischer Teil erläutern die wichtigsten Begriffe und erklären Wikidata Schritt für Schritt. Dabei wird ein Schwerpunkt auf das Thema Normdaten in Wikidata gelegt. Ein Glossar sowie eine FAQ am Ende des Handbuchs geben Hilfestellung bei Begriffen und Fragen.
Dieses Handbuch entstand im Rahmen eines Projektseminars im Sommersemester 2014 an der Hochschule Hannover. Alle Inhalte des Handbuchs stehen auf http://hshdb.github.io/normdaten-in-wikidata unter den Bedingungen der CC-BY-SA Lizenz zur freien Verfügung.
Das virtuelle soziale Netzwerk Facebook feiert seinen zehnten Geburtstag. Mit über einer Milliarde aktiver Nutzer ist es seit seiner Entstehung zur weltweit größten Internetplattform zur Kommunikation avanciert. Dennoch gibt es in Deutschland eine große Anzahl an Menschen, die sich zwar täglich im Internet bewegt, aber auf eine Mitgliedschaft bei Facebook verzichtet. In dieser Arbeit werden die Gründe untersucht, warum manche Personen Facebook nicht nutzen. Die Leitfrage der Arbeit lautet: „Warum nutzen ausgewählte deutsche Internetnutzer Facebook nicht?“. Es wird zwischen zwei unterschiedlichen Personenkreisen, den Nicht- und den Ex-Nutzern, unterschieden. Basierend auf Leitfadeninterviews mit 25 Befragten, die mittels einer qualitativen Inhaltsanalyse ausgewertet werden, werden elf verschiedene Gründe für eine Verweigerung von Facebook identifiziert. Für die Nicht-Nutzer stellt die Art der Kommunikation den zentralen Grund dar, Facebook nicht zu verwenden. Die Ex-Nutzer wiederum sehen den fehlenden Nutzen der Anwendung als wichtigstes Argument gegen Facebook.
Ein Forschungsteam unter Leitung von Prof. Dr. Romppel hat zwischen 1.8.2011 und 31.7.2014 die Betreuung von Kindern in der Großtagespflege untersucht.
Mit der Neufassung des § 24 Abs. 2 SGB VIII zum 1. August 2013 besteht für alle Kinder ab dem 2. Lebensjahr ein Rechtsanspruch auf individuelle Förderung. Der erwarteten wachsenden Nachfrage nach Plätzen für Kinder unter 3 Jahren soll neben dem Krippenausbau auch mit einem Ausbau der Kindertagespflege, in Niedersachsen besonders auch der Großtagespflege, begegnet werden. Großtagespflegestellen sind rechtlich ein gleichwertiges Angebot zur Krippe. Die vorliegende Untersuchung in Niedersachsen geht zum einen der Frage nach, ob die Qualität der pädagogischen Arbeit in den Großtagespflegestellen diesem Anspruch genügen kann. Mit der TAS-R, einem Beobachtungs- und Bewertungsverfahren werden ausgewählte Großtagespflegestellen beurteilt und mit strukturierten Interviews zu ihrer Arbeit befragt. Zudem wird die telefonische und schriftliche Befragung aller Jugendämter Niedersachsens zur Organisation der Fachberatung sowie zur Struktur der finanziellen und fachlichen Unterstützung der Großtagespflegestellen vor Ort vorgestellt. Die Ergebnisse und Empfehlungen für die Verantwortlichen verweisen auf Handlungsbedarf.
Mit dieser Arbeit soll ein Beitrag zur Weiterentwicklung der Diskussion zum Thema Resilienz geleistet werden. Zielstellung ist es, zu einer Elaboration des Konstrukts und seiner Faktoren und Facetten beizutragen. Resilienz wird dabei als Persönlichkeitsmerkmal verstanden, das den Menschen befähigt, schwierige Lebenssituationen ohne anhaltende Beeinträchtigung zu überstehen (Duden, 2014). Die teststatistische Untersuchung der englischsprachigen RS-25 (Wagnild/Young, 1993) und der deutschsprachigen RS-25 (Schumacher u.a., 2005) zeigt, dass bisher keine überzeugenden Subskalenvorschläge vorliegen. Aus diesem Grund wird eine Vier-Subskalenlösung entwickelt (Resilienzskala RS-32). Die vier Subskalen Ich-Stärke, Lebensfreude, Hartnäckigkeit und Wirklichkeitssinn erfassen das Konstrukt Resilienz umfassend. Die RS-32 deckt die Facetten des Vier-Subskalenvorschlags ab und kann als Basis für empirische Untersuchungen dienen.
Vertreter der Generation Y, Personen, die in den 1980er Jahren geboren wurden, drängen verstärkt in den Arbeitsmarkt. Ihre Wert- und Erwartungshaltung ist deshalb von großem Interesse für Unternehmen, die mit Themen wie dem Fachkräftemangel und demografischen Wandel konfrontiert sind und die Leistungsträger langfristig binden müssen. Ziel dieser Hausarbeit ist herauszufinden, wie ausgeprägt die emotionale Bindung der Generation Y in Unternehmen allgemein ist und unter welcher Voraussetzung affektives Commitment bei der Generation Y entsteht. Ein weiteres Ziel ist die Erarbeitung von Handlungsempfehlungen bezüglich des Personalmanagements von Generation Y in Unternehmen. Generation Y hat hohe Erwartungen an Arbeitsinhalt, Selbstverwirklichungsmöglichkeiten, Aus- und Weiterbildungsmaßnahmen, Unternehmenswerte und -ethik, Sinnhaftigkeit der Tätigkeit und Teamarbeit. Vertreter dieser Generation wünschen sich Wertschätzung, eine gute Beziehung zum Vorgesetzten, viele Partizipationsmöglichkeiten, regelmäßiges Feedback und Flexibilität. Weiterhin sind Work-Life-Balance, Karriereoptionen, Einkommen, digitale Vernetzung und Arbeitsplatzsicherheit wichtige Themen für diese Generation. Affektives Commitment entsteht durch Erfüllung von Erwartungen. Generation Y ist nur bedingt affektiv gebunden, tendiert zu häufigen Unternehmenswechseln und ist durch eine schwache Loyalität gekennzeichnet. Dies liegt hauptsächlich daran, dass die Erwartungen dieser Generation nicht erfüllt werden. Es wird empfohlen HR-Maßnahmen zu implementieren, die auf Erfüllung der Erwartungen von Generation Y abzielen.
The drugs we use to treat any condition – from an innocuous cough to a life-threatening cancer – are the outcome of painstaking human clinical trials. These trials are the only way to credibly determine the safety and efficacy of drugs. In recent years there has been a clear shift in clinical trial sites from core developed countries like USA, European countries to developing countries like India, China, South American countries. This shift is related to challenges and opportunities like costs of trials, recruitment issues, and regulatory challenges in developed vs. developing countries. Developing countries and developed countries have their unique disease burden patterns based on various parameters like but not limited to age, health care facilities, health insurance, sanitary conditions, environmental issues, education, nutrition
and GDP. Previous studies have reported that many of the important global diseases are not much explored in clinical trials and many published clinical trials have very less international health relevance. This study was aimed at finding the correlation between disease burdens, number of clinical trials done and trial success rates. We compared 2005 - 2010 Global Burden of Disease data for Germany, India and number of clinical trials from clinicaltrials.gov database done in the same period. Our findings indicated that there was a good correlation between the disease burden and clinical trials for Germany in 2005 and 2010. For India in 2005 there was a moderate positive correlation, 2010 data showed the improvement in India in terms of match between disease burden and clinical trials. But careful observation of the data shows still a need for more trials on Communicable, maternal, neonatal and nutritional disorders.