330 Wirtschaft
Refine
Year of publication
Document Type
- Article (45) (remove)
Has Fulltext
- yes (45)
Is part of the Bibliography
- no (45)
Keywords
- Milchwirtschaft (35)
- Molkerei (27)
- Kostenschätzung (8)
- Käserei (5)
- Kostenverlauf (4)
- Weichkäse (4)
- Milch (3)
- Arbeitsqualität (2)
- Gouda <Käse> (2)
- H-Milch (2)
Das Gesundheitsdatennutzungsgesetz – Potenzial für eine bessere Forschung und Gesundheitsversorgung
(2023)
Im Koalitionsvertrag der Ampel-Koalition wird für die laufende Legislaturperiode ein Gesundheitsdatennutzungsgesetz (GDNG) angekündigt. Dieses Gesetz soll „zu einer besseren wissenschaftlichen Nutzung in Einklang mit der DSGVO“ führen. Bekanntermaßen steht unser Gesundheitssystem vor großen Herausforderungen (Demografie, Digitalisierung, Fachkräftemangel, Klimakrise, regionale Unterschiede, etc.) und ist jetzt schon das teuerste in Europa bei mittelmäßiger Leistung. Diese Herausforderungen können effizienter und evidenzgeleitet bewältigt werden, wenn wie im geplanten GDNG angedacht, die Datenressourcen für die Evaluierung und Weiterentwicklung des Gesundheitssystems und der Gesundheitsversorgung optimal genutzt werden. In den folgenden Ausführungen werden aus Sicht von Versorgungsforscher*innen Voraussetzungen und Desiderata für eine optimale Ausgestaltung des Gesetzes formuliert. Das Papier wurde durch das Deutsche Netzwerk Versorgungsforschung (DNVF) und die Arbeitsgruppe Erhebung und Nutzung von Sekundärdaten (AGENS) der Deutschen Gesellschaft für Sozialmedizin und Prävention (DGSMP) und der Deutschen Gesellschaft für Epidemiologie (DGEpi) erstellt und wird von den unterzeichnenden Fachgesellschaften getragen. Das vorliegende Positionspapier und die hier aufgestellten Forderungen sind vor der Veröffentlichung und damit in Unkenntnis des Referentenentwurfs zum GDNG formuliert worden.
Nowadays, problems related with solid waste management become a challenge for most countries due to the rising generation of waste, related environmental issues, and associated costs of produced wastes. Effective waste management systems at different geographic levels require accurate forecasting of future waste generation. In this work, we investigate how open-access data, such as provided from the Organisation for Economic Co-operation and Development (OECD), can be used for the analysis of waste data. The main idea of this study is finding the links between socioeconomic and demographic variables that determine the amounts of types of solid wastes produced by countries. This would make it possible to accurately predict at the country level the waste production and determine the requirements for the development of effective waste management strategies. In particular, we use several machine learning data regression (Support Vector, Gradient Boosting, and Random Forest) and clustering models (k-means) to respectively predict waste production for OECD countries along years and also to perform clustering among these countries according to similar characteristics. The main contributions of our work are: (1) waste analysis at the OECD country-level to compare and cluster countries according to similar waste features predicted; (2) the detection of most relevant features for prediction models; and (3) the comparison between several regression models with respect to accuracy in predictions. Coefficient of determination (R2), Mean Absolute Error (MAE), Root Mean Square Error (RMSE), and Mean Absolute Percentage Error (MAPE), respectively, are used as indices of the efficiency of the developed models. Our experiments have shown that some data pre-processings on the OECD data are an essential stage required in the analysis; that Random Forest Regressor (RFR) produced the best prediction results over the dataset; and that these results are highly influenced by the quality of available socio-economic data. In particular, the RFR model exhibited the highest accuracy in predictions for most waste types. For example, for “municipal” waste, it produced, respectively, R2 = 1 and MAPE = 4.31 global error values for the test set; and for “household” waste, it, respectively, produced R2 = 1 and MAPE = 3.03. Our results indicate that the considered models (and specially RFR) all are effective in predicting the amount of produced wastes derived from input data for the considered countries.
Durch die Covid-19-Pandemie und die damit einhergehenden Effekte auf die Arbeitswelt ist die Belastung der Mitarbeitenden in einen stärkeren Fokus gerückt worden. Dieser Umstand trifft unter anderem durch den umfassenden Wechsel in die Remote Work auch auf agile Software-Entwicklungsteams in vielen Unternehmen zu. Eine zu hohe Arbeitsbelastung kann zu diversen negativen Effekten, wie einem erhöhten Krankenstand, mangelndem Wohlbefinden der Mitarbeitenden oder reduzierter Produktivität führen. Es ist zudem bekannt, dass sich die Arbeitsbelastung in der Wissensarbeit auf die Qualität der Arbeitsergebnisse auswirkt. Dieser Forschungsbeitrag identifiziert potenzielle Faktoren der Arbeitsbelastung der Mitglieder eines agilen Software-Entwicklungsteams bei der Otto GmbH & Co KG. Auf der Grundlage der Faktoren präsentieren wir Maßnahmen zur Reduzierung von Arbeitsbelastung und erläutern unsere Erkenntnisse, die wir im Rahmen eines Experiments validiert haben. Unsere Ergebnisse zeigen, dass bereits kleinteilige Maßnahmen, wie das Einführen von Ruhearbeitsphasen während des Arbeitstages, zu positiven Effekten bspw. hinsichtlich einer gesteigerten Konzentrationsfähigkeit führen und wie sich diese auf die Qualität der Arbeitsergebnisse auswirken.
Gutes Arbeiten für Mitarbeiter ist je nach Arbeitskontext unterschiedlich zu bewerten, hängt jedoch von der Gestaltung bestimmter Kontextfaktoren ab. Die Kontextfaktoren guter Arbeit sind der zentrale Forschungsgegenstand dieser Arbeit. Dabei steht ein E‑Commerce-Team (EC-Team) von Otto im Fokus der Untersuchungen.
Das Ziel unseres Artikels ist es, die Kontextfaktoren zu analysieren, die dazu führen, dass gute Arbeit ermöglicht wird. Dabei ist eine auf Dauer funktionierende Arbeitsweise gesucht, welche eine hohe Arbeitsqualität und -quantität ermöglicht. Dazu sind die beiden primären Ziele zu definieren, was gutes Arbeiten ausmacht und zum anderen die Kontextfaktoren für gutes Arbeiten innerhalb des EC-Teams bei Otto zu identifizieren.
Unsere Forschungsfrage lautet: Welche Kontextfaktoren sind für gutes Arbeiten bei Otto im EC-Team in der derzeitigen Remote-Arbeit besonders relevant und entsprechend gestaltbar?
Um die Forschungsfrage beantworten zu können, wird zunächst eine Literaturrecherche zur Definition von guter Arbeit vorgenommen. Anschließend wird untersucht, welche Faktoren laut Literatur zu einer guten Arbeit beitragen, um aus den resultierenden Faktoren Cluster zu bilden.
Die Cluster werden dem Otto EC-Team zur Abstimmung mit der Mehrpunktabfrage über das virtuelle Kollaborations-Tool MiroFootnote 2 zur Verfügung gestellt. Aufbauend auf dem Ergebnis der Abstimmung, werden ein Gamification Board, Erinnerungsmails und ein Stimmungsbarometer erstellt, um die Auswirkungen des Clusters im Rahmen eines Experiments zu analysieren.
Diese Maßnahmen werden innerhalb von zwei Wochen durchgeführt. Um die Erfahrungen der Probanden zu sammeln, werden anschließend Interviews durchgeführt und ausgewertet. Die Ergebnisse der Interviews fließen in die anschließende Handlungsempfehlung ein.
Untersuchungen zu Berufen der Wirtschaftsinformatik bleiben weiterhin
interessant, wenn sie helfen können, dem mittlerweile länger anhaltenden
IT-Fachkräftemangel entgegenzuwirken. Eine Untersuchung der Hochschule
Hannover zu Wirtschaftsinformatikern/-informatikerinnen in den ersten zehn Jahren im Beruf zeigt deren berufliche Ziele und die berufliche Zufriedenheit, die sie erlangen. Deutlich wird, dass Frauen und Männer das Arbeitsklima und die Arbeitsbedingungen sehr unterschiedlich wahrnehmen und daher auch unterschiedlich zufrieden sind. Dabei bemängeln Frauen vor allem Merkmale, die mit „fehlender Fairness“ zu beschreiben sind.
Delphi is a frequently used research method in the information systems (IS) field. The last fifteen years have seen many variants of the Delphi Method proposed and used in IS research. However, these variants do not seem to be properly derived; while all variants share certain characteristics, their reasoning for differentiation inconsistently varies. It seems that researchers tend to create “new” Delphi Method variants, although the underlying modification of the Delphi Method is, in fact, minor. This leads to a heterogeneity of Delphi Method variants and undermines scientific rigor when using Delphi. The study addresses this deficit and (1) identifies different variants of Delphi and determines their characteristics, (2) critically reflects to what extent a clear distinction between these variants exists, (3) shows the clearly distinguishable Delphi Method variants and their characteristics, (4) develops a proposed taxonomy of Delphi Method variants, and (5) evaluates and applies this taxonomy. The proposed taxonomy helps clearly differentiate Delphi Method variants and enhances methodological rigor when using the Delphi Method.
The paper presents a comprehensive model of a banking system that integrates network effects, bankruptcy costs, fire sales, and cross-holdings. For the integrated financial market we prove the existence of a price-payment equilibrium and design an algorithm for the computation of the greatest and the least equilibrium. The number of defaults corresponding to the greatest price-payment equilibrium is analyzed in several comparative case studies. These illustrate the individual and joint impact of interbank liabilities, bankruptcy costs, fire sales and cross-holdings on systemic risk. We study policy implications and regulatory instruments, including central bank guarantees and quantitative easing, the significance of last wills of financial institutions, and capital requirements.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen.
Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.