400 Sprache, Linguistik
Refine
Year of publication
Document Type
- Conference Proceeding (3)
- Book (2)
- Article (1)
- Bachelor Thesis (1)
- Report (1)
- Working Paper (1)
Has Fulltext
- yes (9)
Is part of the Bibliography
- no (9)
Keywords
- Einfache Sprache (3)
- Leichte Sprache (3)
- Texten (3)
- Verstehen (3)
- Verständlichkeit (3)
- Geistige Behinderung (2)
- Lesen (2)
- ASD-STE 100 (1)
- Aphasie (1)
- Clustering (1)
Dieser Band ist eine Festschrift zum 68. Geburtstag von Klaus Schubert, der seit 30 Jahren – zunächst an der Fachhochschule Flensburg, dann an der Universität Hildesheim – als Professor im Bereich der Fachkommunikationswissenschaft starke Impulse gesetzt und das Fach nachhaltig geprägt hat. Nicht nur durch sein Modell der vier Dimensionen der Fachkommunikation, sondern auch durch umfassende Publikationstätigkeit, unerschöpfliche Einsatzbereitschaft in der Lehre und herausragendes Engagement für die Förderung des wissenschaftlichen Nachwuchses hat Klaus Schubert die eigenständige Disziplin der Fachkommunikationswissenschaft begründet, bekannt gemacht und fortentwickelt. Seine Studierenden, Promovierenden und Fachkolleginnen und -kollegen sind dadurch nachhaltig geprägt worden.
„Fachkommunikationswissenschaft gestern, heute, morgen“ versammelt Beiträge von Klaus Schuberts ehemaligen und aktuellen Doktorandinnen und Doktoranden, Mitarbeiterinnen und Mitarbeitern und Weggefährtinnen und Weggefährten, in denen die große Diversität der Fachkommunikationswissenschaft zum Ausdruck kommt.
Concreteness of words has been measured and used in psycholinguistics already for decades. Recently, it is also used in retrieval and NLP tasks. For English a number of well known datasets has been established with average values for perceived concreteness.
We give an overview of available datasets for German, their correlation and evaluate prediction algorithms for concreteness of German words. We show that these algorithms achieve similar results as for English datasets. Moreover, we show for all datasets there are no significant differences between a prediction model based on a regression model using word embeddings as features and a prediction algorithm based on word similarity according to the same embeddings.
Lemmatization is a central task in many NLP applications. Despite this importance, the number of (freely) available and easy to use tools for German is very limited. To fill this gap, we developed a simple lemmatizer that can be trained on any lemmatized corpus. For a full form word the tagger tries to find the sequence of morphemes that is most likely to generate that word. From this sequence of tags we can easily derive the stem, the lemma and the part of speech (PoS) of the word. We show (i) that the quality of this approach is comparable to state of the art methods and (ii) that we can improve the results of Part-of-Speech (PoS) tagging when we include the morphological analysis of each word.
Viele erwachsene Deutsche sind keine guten und geübten Leser. Sachtexte führen deswegen zu Unklarheiten, Fehlentscheidungen und Nachfragen. Diese Konzequenz stellt sich auch bei geübten aber fachfremden Lesern ein. Nur eine sprachliche Anpassung an Leser kann das ändern. Der Aufsatz vergleicht dazu zwei Ansätze, Einfache Sprache und Leichte Sprache. Der Autor vertritt die Auffassung, dass nur eine einfache Sprache als Lösung des genannten Dilemmas taugt. Leichte Sprache ist gegenwärtig das einzige Instrument, um Menschen mit neuronalen Schädigungen einen Inhalt zu übermitteln. Doch auch dafür nutzt sie nur eingeschränkt. Die Wissenschaft wird an diesen Themen arbeiten müssen. Sie steht erst am Anfang.
Diese Studie untersucht Gruppen von Ortsnamen in Deutschland (in den Postleitregionen) nach vorhandenen Ähnlichkeiten. Als Messgröße wird ein Häufigkeitsvektor von Trigrammen in jeder Gruppe herangezogen. Mit der Anwendung des Average Linkage-Algorithmus auf die Messgröße werden Cluster aus räumlich zusammenhängenden Gebieten gebildet, obwohl das Verfahren keine Kenntnis über die Lage der Cluster zueinander besitzt. In den Clustern werden die zehn häufigsten n-Gramme ermittelt, um charakteristische Wortpartikel darzustellen. Die von den Clustern umschriebenen Gebiete lassen sich zwanglos durch historische oder linguistische Entwicklungen erklären. Das hier verwendete Verfahren setzt jedoch kein linguistisches, geographisches oder historisches Wissen voraus, ermöglicht aber die Gruppierung von Namen in eindeutiger Weise unter Berücksichtigung einer Vielzahl von Wortpartikeln in einem Schritt. Die Vorgehensweise ohne Vorwissen unterscheidet diese Studie von den meisten bisher angewendeten Untersuchungen.
The dependency of word similarity in vector space models on the frequency of words has been noted in a few studies, but has received very little attention. We study the influence of word frequency in a set of 10 000 randomly selected word pairs for a number of different combinations of feature weighting schemes and similarity measures. We find that the similarity of word pairs for all methods, except for the one using singular value decomposition to reduce the dimensionality of the feature space, is determined to a large extent by the frequency of the words. In a binary classification task of pairs of synonyms and unrelated words we find that for all similarity measures the results can be improved when we correct for the frequency bias.
Diese Literaturrecherche versucht eine Darstellung des Leseprozesses sowie der Leichten Sprache, die Menschen mit Lesestörungen dienen soll.
Es stellt sich heraus, dass künftig ein anderes System erforderlich sein wird, das es gestattet, Leserkategorien und Lernprozesse zu berücksichtigen.
Die Entwicklung einer Alternative auf der Basis einer geregelten Sprache (controlled language) könnte im Unterschied zur Leichten Sprache Dokumenttypen, Leserkategorien, Wort- und Grammatikkenntnisse sowie das beim Leser vorhandene Wissen berücksichtigen.
Verwaltungsformulare, Verträge, Gesetzestexte, die Bedienungsanleitung einer Kaffeemaschine oder auch der Beipackzettel eines Medikaments – jeder kennt solche Texte und fast immer gibt es ein Problem mit der Verständlichkeit. Was wollen die jetzt von mir? Was soll ich machen? Das sind Fragen, die am Ende offen bleiben. Der Leser steht hilflos vor kompliziert und unverständlich, meist auch ermüdend geschriebenen Texten. Eigentlich sollte aber jeder diese Texte verstehen können. Um die Benutzerfreundlichkeit und die Qualität einer Bedienungsanleitung gewährleisten zu können, sind in Normen, wie VDI 4500, DIN EN ISO 121000 und DIN EN 62079, Kriterien bzgl. Inhalt, Layout und Beschaffenheit festgelegt. Bei der Verständlichkeit wird quasi am Minimum angesetzt, weil wirklich jeder die Anleitung verstehen soll. Doch was ist mit denen, die die Anleitung zwar verstehen sollen, aber eben nicht können? Menschen mit geistiger Behinderung werden im Alltag mit einer Vielzahl an Texten konfrontiert, die sie nicht verstehen. Der Textinhalt bleibt somit ein nicht zu lösendes Rätsel. Dass Menschen mit geistiger Behinderung ein selbstbestimmtes und selbstständiges Leben führen können, wird so von vornherein ausgeschlossen. Die Möglichkeit durch Kommunikation an der Gesellschaft teilzunehmen, wird weitestgehend unterbunden. Um diesem Ausschluss entgegenzuwirken, muss bei der Verwendung von Sprache und Erstellung von Texten unmittelbar bei dieser Zielgruppe angesetzt werden, so dass Texte und Sprache der vorhandenen Lesekompetenz entsprechend zugänglich werden. Hier setzt das Konzept Leichte Sprache an. Durch Unterstützung und Förderung beim Einsatz von Leichter Sprache sollen Menschen mit geistiger Behinderung schulische und berufliche Fähigkeiten erwerben und erfolgreich am sozialen Leben teilnehmen können. In der folgenden Arbeit wird, um Diskriminierung vorzubeugen, zunächst die Begrifflichkeit "geistige Behinderung" geklärt und deren Verwendung festgelegt. Dann wird das Konzept Leichte Sprache vorgestellt. Grundlagen von Verständlichkeit im Allgemeinen und bezogen auf die möglichen Zielgruppen, u.a. Menschen mit geistiger Behinderung, werden erläutert. Um feststellen zu können, ob eine Eingrenzung von Texten notwendig ist, bei denen Verständlichkeit gefördert bzw. überprüft werden soll, wird zwischen verschiedenen Textsorten abgegrenzt. So kann schließlich im Ergebnis überprüft werden, ob Leichte Sprache ein Konzept verständlichen Textens ist.