TU Darmstadt / ULB / TUprints

Die Vorhersage der Schwierigkeit deutscher C-Test-Texte: Untersuchungen am Beispiel des onDaF

Kaufmann, Nicole (2023)
Die Vorhersage der Schwierigkeit deutscher C-Test-Texte: Untersuchungen am Beispiel des onDaF.
In: Zeitschrift für Interkulturellen Fremdsprachenunterricht : ZIF, 2016, 21 (2)
doi: 10.26083/tuprints-00012979
Article, Secondary publication, Publisher's Version

[img] Text
zif-3059-kaufmann.pdf
Copyright Information: CC BY-ND 3.0 de - Creative Commons, Attribution NoDerivs.

Download (1MB)
Item Type: Article
Type of entry: Secondary publication
Title: Die Vorhersage der Schwierigkeit deutscher C-Test-Texte: Untersuchungen am Beispiel des onDaF
Language: German
Date: 24 May 2023
Place of Publication: Darmstadt
Year of primary publication: 2016
Journal or Publication Title: Zeitschrift für Interkulturellen Fremdsprachenunterricht : ZIF
Volume of the journal: 21
Issue Number: 2
DOI: 10.26083/tuprints-00012979
Corresponding Links:
Origin: Secondary publication from TUjournals
Abstract:

C-Tests sind Lückentests zur schnellen und zuverlässigen Messung der allgemeinen Sprachkompetenz. Obwohl die Tests bereits hinsichtlich vieler verschiedener Aspekte untersucht wurden, konnte die Frage, warum manche C-Test-Texte schwieriger sind als andere, noch nicht hinreichend beantwortet werden. Im vorliegenden Beitrag wird ein Versuch unternommen, diese Frage im Hinblick auf zehn Texte zu beantworten, die im onDaF (Online-Einstufungstest Deutsch als Fremdsprache) Anwendung finden. Untersucht werden verschiedene Textcharakteristika sowie Fehler, die 202 Lerner1 in einzelnen Lücken gemacht haben. Statistische und linguistische Analysen führen zu dem Schluss, dass keiner der untersuchten Parameter, und auch keine Kombination dieser, zuverlässig die Schwierigkeit deutscher C-Test-Texte voraussagen kann. Die Ergebnisse stützen das Argument, dass die erfolgreiche Bearbeitung eines C-Tests umfassende Kompetenzen in verschiedensten Bereichen der Zielsprache erfordert.

Alternative Abstract:
Alternative AbstractLanguage

C-tests are gap-filling tests for the quick and reliable assessment of global language competence. Although C-tests have already been researched with regard to many different aspects, the question why some C-test texts are more difficult than others remains largely unanswered. In the present paper, an approach is made to answer this question with regard to ten texts used in the onDaF (Online Placement Test of German as a Foreign Language). Different text characteristics are studied as well as mistakes in individual gaps made by 202 learners. Statistical and linguistic analyses lead to the conclusion that none of the parameters taken into account, or a combination of those, reliably predict the difficulty of German C-test texts. The findings support the argument that taking a C-test successfully requires a proficient knowledge of many different aspects of the target language.

English
Uncontrolled Keywords: C-Test, Sprachtesten, Schwierigkeitsgenerierende Parameter, Rasch-Modell, Schwierigkeitsanalyse, OnlineEinstufungstest; C-test, language testing, difficulty generating parameters, Rasch model, difficulty analysis, online placement test
Status: Publisher's Version
URN: urn:nbn:de:tuda-tuprints-129794
Classification DDC: 400 Language > 400 Language, linguistics
Divisions: 02 Department of History and Social Science > Institut für Sprach- und Literaturwissenschaft > Sprachwissenschaft - Mehrsprachigkeit
Date Deposited: 24 May 2023 17:03
Last Modified: 22 Jul 2024 08:15
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/12979
PPN:
Export:
Actions (login required)
View Item View Item