© Sprachspiegel, Oktober 2014
«Bericht zur Lage der deutschen Sprache»
Akademien legen quantitative Studien zu Teilaspekten vor
Von Daniel Goldstein
Wenn ein Staatsoberhaupt zur Lage der Nation redet, erwartet man eine Standortbestimmung und ein Programm. Was aber darf man von einem «Bericht zur Lage der deutschen Sprache» erwarten, wie er jetzt erstmals vorliegt1? Dass hier jemand diese Sprache in ihrer Gesamtheit erfasst, ihr Wohl und Wehe beurteilt und auch noch sagt, was zu tun sei? Wohl kaum. Die Akademien, die sich die Herausgabe einer Reihe solcher Berichte vorgenommen haben, sind in ihrem Anspruch bescheidener. Sie stellen fest, es werde «über den Einfluss des Englischen, über den Verfall oder die Verarmung des Deutschen, die schwindende internationale Geltung unserer Sprache und den Verlust von Verwendungsdomänen wie der Wissenschaft gestritten»; es fehlten aber «zu einem guten Teil … fundierte Diagnosen».
Zu Teilthemen «von besonderem Interesse» sollen nun «wissenschaftlich fundierte Informationen» zusammengetragen werden. Der erste Bericht gilt Klagen, die seit Langem für Aufregung sorgen: angebliche Verarmung in Wortschatz und Grammatik, Bedrohung durch Anglizismen und «Papierdeutsch» (mit Ausdrücken wie «zur Anzeige bringen»). Die vier Studien, die in der Folge vorgestellt werden, sind in Projektgruppen unter professoraler Leitung entstanden. Gemeinsam ist ihnen, dass sie auf der computergestützten Analyse grosser Textmengen beruhen. Auf die Schwierigkeiten dieses Verfahrens gehen die vier Projektverantwortlichen selber ein. Wichtiger als die Präzision der gewonnenen Zahlen sind ohnehin die linguistischen Überlegungen, welche die Autoren an Trends und Textbeispiele anknüpfen.
1. Von Reichtum und Armut des deutschen Wortschatzes2
«Weisst du, wie viel Wörtlein stehen in dem Buch der deutschen Sprach’?» Gäbe es diese Liedzeile, so müsste die Fortsetzung heute lauten: «Com-pu-ter hat sie gezählet …». Wolfgang Klein sagt es nicht so, aber seine Projektgruppe geht die Frage nach dem Umfang des Wortschatzes und seiner Veränderung im 20. Jahrhundert mithilfe von Korpora an, elektronisch durchsuchbaren Textsammlungen. Mit dem «Buch» der deutschen Sprache ist also nicht ein Wörterbuch gemeint, obwohl Klein eingangs eine Zählung anführt, die im umfangreichsten, dem Digitalen Wörterbuch der deutschen Sprache (DWDS), auf 336 925 Stichwörter kommt. Diese auf die Brüder Grimm zurückgehende Sammlung «spiegelt jedoch im Wesentlichen nur den deutschen Wortschatz bis etwa 1900 wider». Die heutige deutsche «Alltagssprache» wird von der Dudenredaktion auf eine halbe Million Wörter geschätzt, von denen 70 000 den «zentralen Teil» ausmachten. «Nimmt man den ‹Fachwortschatz› dazu, so kommt man hinwieder auf einige Millionen Wörter.»
Was da gezählt wird, sind Lexeme, wie sie uns in Wörterbüchern als Stichwörter (Lemmata) begegnen; bei flektierbaren Wörtern in der Grundform. Gleichlautende Wörter verschiedener Wortarten, etwa «sein», oder unterschiedlicher Bedeutung, etwa «Absatz», erhalten separate Wörterbuch-Einträge. Die vorliegende Korpus-Auswertung orientiert sich «an den geschriebenen Wortformen», ohne Unterschiede der Bedeutung oder grammatischen Funktion, weil es dazu keine verlässlichen Computerprogramme gebe. Immerhin wird versucht, Beugungen und getrennte Verbformen zu erkennen.
Die Grösse der verwendeten Korpora bemisst sich nicht nach der Anzahl darin vorkommender Lexeme – wie (un)präzis auch definiert und erkannt –, sondern nach der Anzahl Wörter, wie sie auch ein Schreibprogramm zählt: Nach jedem Leerschlag kommt ein neues. Da die gesprochene Sprache erst schlecht in elektronischen Sammlungen erfasst ist, beschränkte man sich auf die geschriebene. Den Grundstock bildet das Kernkorpus der DWDS-Redaktion, das etwa zu gleichen Teilen aus Belletristik, Zeitungen, Gebrauchstexten und wissenschaftlichen Texten besteht. Ergänzt durch neuere Archive von vier deutschen Zeitungen, umfasst es eine Milliarde Wörter.Da die rückwirkend erfassten Texte aus vordigitaler Zeit weniger umfangreich sind, wurden für die Analyse der Wortschatz-Entwicklung drei «Zeitscheiben» à 10 Millionen Wörter gebildet, für Anfang, Mitte und Ende des 20. Jahrhunderts. Nun ist es aber so, dass mit der Grösse des Korpus auch die Zahl der darin vorkommenden Lexeme stark steigt, weil die Chance wächst, dass auch sehr seltene Wörter einmal erfasst werden. Es gibt dafür eine Umrechnungsformel, und so wurden die drei Zeitscheiben auf ein Korpus von einer Milliarde Wörter hochgerechnet, wie es eben fürs Ende des Jahrhunderts tatsächlich vorliegt und den errechneten Wert ungefähr bestätigt.
Rechnet man Zahlen, Abkürzungen, Namen, Fehlschreibungen, Zitate aus Fremdsprachen aufgrund von Stichproben ab, so kommt man ums Jahr 2000 auf 5,3 Millionen Lexeme, die als «deutsche Wörter» gelten können. Im Jahrzehnt vor dem Ersten Weltkrieg waren es 3,7 und Mitte des Jahrhunderts 5,0 Millionen. Weniger wichtig als die – mit den genannten Unsicherheiten behafteten – absoluten Zahlen ist für den Autor der Trend (einmal angenommen, die Mängel wirkten sich für alle Zeitscheiben etwa gleich aus): «Dieses Anwachsen … wird man nicht als eine Verarmung betrachten wollen».
Auch wenn eine Detailanalyse per Computer unmöglich ist, lässt sich sagen, dass der «weitaus grösste Teil des Zuwachses» aus Ableitungen und Zusammensetzungen bestehender Wörter besteht. Überall dort, wo sich der Sinn solcher Wortbildungen erst aus dem Zusammenhang erschliesst, nennt Klein sie «eine echte Erweiterung der Lexik». Nach Textsorten betrachtet, war der Zuwachs in der Belletristik am kleinsten, bei den Zeitungen am grössten, was der Autor mit der Themenvielfalt erklärt. «Rätselhaft» ist für ihn, dass der ermittelte Wortschatzumfang seit der Jahrhundertmitte bei der Belletristik stagniert; zur Verlangsamung des Zuwachses insgesamt äussert er sich nicht.
Vielmehr betont Klein, «dass der deutsche Wortschatz sehr viel umfangreicher geworden ist. Nur sehr wenige Sprachen weisen einen solchen Reichtum in ihrer Lexik auf.» Zwar nähmen auch in andern Sprachen Komposita zu, aber selten so stark wie im Deutschen (kein Wunder, denn es zeichnet sich ja gerade durch diese Möglichkeit aus). Wenn trotzdem zuweilen der Eindruck der Verarmung entstehe, so liege das nicht an der Sprache, «sondern an denen, die von ihr Gebrauch machen. Es reicht nicht, einen Bösendorfer in der Stube stehen zu haben; man muss ihn auch spielen können.»
2. Anglizismen im Deutschen
Auch Peter Eisenberg unterscheidet in seinem Kapitel über Anglizismen zwischen Sprachkritik und Sprachgebrauchskritik, denn er befürchtet, die Diskussion über die Einflüsse des Englischen könnte das Vertrauen in die eigene Sprache beschädigen. Die Frage, was die deutsche Sprache «an sich» sei, ist zwar theoretisch schwierig, aber für die Praxis dieser Studie einfach zu beantworten: Sie ist das, was im Textkorpus erfasst ist. Verwendet werden diesmal die 1. und die 3. Zeitscheibe (siehe oben).
Auch die Frage, was ein Anglizismus sei, wirft viele weitere Fragen auf. Hier wurde nicht auf die Herkunft abgestellt, sondern «im Sinne der Projektziele ist ein Anglizismus ein Wort, das erkennbar Eigenschaften des Englischen hat, die in der Kerngrammatik des Deutschen nicht erfasst werden können». Das schliesst «Pseudoanglizismen» wie «Handy» ein, ebenso Zusammensetzungen wie «hochloaden». Als «relevante Wortarten» sind Substantive, Adjektive, Verben und Adverbien erfasst; es sind (in dieser Reihenfolge) jene mit der grössten «Entlehnbarkeit».
Unter den gut 10 Millionen Wörtern des Korpus 1905–1914 erkennt der manuell unterstützte Computer rund ein halbes Promille derartige Anglizismen. Der einzelne Anglizismus wird relativ selten verwendet (in zwei Dritteln der Fälle gar nur ein einziges Mal). Für den Wortschatz zählt aber die Rarität ebenso als Bestandteil wie etwa das massenhaft verwendete «und». Unter den rund 370 000 Lemmata beträgt der Anglizismen-Anteil 0,35 Prozent, unter jenen der relevanten Wortarten 0,5 Prozent. Im Durchschnitt taucht eines dieser Wörter auf jeder fünften Seite (à 500 Wörter) auf.
Am Ende des Jahrhunderts haben sich die Anteile etwa verzehnfacht: gut zwei Anglizismen pro Seite, 3,5 Prozent des Wortschatzes (5,2 beim relevanten). Dass auch der Duden von 1986 rund 3,5 Prozent Anglizismen aufweist, wertet der Autor «erst einmal als Zufall», der näher zu untersuchen wäre. Innerhalb der Anglizismen ist die Hierarchie insofern gewahrt, als immer noch zwei Drittel der überhaupt vorkommenden im ganzen Korpus nur einmal festgestellt werden. Am andern Ende der Skala hat sich aber eine Anzahl «hochfrequenter» Wörter etabliert, die bestimmte englische Eigenschaften bewahren.
In jenem Viertel des Korpus, das aus Pressetexten besteht, ist der Anglizismenanteil deutlich höher: 1,2 Prozent der insgesamt gezählten Wörter (hier passend Tokens genannt), gegenüber 0,5 Prozent im Durchschnitt; in Belletristik und Gebrauchsprosa dürfte der Wert deutlich darunter liegen, in der Wissenschaft nicht unbedingt. Dazu schreibt Eisenberg: «Die Presse ist seit jeher ein Einfallstor für Fremdwörter aus der jeweils dominierenden Gebersprache. (…) Es besteht keine Berechtigung, aus einer repräsentativen Mischung von Pressetexten auf ‹das geschriebene Standarddeutsche› zu schliessen.»
Hier zeigt sich wieder die Sorge das Autors, nicht die Zunahme der Anglizismen, wohl aber die Kritik daran könnte die Sprache schwächen: «Abgesänge auf das Deutsche sind nicht nur fehl am Platz, sondern sie schädigen die Loyalität der Sprecher zu ihrer Sprache.» Da ist es nicht mehr weit zum Vorwurf, die Kritiker seien Nestbeschmutzer. Dabei teilt Eisenberg die Kritik am Sprachgebrauch, «etwa wo einem prätentiösen Globalismus gehuldigt wird oder wo Texte gezielt unverständlich gemacht werden». Aber er hält die deutsche Sprache für widerstandsfähig: «Anglizismen stehen unter erheblichem Integrationsdruck der Kerngrammatik»; ihr «stuktureller Einfluss (ist) marginal».
Autorentexte zu den Teilen 3 und 4 finden sich im PDF: (X) anklicken
1Deutsche Akademie für Sprache und Dichtung / Union der deutschen Akademien der Wissenschaften (Hrsg.): Reichtum und Armut der deutschen Sprache. Erster Bericht zur Lage der deutschen Sprache. De Gruyter, Berlin 2013. 233 Seiten, ca. Fr. 42.– (auch als E-Book erhältlich).
2Das Buchkapitel ist abrufbar http://pubman.mpdl.mpg.de (Suche: Klein Armut).