In meinem letzten linguistischen Blog-Beitrag ging es um die Prägung, die unsere moderne Sprachauffassung schon in der Antike erhalten hat. Sie lässt sich dadurch charakterisieren, dass sie Sprache nicht im Zusammenhang mit andere Kommunikationsweisen betrachtet, stark regelorientiert ist und Kommunikation rationalistisch überhöht. Seit dem Ende des Mittelalters sind diese Grundtendenzen in die sich entwickelnde Sprachwissenschaft eingefloßen, im 19. Jahrhundert jedoch hat es auch verschiedene Abkehrversuche gegeben.
Das Bild der Sprache nach Ende des Mittelalters
Das in Antike und Mittelalter skizzierte Bild der Sprache wurde in der Neuzeit um viele neue Details ergänzt.[i] Bereits im Zeitalter der Renaissance wendeten sich Gelehrte bislang unbeachteten Sprachen zu. Dabei bemerkten sie, dass die in diesen aufzufindenden Strukturen einem Grammatikverständnis, das auf dem Griechischen und dem Latein fußte, in vielem widersprachen. Für das Hebräische und das Arabische entstanden erste Grammatiken, aber auch die in Europa gesprochenen Sprachen wie Italienisch, Französisch, Spanisch oder Deutsch wurden erstmals grammatisch beschrieben, nachdem diese „Volkssprachen“ lange Zeit nur als degenerierte, wertlose Mundarten angesehen worden waren. Der große französische Grammatiker Pierre Ramée wandte sich in der zweiten Hälfte des 16. Jahrhunderts dabei erstmalig gegen antike Autoritäten wie Aristoteles und entwickelte eigenständig für das Französische angemessene Kategorien der grammatischen Beschreibung.
Auch die Kenntnis asiatischer Sprachen drang ab dem Ende des 16. Jahrhunderts nach Europa vor – und fügte dem Bild der Sprache einige wichtige neue Facetten hinzu. Beim Sanskrit etwa, der Sprache der altindischen Veden, wurden Parallelen zum Lateinischen, Griechischen und den neuzeitlichen europäischen Sprachen erkannt, die ab dem frühen 19. Jahrhundert zur Aufdeckung der indogermanischen Sprachfamilie führten.
Das Chinesische wurde in diesem Zeitraum ebenfalls immer besser verstanden und damit zugleich die Relativität vieler bislang als universal betrachteter Merkmale der europäischen Sprachen in Frage gestellt. Die Töne im Chinesischen etwa, mithilfe derer Bedeutungsunterschiede nur durch Tonhöhendifferenzen zum Ausdruck gebracht werden, oder die völlige Abwesenheit von Flexionsendungen und Wortableitungen boten Anlass dazu. Damit kam zugleich die Frage auf, welche Eigenschaften von Sprache es denn eigentlichen sind, die jenseits aller Einzelsprachen universelle Gültigkeit haben – die Frage nach den Sprachuniversalien, die bis heute einen Gegenstand der sprachvergleichenden Forschung bildet.
Für eine Sprachauffassung aber, die durch eine Herkunft aus der antiken Rhetorik, primärer Mündlichkeit und die Fixierung von Sprache durch eine Alphabetschrift gekennzeichnet ist, stellt das logografische Schriftsystem des Chinesischen eine besondere Herausforderung dar. Die Zeichen dieses Schriftsystems folgen in ihrem Aufbau einer eigenständigen visuellen Grammatik, deren Funktionsweise auf der Zweidimensionalität der Fläche aufbaut.
All diese linguistischen Erkenntnisse jener Zeit eröffneten Wege zu einem neuen Bild der Sprache, die ab dem 19. Jahrhundert zögernd beschritten wurden. Im Zeitalter des Barock trieb aber auch die Idealisierung von Sprache auf einen ersten Höhepunkt zu, was sich mit den rationalistischen Philosophen von Descartes (1596-1650) bis Leibniz (1646-1716) verbindet. Sie vertraten die aufklärerische Ansicht, dass der menschliche Verstand grundsätzlich in der Lage ist, die Realität objektiv zu erfassen, und diese Ansicht erstreckte sich auch auf die Verwendung der Sprache. Der Ausgangspunkt dieser Überlegungen war die Aufdeckung der Verschiedenheit der Sprachen, denn damit war ja nach Meinung dieser Philosophen zugleich auch die Unzulänglichkeit jeder einzelnen, auf natürlichem Wege entstandenen Sprache erwiesen. Deshalb befasste sich Leibniz mit der Entwicklung einer Universalsprache, die Sachverhalte eindeutig und wahrhaftig bezeichnen können sollte, dabei systematisch aufgebaut ist und somit leicht zu lernen und für die Völkerverständigung geeignet wäre. Unter dem Eindruck der chinesischen Schrift schlugen manche Gelehrte jener Zeit auch spezielle Schriftsysteme für Universalsprachen vor, deren Zeichen eigenen Regeln für die Abbildung von Bedeutungen folgten. Während Leibniz‘ Ideen in gewisser Weise durch die mathematische Logik unserer Tage fortgeführt werden, können andere Entwürfe als Vorläufer moderner Welthilfssprachen wie Esperanto oder Volapük verstanden werden.
Der Buchdruck wirkte sich nach seiner vollständigen Entfaltung seit Beginn des 16. Jahrhunderts in zweierlei Weise aus. Durch die ungleich höheren Buchauflagen und die größere Distribution der Werke gegenüber der Handschriften-Epoche zuvor wurden Standardisierungen notwendig: Standardisierungen der Typografie, der Orthografie und der Textgestaltung, um dem Leser (und also dem Käufer) den Zugang zu einem Werk nicht allein schon auf der Darstellungsebene zu erschweren. „Standardisiert“ wurden aber auch Wörter und Formulierungen, damit die Werke auch auf der sprachlichen Ebene überregional verständlich waren. Im deutschsprachigen Raum bildete sich auf diese Weise in einem langdauernden Prozess die neuhochdeutsche Schriftsprache heraus, die aus keiner bestimmten Region durch Ausbreitung hervorging, sondern ein Mischung aus verschiedenen Dialekten darstellt.[ii] Jede Standardisierung erfordert Regeln, und die Standardisierung von Sprache im Zuge ihrer Reproduktion per Buchdruck verstärkt dadurch die Auffassung, dass die sprachliche Praxis nicht nur Regeln aufweist, sondern ihr bestimmte Regeln auf geradezu natürliche Weise zugrunde liegen.
Die zweite Auswirkung des Buchdrucks auf das Bild der Sprache wird weniger oft in den Blick genommen: Der Buchdruck stellt für die Reproduktion von Texten ein Mediensystem zur Verfügung, das ideal für die schnelle und präzise Gestaltung von Geschriebenem geeignet ist, nicht aber Vergleichbares für Gezeichnetes oder Gemaltes, also für die Gestaltung von Bildern und Grafiken anbietet. In den ersten Jahrzehnten des Buchdrucks verschwand deshalb die zuvor florierende Buchmalerei nahezu vollständig aus den Werken. Dieser Verlust konnte nur unvollkommen und mit hohem Aufwand durch Kupferstiche kompensiert werden.[iii] Damit besaß die Schrift für Jahrhunderte einen bedeutenden „evolutionären“ Vorteil gegenüber den wesentlich aufwändiger zu reproduzierenden Bildern, Grafiken und Zeichnungen, und dieser Vorteil stärkte wiederum die Auffassung von Sprache – in diesem Fall geschriebener Sprache in Büchern – als Ausdruck reiner Sprachlichkeit. Gedruckte Texte enthalten demnach vor allem lange Ketten von Schrift und Geschriebenes und sind nicht etwa Sammlungen grafisch gestalteter Flächen. Das Buch entwickelte sich deshalb zum nahezu konkurrenzlosen Medium der reinen Sprachlichkeit.
Abkehrversuche im 19. Jahrhundert
Diesem Bild der Sprache, das sich als Fortführung von Impulsen aus Antike und Mittelalter verstehen lässt, wurden immer wieder auch alternative Ansätze entgegengestellt. So bildeten bei der Entfaltung der Sprachwissenschaft im 19. Jahrhundert überlieferte Textdokumente die Grundlage für historisch-vergleichende Untersuchungen, durch die die Entwicklung ganzer Sprachfamilien rekonstruiert werden konnte. Einer der Begründer der Indogermanistik, Franz Bopp, stellte aus altindischen Originaltexten des Sanskrit Listen von Verben zusammen, um ihre morphologische Struktur zu analysieren.[iv] Jacob Grimm verglich in seiner mehrbändigen historischen Grammatik Belege aus einer Vielzahl von germanischen Sprachen miteinander. Den sogenannten „philosophischen“ Grammatiken seiner Zeit warf er eine mangelhafte empirische Fundierung durch Sprachdaten vor, normative Grammatiken hielt er „schlicht für überflüssig“.[v]
Die wohl bekannteste Entdeckung Jakob Grimms ist die germanische Lautverschiebung, die den Übergang vom indogermanischen zum germanischen Konsonantensystem beschreibt. Grimm konnte die damit verbundenen Phänomene, die auch schon anderen aufgefallen waren, systematisieren und als Teil einer übergreifenden Lautentwicklung beschreiben. Diese Systematisierung sah er selbst nicht als ein universelles Lautgesetz an, doch das „Grimmsche Gesetz“ wurde zum Prototyp dessen, was in der zweiten Hälfte des 19. Jahrhunderts die Sprachwissenschaft prägen sollte: ein Regelbegriff für sprachhistorische Wandlungsprozesse, für den eine gleichsam naturwissenschaftliche Gültigkeit reklamiert wurde. Schon in jener Zeit also wurde für die so genannten „Junggrammatiker“ eine mathematisch-naturwissenschaftliche Wissenschaftsauffassung zum Leitbild, und schon in jener Zeit wurden linguistische Beobachtungen durch die Beschreibung als Regeln verabsolutiert. Diese „radikale“ Auffassung der Sprachgeschichte wurde schon bald kritisiert, weil nachweisbare kulturelle Einflüsse auf die sprachhistorischen Prozesse oder die Erkenntnisse zum Lautsystem in unterschiedlichen Dialekten nicht einfach ignoriert werden konnten.[vi]
Mit den Junggrammatikern hatte sich jedoch eine empirische Sprachwissenschaft etabliert, die von realen Sprachdaten ausging und später die strukturalistische Methodik übernahm. Insbesondere Leonard Bloomfield, der in Leipzig, im Mekka der Junggrammatiker, studiert hatte, etablierte die positivistische Methode in den USA und baute eine Schule auf, die sich auch den nordamerikanischen Indianersprachen zuwandte.[vii] Bis heute bildet eine solche dokumentierende und typologisierende Linguistik ein wichtiges Teilgebiet in der sprachwissenschaftlichen Landschaft.
Ein anderer Zweig der empirischen Sprachwissenschaft hat ebenfalls im 19. Jahrhundert einen ersten Höhepunkt erlebt: die Lexikografie. Auch dieses Teilgebiet ist für den deutschen Sprachraum mit dem Namen Grimm verbunden, neben Jakob Grimm auch mit seinem Bruder Wilhelm, deren „Deutsches Wörterbuch“ ab 1852 mit dem ersten Band erschien – der Abschluss dieses Jahrhundertprojekts erfolgte erst vier deutsche Staatsgründungen, zwei Weltkriege und 31 Teilbände später im Jahr 1960.[viii] Viele der in diesem Wörterbuch aufgenommenen Lemmata sind mit Angaben zu ihrer Verwendung versehen, wobei die Grimms vor allem auf literarische Beispiele zurückgegriffen haben.
Sowohl mit einer auf Sprachdaten beruhenden Sprachgeschichtsschreibung als auch mit einer Lexikografie, die die tatsächliche Verwendung der Wörter zur Grundlage nimmt (und nicht etwa die Auffassung, wie sie verwendet werden sollten) bewegen sich die Grimms und mit ihnen viele andere Sprachwissenschaftler des 19. Jahrhunderts im Rahmen einer Sprachauffassung, die die Dynamik der Sprache betont. Wilhelm von Humboldt hatte diese Auffassung schon zu Beginn des Jahrhunderts mit zwei Begriffen geprägt: Nicht ein ἔργον (ergon), ein fertiges, absolutes Werk, sei die Sprache, sondern eine ἐνέργεια (energeia), eine kontinuierliche Tätigkeit der Menschen und folglich auch in dazu passender Weise zu untersuchen.
Das 19. Jahrhundert war nicht nur das Jahrhundert der Sprachgeschichte, sondern auch das der Philologie. Die Methoden der wissenschaftlichen Textkritik wurden ab etwa 1800 von den Altphilologen Friedrich Wolf, Karl Lachmann und Friedrich Schleiermacher in der Auseinandersetzung mit antiken Textquellen entwickelt. Karl Lachmann, der mit den Grimm-Brüdern befreundet war, öffnete die Textkritik auch für die Mediävistik, indem er die für klassische Texte entwickelten Verfahren auf alt- und mittelhochdeutsche Texte übertrug.[ix]
Die Editionsphilologie ist zwar kein Teilbereich der Sprachwissenschaft, doch hat sie den Blick dafür geschärft, dass Texte, zunächst historische Texte, nicht nur aus aneinandergereihten Wörtern bestehen, sondern die Textgestalt an die Medien und Umstände ihrer Überlieferung gekoppelt ist. Editionsphilologen interessieren sich also nicht für einen Text in seiner reinen Sprachlichkeit, sondern sie beziehen die Gestalt der Schrift, Art und Zustand des Papiers oder Pergaments, die Gestaltung der Seite, Randglossen, Korrekturen, Notizen, Zeichnungen und Bilder, die Nachbartexte im Band oder Archiv und vieles andere mehr in ihre Betrachtungen ein. Ein historisches Dokument ist für einen Philologen deshalb nicht nur ein Text, sondern ein komplexes Artefakt, das sich aus Zeichen unterschiedlicher Art zusammensetzt und dessen Geschichte und Bedeutung sich aus dem besonderen Zusammenhang all dieser Zeichen ergibt.
Es ist deshalb sicherlich kein Zufall, dass zum Ende des 19. Jahrhunderts auch der Begriff des Zeichens selbst Gegenstand der wissenschaftlichen Betrachtung wurde. Schon vor Saussures „Cours“ hatte der amerikanische Philosoph und Logiker Charles Sanders Peirce eine Zeichentheorie ausgearbeitet, die weit über Saussures sehr einfaches Zeichenmodell hinausging und den Grundstein für die Wissenschaft von den Zeichen, die Semiotik, legen sollte. Peirce‘ Zeichenbegriff war insbesondere nicht nur auf sprachliche Zeichen ausgerichtet, sondern behandelte den Prozess, wie wahrnehmbare Phänomene überhaupt eine kommunizierbare Bedeutung erlangen können, in einem ganz allgemeinen Sinne. Den Begriff der Grammatik verwendete er, um die Entstehung und Kombination von Zeichen zu beschreiben. Damit war die Grundlage gelegt, in der Semiotik Zeichensysteme unterschiedlichster Art untersuchen und mit einem aus der Sprachforschung entlehnten Instrumentarium erklären zu können.[x] Man kann es auch anders herum formulieren: Mit der Semiotik ist so etwas wie eine verallgemeinerte Sprachwissenschaft entstanden, die sich nicht auf die Untersuchung reiner Sprachlichkeit beschränkt.
Anmerkungen:
[i] Zu den folgenden Bemerkungen vgl. z.B. Robins, Robert Henry (1990): A short history of linguistics. 3. Aufl. London, New York: Longman, S: 106–147, Gardt, Andreas (1999): Geschichte der Sprachwissenschaft in Deutschland. Vom Mittelalter bis ins 20. Jahrhundert. Berlin, New York: de Gruyter, S: 45–229, und das Handbuch Auroux, Sylvain; Wiegand, Herbert Ernst (Hg.) (2000): History of the language sciences / Geschichte der Sprachwissenschaften. An international handbook on the evolution of the study of language from the beginnings to the present. Berlin, New York: de Gruyter (Handbücher zur Sprach- und Kommunikationswissenschaft, 18).
[ii] Diese Deutung geht ursprünglich auf Besch, Werner (1967): Sprachlandschaften und Sprachausgleich im 15. Jahrhundert: Studien zur Erforschung der spätmittelhochdeutschen Schreibdialekte und zur Entstehung der neuhochdeutschen Schriftsprache. München: Francke (Bibliotheca Germanica, 11) zurück. Einen Überblick über neuere Forschungen zu dieser Frage geben Wegera, Klaus-Peter; Waldenberger, Sandra (2007): Die Entstehung der neuhochdeutschen Schriftsprache. 2. erw. Aufl. Frankfurt am Main: Lang (Dokumentation germanistischer Forschung, 7).
[iii] Zu dieser Entwicklung vgl. Jochum, Uwe (2015): Bücher. Vom Papyrus zum E-Book. Darmstadt: Philipp von Zabern.
[iv] Franz Bopp, Über das Conjugationssystem der Sanskritsprache in Vergleichung mit jenem der griechischen, lateinischen, persischen und germanischen Sprache, 1816, vgl. Gardt (1999), S: 273–274}.
[v] Jacob Grimm, Deutsche Grammatik, 1819-1837, vgl. Gardt (1999), S: 275–278}, Zitat s. S. 275.
[vi] Zu den Junggrammatikern und ihren Kritikern vgl. Gardt (1999), S: 278–288} und Robins (1990), S: 201–211}.
[vii] Vgl. Helbig, Gerhard (1989): Geschichte der neueren Sprachwissenschaft. 8. Aufl., 1. Auflage 1971. Opladen: Westdt. Verl. (WV-Studium, 48).
[viii] Vgl. Gardt (1999), S: 260–267}.
[ix] Einen Überblick über die Entwicklung der Philologie geben Wirth, Uwe; Bremer, Kai (Hg.) (2010): Texte zur modernen Philologie. Stuttgart: Reclam (Reclams Universal-Bibliothek, 18724).
[x] Vgl. Pape, Helmut (1998): Peirce and his Followers. In: Roland Posner und Herbert Ernst Wiegand (Hg.): Semiotik. Ein Handbuch zu den zeichentheoretischen Grundlagen von Natur und Kultur. Berlin, New York: Walter de Gruyter (Handbücher zur Sprach- und Kommunikationswissenschaft, 13.2), S. 2016–2040.