Nüchtern gesehen wird heute einfach grundsätzlich viel mehr sprachlich kommuniziert. Aus zweieinhalb Milliarden Menschen im Jahre 1950 sind mittlerweile gut über 7 Milliarden geworden (und allein in Indonesien müssen sich heute schon täglich fast halb so viele Menschen verständigen wie im 18. Jahrhundert auf der gesamten Erde, wären sie damals nicht so weit voneinander entfernt gewesen). Folgt man einer Untersuchung von Matthias Mehl von der University of Arizona in Tucson und seinen Kollegen, die zwischen 1998 und 2004 ermittelten, dass Menschen durchschnittlich 16.000 Wörter am Tag von sich geben, übrigens ziemlich geschlechterneutral, dann werden heute auf der Welt – täglich – 72.000 Milliarden mehr Wörter gebraucht als 1950.
Selbst wenn man kulturelle Unterschiede und persönliche Schweigsamkeit mit einrechnen könnte, wäre doch eindeutig, welches schiere Mengenwachstum sich hier artikuliert. Das wiederum bliebe vergleichsweise Das globale Anwachsen der Wanderungsbewegungen schafft neue sprachliche Notwendigkeiten folgenlos, wären nicht die vielen neuen Gelegenheiten und Kanäle, auf denen sich all diese Wörter auch auf eine andere Art denn als flüchtige Bemerkung manifestieren. Denn die Demographie sorgt in vielen Teilen der Welt eben auch für mehr Austausch durch Migration und persönliche Mobilität. Das globale Anwachsen der Wanderungsbewegungen schafft überall neue sprachliche Notwendigkeiten. Ganz gleich, ob die Menschen für ein paar Tage oder für immer unterwegs sind, ob sie auf der Suche sind nach mehr Profit, nach besseren Lebensumständen oder nach Ablenkung vom Alltag: Kommunikationspunkte entstehen dabei überall und in praktisch allen Sprachen der Erde. Und sie hinterlassen immer mehr Spuren in Form digital festgehaltener Sprache. Das ist ein erheblich anderes Anforderungsprofil als in den Zeiten statischer Gesellschaften, in denen wenige Einzelne in die Ferne reisten, die übrigen 99 Prozent aber ihr Dorf niemals verließen. Bi- und gar Multilingualität wird eben erst dann wichtig, wenn es die Notwendigkeit zum Austausch mit Menschen gibt, die anders sprechen als die eigene Gemeinschaft.
Im Zuge des Megatrends Individualisierung verlieren allgemeinverbindliche Regeln immer mehr an Bindungskraft. Für das Feld der Kommunikation bedeutet das: Jeder redet, wie ihm der Schnabel gewachsen ist. Das ist kein Phänomen der jüngsten Zeit, sondern als Tendenz schon sehr lange in der Gesellschaft zu bemerken. Seit vielen Jahren sammeln Linguisten beispielsweise in speziellen Wörterbüchern die „Sprache der Jugend“. Emanzipatorische Bestrebungen von nachwachsenden Generationen seit den 50er-Jahren forderten auch auf der Ebene der Sprache eine Abgrenzung gegen das Establishment. Ungezählte Umdeutungen wurden in solchen Sammlungen aufgelistet, von denen die meisten aber ohne große Folgen für die langfristige Entwicklung der Sprache blieben.
Mit dem immer weiter gehenden Abbau allgemeiner Konventionen (auch und oft vor allem sprachlicher) im Zuge eines Hyper-Individualismus, wie er im späten 20. und beginnenden 21. Jahrhundert zum Normalfall wurde, wird aber nun auch immer stärker das Prinzip der Jugendsprache als solche aufgelöst. Die Einheiten werden noch kleiner, halten sich auch längst nicht mehr an Altersgruppen. Wer kennt nicht die immerjungen, rüstigen Mittfünfziger, die jede Slang-Mode sogleich gierig mit aufnehmen. Gerade in der „Peergroupisierung“ der Sprachen zeigt sich die Auflösung der Standardbiografien Gerade in der „Peergroupisierung“ der Sprachen zeigt sich die Auflösung der Standardbiografien und die Realität der Multigrafie des Einzelnen. Was man in welchem Alter zu tun und wie man darüber zu reden hat, ist heute weitgehend von der Gruppe abhängig, zu der man sich zugehörig fühlen möchte. So entstehen immer mehr Peergroup-Sprachen. Der Linguist David Graddol von der Open University in Milton Keynes in Großbritannien vermutet in Kürze „Hunderte von englischen Sprachen“, die dann in seinem Land gesprochen werden.
Mit der fortschreitenden Globalisierung ist die Sprache einer starken Entgrenzung ausgesetzt. Vor allem im 19. und 20 Jahrhundert war die Bestrebung, den Nationalstaat vor allem auch über die Homogenität seiner Sprecher zu definieren. Anderssprachige Minderheiten waren suspekt, offenbarte ihr Anderssprechen doch einen womöglichen Autonomieanspruch, der aus der Perspektive eines Nationalstaates um jeden Preis unterdrückt werden musste: Südtiroler, Kurden, Bretonen, Sorben - viele Beispiele zeigen, dass die Sprache stellvertretend stand für eine Identität, die im Zweifel Abtrünnigkeit und Verrat beinhaltete. Noch bis zur Wende des Millenniums waren zudem auch in deutschen Schulen Dialekte verpönt, nur die Nutzung der Hochsprache entsprach den besten schulischen Wertungen.
Die Globalisierung, die seit Mitte der 90er-Jahre, verstärkt dann im neuen Millennium, über den zunehmenden Handel und Warenaustausch ganz neue wirtschaftliche Dynamik zwischen der nunmehr multipolaren Weltordnung ermöglichte, wurde lange als zusätzliche Gefahr für die Sprachen gesehen, bewirkt aber auf der anderen Seite eine erstaunliche Renaissance der Vielfalt:
Gerade der Welthandel, die Förderung der Innovation und der internationalen Forschung und die globalen Unternehmen bewirken durch ihre – aus der Sicht nationalstaatlicher Politiker – zersetzenden Tendenzen aber auch die Aufwertung der anderen Sprachen: Mit dem generellen Abbau von Grenzen, Hürden und Einengungen war auch der politische Druck kaum mehr zu halten, alle Bewohner eines Territoriums auf einen gemeinsamen Sprachkanon zu verpflichten. Die größeren wirtschaftlichen Einheiten (EU, Nafta, Asean etc.) waren per definitionem nicht mehr mit dem Nationalstaat identisch. Der Druck auf die Anderssprachigen ließ nach. Die Identität formt sich seither immer stärker durch andere Faktoren: nicht mehr Deutscher, Tscheche oder Österreicher sein, sondern Tiroler, Elsässer, Sorbe oder Same. Überall ist ein Wiederaufleben der Minderheitensprachen und vor allem auch der Mundarten zu erkennen. Der Sprachwissenschaftler Jürgen Trabant formulierte, Deutsch sei auf Überall ist ein Wiederaufleben der Mundarten zu erkennen dem Rückzug zum Dialekt. Er belegte das mit dem Beispiel des Schwyzerdütsch, das gegen das immer schon künstliche Hochdeutsch an Boden gewänne, sichtbar etwa beim TV-Wetterbericht. Was heute nach Hochdeutsch als Ausdrucksform verlange, werde künftig in Englisch erfolgen. Diese Theorie wird von vielen stark bezweifelt, die Aufwertung der Mundarten ist dagegen überall deutlich zu erkennen. Sie sind nicht mehr einfach nur unterhaltsam, sondern werden in immer mehr Bereichen reanimiert, gepflegt und medial verbreitet.
Theorien vom Sprachverfall haben vor allem in den Medien immer wieder mal Konjunktur. Das Englische mindere mit seinen Anglizismus-Viren Deutsch zum Denglish herunter, so die gängige Deutung. Aber auch die Einflüsse auf das Deutsche durch Migranten würden einer fatalen Vereinfachung von Grammatik und Wortschatz Vorschub leisten. Bezeichnenderweise rubrizieren diese Mahner unter der Bezeichnung „Sprachpfleger“. Schön nachvollziehbar sind die jeweiligen Klagepunkte anhand der regelmäßig wiederkehrenden Titelgeschichten des Spiegel zum Verfall der deutschen Sprache: „Ächz Würg. Eine Industrienation verlernt ihre Sprache“ (1984), „Rettet die deutsche Sprache“ (1996), „Rettet dem Deutsch. Die Verlotterung der Sprache“ (2006). Aber auch in der Bevölkerung ist die Angst vor der Sprachlosigkeit durch den Verfall des eigenen Ausdrucksmittels sehr präsent, wie Umfragen durch die Gesellschaft für deutsche Sprache immer wieder belegen.
Unter Nie zuvor haben die Deutschen so viel und so gut geschrieben wie heute Linguisten und anderen Sprachforschern ist dieser Kampf allerdings schon längst beendet. Dass eine Sprache neue Begriffe aufnimmt und selbst bildet, wird eher als ein Symptom von Stärke gedeutet. Bisweilen scheint man das von außen klarer zu sehen: „Das Deutsche ist wahrscheinlich die vielgestaltigste Sprache Europas“, meinten etwa die beiden englischen Linguisten Stephen Barbour und Patrick Stevenson schon vor 15 Jahren.
Zumindest nimmt der Wortschatz im Deutschen seit Jahrzehnten permanent zu, und ein Ende ist nicht in Sicht. Während der Wortschatz des Deutschen zur Zeit des Ersten Weltkriegs auf rund 3,7 Millionen Wörter geschätzt wird, schlagen heute bereits 5,3 Millionen Wörter zu Buche – oder auch nicht, denn Wörterbücher selbst umfangreichster Machart, wie das „Wörterbuch der Deutschen Sprache“ in zehn Bänden aus dem Duden-Verlag, listen weniger als zehn Prozent davon auf: In seiner aktuellsten Ausgabe von 1999 umfasste es 200.000 Wörter. Das Deutsche Wörterbuch von Jacob und Wilhelm Grimm (1852–1960) wird auf ca. 350.000 Stichwörter geschätzt.
Die neuen Werte zum Umfang des Wortschatzes ermittelten die Deutsche Akademie für Sprache und Dichtung und die Union der deutschen Akademien der Wissenschaften in ihrem „Bericht zur Lage der deutschen Sprache“, dessen Kurzfassung im März 2013 vorgestellt wurde. Sie verglichen dabei den Wortschatz sogenannter „Zeitscheiben“ im Abstand von 50 Jahren. Die Wissenschaftler konstatieren: Nie zuvor haben die Deutschen so viel und so gut geschrieben wie heute. Sie beherrschen 1,6 Millionen Wörter mehr als vor 100 Jahren. Sie gehen kreativ mit Grammatik um und schaffen immer größere Ausdrucksmöglichkeiten. Fremdsprachliche Neuzugänge integrieren sie wohlwollend in die Kerngrammatik.
Zudem beschäftigt sich ein Teil der Untersuchung auch mit dem Anglizismus-Vorwurf und stellt fest, dass sich die Zahl der Anglizismen in den letzten 100 Jahren zwar erhöht hat, aber weit unter den Werten bisheriger Untersuchungen lag, die zumeist vor allem auf Medien und Werbung geschaut hatten, wo die Dichte besonders hoch ist. Die meisten Begriffe würden zudem im Deutschen gebildet, der deutschen Grammatik unterworfen („gemanagt“, „recycelt“) und sind oft gar frei erfunden, wie das berühmte „Handy“, das im Englischen als Substantiv nicht existiert.
Wie umfangreich die Sprache sich erweitert, ist damit aber immer noch nicht klar. Gesprochene Sprache ist in der Untersuchung nämlich noch nicht einmal erfasst, da es darüber so gut wie keine historischen Datenbestände gibt. Mit der konzeptionellen Mündlichkeit der neuen Sprachkanäle wird sich das jedoch dramatisch verändern. Schon heute untersuchen immer mehr sprachwissenschaftliche Projekte den wachsenden Einfluss dieser schriftlichen Zeugnisse gesprochener Sprache, was in der Regel damit verbunden ist, dass Ausdrücke und Beispiele gesammelt werden. Rund 24.000 SMS sammelte beispielsweise bislang die Universität Zürich in einem solchen „Korpus“. „Diese SMS-Sammelaktion ist Teil eines internationalen Projekts, das gleichzeitig in mehreren Ländern durchgeführt wird“, sagt Christa Dürscheid, Professorin für Deutsche Sprachwissenschaft der Uni Zürich. Dabei fiel den Forschern auf, dass 75 Prozent der SMS in Dialekt geschrieben werden. Dürscheid: „Der Dialekt wird so verschriftet, wie er gesprochen wird, und es lässt sich aus einer SMS ermitteln, aus welcher Region ein Schreiber kommt. Man schreibt so, wie man spricht. In diesem Sinn kann man sagen, dass es, was die Orthografie betrifft, ein normfreier Raum ist, der sich da auftut.“
Ein Effekt der Kombination aus Globalisierung und Urbanisierung ist der immer stärkere Wunsch der Menschen, sich in ihren urbanisierten Umfeldern lokal neu zu verankern. Diesen Effekt bezeichnen wir als Glokalisierung. Im Städtebau und in der kommunalen Politik sind solche quartierbezogenen Ansätze längst allgegenwärtig und äußern sich in Mitbestimmung durch die Bürger, Lokale Kiezsprachen werden zu eigenen Dialekten Crowdsourcing-Projekten für öffentliche Einrichtungen in klammen Kommunen und nachbarschaftlichem Engagement, das über Web-Portale und hyperlokale Plattformen organisiert wird. Auf dieser Ebene tritt auch der identitätsstiftende Effekt der Sprache in ihrer Anpassungsfähigkeit besonders stark zutage: Unter Linguisten gelten solche lokal in bestimmten Gruppen verortete Kiezsprachen mittlerweile als eigene Dialekte.
Bekannt ist beispielsweise die Arbeit von Heike Wiese, Professorin für Deutsche Sprache der Gegenwart an der Universität Potsdam. In ihrem Buch beschreibt sie Neuerungen solcher Dialekte in Grammatik, Wortschatz und Aussprache: „Aus ,ich‘ beispielsweise ,isch‘, was ähnlich im Rheinland vorkommt und im Berliner ,nüscht‘. Wir finden neue Funktionswörter wie ,lassma‘ und ,musstu‘ (,lass uns mal‘ und ,musst du‘) und Zusammenziehungen wie ,ischwör‘ (,ich schwöre‘), mit dem eine Aussage bekräftigt wird – ganz ähnlich, wie umgangssprachlich die Zusammenziehung ,glaubich‘ (,glaube ich‘) eine Aussage abschwächt. Das Wort ,so‘ wird nicht nur zum Vergleich verwendet, sondern auch zur Betonung (,Ich höre Alpa Gun, weil er so aus Schöneberg kommt‘), so entsteht ein neues Funktionswort, das wir übrigens auch außerhalb von Kiezdeutsch finden. Das ist nicht schlampig formuliert, sondern hat System.“
Ein zusätzliches Feld der Wortbildung und damit der Steigerung der Komplexität der großen Sprachen sind vor allem die Fachsprachen, auch Technolekte genannt. Niemand auf der Erde kann sagen, wie viele Wörter die Fachsprachen beinhalten, denn sie wachsen in einer solchen Geschwindigkeit, dass kein akademisch-linguistischer Korpus damit auch nur annähernd Schritt halten kann. Allein der Umfang der Fachbegriffe in der Chemie wird auf rund 20 Millionen Wörter geschätzt. Einen weiteren Anhaltspunkt liefert das wuchernde Angebot an unterschiedlichen Studiengängen, die ja jeweils mit einem zumindest teilweisen eigenen Technolekt verbunden sind. An den deutschen Hochschulen, vertreten durch die deutsche Hochschulrektorenkonferenz, werden im Jahr 2013 mehr als 9.300 Studiengänge als Anfangsfächer angeboten, eine ungeheure Steigerung gegenüber früheren Jahrzehnten. Produziert jedes Fach pro Jahr auch nur zehn Fachbegriffe, dann wächst die deutsche Sprache jährlich um 93.000 Wörter. Zwar wird an vielen Hochschulen mittlerweile der Unterricht grundsätzlich in Englisch angeboten, doch ändert das nichts am Zuwachs insgesamt.
Die Zahl der eigenständigen Sprachen nimmt permanent ab. Heute werden auf der Erde rund 7.000 Sprachen aktiv gesprochen. Das sind rund 500 weniger als im Jahre 1500. Nach Schätzungen von Anthropologen sind in den vergangenen 12.000 Jahren Menschheitsgeschichte etwa 12.500 Sprachen ausgestorben, denn, so die Theorie, je mehr soziale Interaktion zwischen Menschen nötig wurde, desto Für 2200 prognostizieren Anthropologen nur noch rund 100 Sprachen auf der Erde hinderlicher wurde es, wenn sich die Agierenden nicht verstehen konnten. Daher verwundert die Prognose der Wissenschaftler auch nicht: Mit der steigenden Dichte der Weltbevölkerung – gerade auch vor dem Hintergrund von Urbanisierung und Vernetzung – und der damit wachsenden Notwendigkeit zu mehr sozialer Interaktion bewegen wir uns auf eine Welt mit dramatisch weniger Sprachen zu. Für 2200 prognostizieren die Anthropologen gerade mal noch rund 100 Sprachen auf der Erde. Seit „10.000 BC“ wären somit 99,5 Prozent aller Sprachen ausgestorben. In vielen Gesellschaften herrscht daher große Angst, die eigene Sprache zu verlieren.
Noch stärker als schon in der zweiten Hälfte des 20. Jahrhunderts schien am Beginn des Millenniums Englisch zur weltweit dominierenden Sprache zu werden. Ein immer globalerer Handel förderte die Verkehrssprache Englisch, die zudem auch im Diskurs um Innovation und Management-Theorie führend war. Diese Angst hatte vor allem mit dem Aufkommen des Internet zunächst viel neue Nahrung erhalten. In den frühen Jahren des Web dominierte Englisch tatsächlich auch fast gänzlich, was wenig verwundert, wenn man den Ursprung des Internet und seine primäre Nutzung im anglo-amerikanischen Raum in Betracht zieht. 1997 waren 80% der Inhalte in englischer Sprache geschrieben. Mit der Ausbreitung des Netzes in alle Länder der Erde änderte sich das jedoch deutlich: Deutsch war im Jahr 2002 die nach Englisch am meisten verwendete Sprache im Internet (gefolgt von Französisch, Japanisch Spanisch und Chinesisch). Etwa 7,7% aller Seiten im Internet waren damals auf Deutsch (Internetseiten auf Englisch: etwa 50%). 2007 wurden etwa 5,9% für das Deutsche angegeben (45% für das Englische, 4,4% für Französisch).
Für das Deutsche sieht es, nebenbei gesagt, ziemlich gut aus, auch das Jahr 2200 zu erleben. Mit 121 Millionen Sprechern liegt die Sprache Deutsch immerhin auf dem letzten Rang der Top Ten der international am weitesten verbreiteten Sprachen. Weitere gute Zeichen: Bei wissenschaftlichen Publikationen liegt die deutsche Sprache auf Platz zwei. Deutschlands weltweit beneidetes Verlagswesen tut ein Übriges: 28 Prozent aller weltweit veröffentlichten Bücher sind auf Deutsch geschrieben.
Wir halten fest: Immer mehr Menschen auf der Welt müssen immer mehr miteinander kommunizieren. Dabei bedienen sie sich zwar einer immer geringeren Zahl von einzelnen Sprachen, diese aber werden in atemberaubendem Tempo komplexer, vielschichtiger, kleinteiliger, spezieller und umfangreicher. Wie soll das gutgehen? Wie wollen wir 2050, wenn wir mit neun Milliarden Menschen den Höhepunkt an Dichte und Bevölkerung erreicht haben, sicherstellen, dass Kommunikation untereinander nicht zum größten aller Probleme wird? Weil keiner mehr nachvollziehen kann, worüber der andere spricht, wenn jeder seinen Privatcode benutzt?
Eine echte Herausforderung – auch für die wissenschaftliche Vorstellungskraft der Sprachforscher. Sie dürften in den kommenden Jahrzehnten in aufregenden Zeiten leben. Denn eine In sozialen Medien entsteht ein Druck zur Verschriftlichung des Gesprochenen dramatische Beschleunigung erfährt die Sprache vor allem mit dem Aufkommen neuer Sprachkanäle: Digitaltechnik und die Nutzung mobiler Telefone schufen eine „dritte Kraft“ neben den beiden herkömmlichen Polen „mündliche Sprache“ und „schriftliche Sprache“. Den Sprachnutzern stehen eingangs des 21. Jahrhunderts ganz neue und viel mehr Ausdruckskanäle zur Verfügung als allen Menschen, die bis zu dieser Zeit auf dem Planeten lebten.
Die reinen Zahlen sind nachgerade erschütternd: Über WhatsApp werden stündlich 41 Millionen Mitteilungen verschickt. 55 Milliarden SMS-Botschaften verschickten deutsche Nutzer im letzten Jahr. Das entsprach laut Bundesnetzagentur einer Steigerung von 30 Prozent im Vergleich zum Vorjahr – in einer Technik, die viele schon längst angeblich im Absterben sehen. Dazu kommen die sozialen Netze: 100 Millionen Menschen sind weltweit bei Twitter angemeldet. Mit über einer Milliarde Nutzern ist jeder siebte Mensch der Erde bei Facebook. Und auf diesen Kanälen wird konzeptionell mündlich in Texten kommuniziert, in den meisten Fällen so geschrieben, wie man reden würde. Seit Langem ist in der schriftlichen Hochsprache bereits die Tendenz zu einer Ausdrucksweise erkennbar, die sich der gesprochenen Sprache Stück für Stück nähert.
Dies hat seine Ursache in der Aufwertung des Individuums. Jeder darf nach seiner Fasson nach dem Glück in seinem persönlichen Leben streben. Er muss sich dazu, neben vielen anderen Dingen, eben auch keinem sprachlichen Zwang zu einer kanonisierten Ausdrucksweise mehr unterwerfen. Vielmehr sprechen immer mehr Menschen so wie die Peergroup, der sie sich anschließen.
Für die Sprachwissenschaftlerin Christa Dürscheid orientiert sich die Kommunikation per SMS aus diesem Grund stark an der gesprochenen Sprache. „Man findet sehr vieles, das Nähe ausdrückt. Grüße, Gute-Nacht-Wünsche, Verabredungen mit Kollegen und so weiter.“ Die SMS-Kommunikation werde so verwendet, dass sie Gespräche ersetze, oft „auch den persönlichen Umgang“. Es gibt durch die zusätzlichen Kommunikationsmittel einfach mehr Gelegenheiten, etwas zu sagen. Ob es parallel dazu auch wirklich mehr zu sagen gibt, darf bezweifelt werden. Allein die Beobachtung des Kommunikationsverhaltens in den sozialen Medien zeigt, dass die Kanäle durchaus auch ihre eigene Kommunikation erzeugen. Weil es einerseits immer mehr zu kommunizieren gibt, einfach weil die Kanäle Abstinenz nicht tolerieren, es andererseits aber nicht mehr zu sagen gibt und die Inhalte notwendigerweise überwiegend banal sind (wie im Alltagssprachlichen eben auch), entsteht an dieser Stelle ein Druck zur Verschriftlichung des Gesprochenen. Immerhin lassen sich die vielen Tagesmeldungen ja leicht duplizieren und recyceln.
Digital übermittelte Nachrichten erscheinen uns heute noch als die zweitbeste Wahl nach dem Gespräch von Angesicht zu Angesicht, aber der Siegeszug von Skype und anderen Videotelefoniesystemen zeigt, wie schnell man die Fernpräsenz auch als reale Präsenz wahrzunehmen lernt, wenn die Qualität stimmt. In Zukunft könnte der Großteil der Kommunikation durchaus auch die technisch vermittelte werden. Dann wären einer Instant-Übersetzung der eigenen Ausdrucksweise in die Sprache aller Beteiligten theoretisch keine Grenzen gesetzt, sofern die richtigen Algorithmen dazu gefunden würden. Erste Schritte auf diesem Feld sind bereits gemacht, etwa im SMS-Diktat über Apples Siri, und die digital-schriftliche Datenbasis ist ebenfalls vorhanden.
Die Linguistikprofessorin Beate Henn-Memmesheimer von der Universität Mannheim ist daher auch überzeugt: Regeln werden zwar beherrscht, müssen aber auf keinen Fall immer angewendet werden. „Die Schriftsprache differenziert sich zunehmend aus.“ Experten beobachten seit Längerem, dass die Nutzer zumeist mühelos zwischen unterschiedlichen Stilen und Schreibweisen hin und her wechseln. Sie sind durchaus in der Lage, korrektes Hochdeutsch zu verwenden, etwa in der Botschaft an den Chef, wie auch geschriebenen Dialekt im Chat mit Freunden oder kreatives Sprachspiel auf Facebook. Regeln werden zwar beherrscht, müssen aber auf keinen Fall immer angewendet werden. Die multigrafisch geprägte Lebenssituation des Einzelnen ist eben auch sprachlich wesentlich situativer bedingt als die früheren demographischen Cluster, in denen Alter, Geschlecht und Bildungsstand auch einen klaren Sprachkodex lieferten.
Was fehlt, sind die vielen evolutionär im Menschen verankerten Zusatzsignale, die eine Alltagskonversation in der Regel zu einem Verständigungserfolg machen und nicht im gleich Ansatz scheitern lassen: Seufzen, Lächeln, Räuspern, in die Ecke oder in die Luft schauen, all das muss in den modernen Kanälen anders übermittelt werden. Nicht durch komplizierte Parenthesen, sondern durch eine neue Form von Metatext. Nach der ersten Welle der Spracherweiterung durch Kurzelemente, die wie Zusammenfassungen von komplizierteren Beschreibungen funktionierten („Würg!“, „*grins*“, Emoticons), beginnen die beliebtesten Begriffe nun auch, erweiterte Bedeutung anzunehmen und sich wiederum in die gesprochene Sprache zurückzubewegen.
So wies John McWhorter in seinem TED-Vortrag darauf hin, dass sich in einer Unterhaltung LOL („laughing out loud“) mittlerweile bestens dafür eigne, eine grundsätzliche Zustimmung zu etwas auszudrücken oder einfach nur als Füllwort zu fungieren und nicht mehr unbedingt darauf verweist, dass etwas besonders lustig sein muss. Interessant auch seine Beobachtung, amerikanische Sprecher würden den typischen „Internet-Slash“ (/) inzwischen so benutzen, wie man ihn in Lebensläufen, Zuständen und Facebook-Selbstbeschreibungen anwendet: als Kennzeichnung eines abrupten Themawechsels. Im Netz finden sich im Übrigen mittlerweile reihenweise Hasstiraden auf die ausufernde Verwendung von Hashtags (#), also dem üblichen Twitter-Symbol, als Zeichen der Kenntnis eines Metadiskurses zu einem Thema, nicht nur in geschriebener, sondern auch gesprochener Sprache.
Die Komplexität der Verständigung zwischen den Menschen nimmt also überall und an allen Stellen zu. In der Menge, in der Breite der Kanäle und durch Vernischung hin zu einer Peergroup-Sprache. Unfassbare Mengen an Text entstehen, fast komplett banalen Inhalts, aber eben digital erfasst und somit in Datenspeichern der Welt auffindbar, um sie zu durchforsten, zu analysieren und auf alles Mögliche hin auszuwerten. Zum ersten Mal in der Geschichte der Menschheit entstehen Zeugnisdaten der Mündlichkeit in nennenswertem Umfang – und das ganz ohne Zutun von Konservatoren oder Mit Big Data zur neuen Universalsprache? Forschern. Nur durch das tägliche Tun der Nutzer selbst.
Diese Chance werden sich die Entwickler der Maschinen-Übersetzung und Spracherkennung kaum entgehen lassen. Denn ihnen bieten sich damit neue Wege, auf der Suche nach einer Universalübersetzungsmaschine neue Wege einzuschlagen und Technologie zu entwickeln, die nach den ersten gescheiterten Hoffnungen eine Art Big-Data-Language möglich machen wird. Eine Entwicklung, an deren Ende eine neue Universalsprache stehen könnte.
Diesen Ansatz vertritt schon seit 2004 der britische Linguist und Autor David Crystal: Nach seiner Vision wird die Grenze zwischen gesprochener und schriftlich fixierter Sprache zusehends verschwimmen. Langfristig werden wir laut Crystal nicht mehr vornehmlich über die Tastatur, sondern über Stimmerkennungsprogramme mit dem Computer kommunizieren. In seinem Buch „Language and the Internet“ zeigt er sich davon überzeugt, dass wir einem Ereignis von millenniumshafter Bedeutung beiwohnen. Eine neue Sprachebene wird sich etablieren: maschinenvermittelte Sprache, er nennt sie „Netspeak“. Denn einerseits verändern die neuen Sprachkanäle die Sprache in ihren Ausdrucksformen, weil andere semantische Ebenen benötigt und verwendet werden, andererseits ermöglichen die neuen Sprachtechnologien die Befreiung der Sprechenden von Übersetzungsbarrieren. Wieso sollte ein Spracherkennungsprogramm unsere Wörter nicht schon während wir sprechen in die Zielsprache des anderen übertragen? Die Frage wäre dann nur noch, welche Art von Stimme oder Akzent man für die andere Sprache wählt.
Natürlich wäre all das dann auch auf eine ganz andere Art und Weise zu missbrauchen: Nach den NSA-Debatten der vergangenen Monate mag es uns Zeitgenossen bei dem Gedanken kalt werden, dass nach unseren Mails künftig womöglich auch jedes Wort für immer gespeichert werden könnte, wie es der damalige NSA-Direktor dem Spiegel gesagt hatte. Mündlich miteinander zu sprechen, ohne ein technisches Hilfsmittel, würde von der alltäglichsten aller Handlungen unvermittelt zu einem Privileg der Anonymität werden, wie man es aus den Spionagefilmen Hollywoods kennt. Wohl nicht umsonst erinnert „Netspeak“ klanglich an die Schreckensvision von Orwells „Newspeak“. Crystal im Übrigen war nicht nur Linguistikprofessor, sondern auch Gründer der Firma Crystal Semantics Limited, für die er ein patentiertes System zum semantisch gesteuerten Targeting von Werbung im Internet entwickelte.
Nun sind Fantasien von sprechenden Maschinen schon uralt, beinahe schon kulturelle Dauerbrenner. Mitte des vergangenen Jahrhunderts schien die Zeit mit der Entwicklung des Computers dann reif zu werden. Der legendäre, wenn auch unglückliche Alan Turing entwickelte in den 50er-Jahren seinen berühmten „Turing-Test“, mit dessen Hilfe überprüft werden sollte, ob und wann eine Maschine intelligent würde, intelligent genug zumindest, um sprachlich zu kommunizieren. Er starb 1954 an einer bis heute nicht ganz geklärten Blausäure-Vergiftung, nicht ohne vorher vorausgesagt zu haben, dass es bis zum Jahr 2000 möglich sein werde, Computer so zu programmieren, dass der durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu identifizieren, nachdem er fünf Minuten mit ihnen „gesprochen“ habe.
Turing irrte sich – aber nur um wenige Jahre: Am 3. September 2011 nahm die KI-Webapplikation Cleverbot zusammen mit realen Personen an einem formellen Turing-Test beim technischen Festival 2011 am indischen Institut IIT Guwahati teil. Die Ergebnisse wurden am 4. September bekannt gegeben. 59,3% von 1.334 Personen hielten Cleverbot für einen Menschen. Die menschlichen Konkurrenten hingegen erzielten 63,3%. Turings Test wurde im Übrigen auch umgekehrt genutzt, denn er war Auslöser für die bekannten CAPTCHAS im Netz, die einen Spam-Roboter von einem Menschen unterscheiden sollen: CAPTCHA steht dabei für Completely Automated Public Turing test to tell Computers and Humans Apart.
Erste größere Projekte zur Entwicklung von Maschinenübersetzung gab es schon in den 60er-Jahren, wobei es zunächst, wie so oft in der Historie, um militärische Vorteile ging. Die Amerikaner wollten im Kalten Krieg auch ohne die dauernde Anwesenheit von Dolmetschern verstehen, was die Russen durch die Welt funkten. Der 1966 für das Pentagon erstellte ALPAC-Bericht bescheinigte Korpuslinguistik ist die Big-Data-Forschung der Sprachwissenschaftler der Maschinenübersetzung dann allerdings grundsätzliche Unrealisierbarkeit und brachte mit einem Schlag die Forschung für fast 20 Jahre zum Erliegen. Erst in den 80er-Jahren begannen Elektrokonzerne wie die Siemens AG (Metal-Projekt) erneut mit der Forschung.
Neue Fantasie brachte der Wechsel zu einer statistischen Herangehensweise in Kombination mit dem rasant wachsenden Internet. Hierbei wird nicht mehr versucht, Regeln zu definieren, nach denen eine Sprache funktioniert, wodurch sich der Rechner dann die Folge der Wörter so zusammenkombinieren kann, dass Sinnvolles entsteht. Man gab den Gedanken auf, die menschliche Sprache nachzubauen, sondern drehte den Spieß einfach um: Seitdem es mit Webseiten, Mails, gescannten Buchtexten aus Bibliotheken und dem anschwellenden Textverkehr im Netz immer mehr, ja bald unendlich viel Anschauungsmaterial gab, wie sich Sprache tatsächlich in der Realität niederschlägt, konnte man Sprache einfach als statistisches Problem definieren. Welche Wörter wann, wie oft und an welcher Stelle in Texten verwendet werden, wird dabei zur Basis einer Mustererkennung, wie sie eben nur der Computer möglich macht. Unter Linguisten nennt sich das Korpuslinguistik und ist der neueste Schrei im Fachgebiet. Auch hier lassen sich rechnergestützt vollkommen neue Erkenntnisse entwickeln. Etwa wie mündliche Grammatik von den offiziellen Regeln abweicht, wie Wortkombinationen in Mode kommen oder wieder verschwinden, wie sich Chatsprache in den Gesamtkörper der Sprache integriert und ob Kiezsprachen lokal oder Peergroup-bezogen verwendet werden oder sich ausbreiten. Korpuslinguistik ist die Big-Data-Forschung der Sprachwissenschaftler.
Die bekannteste Anwendung dieses Ansatzes ist Google Translate. Das Dolmetschangebot wurde 2006 vorgestellt und übersetzt derzeit Webseiten und Texte in 71 Sprachen. Vor dem Hintergrund der noch existierenden 7.000 Sprachen ist das noch nicht viel, doch der Fortschritt ist rapide. Mit der Einführung von Apples Siri flammte das Interesse dann in großem Stil wieder auf. Die großen Unternehmen im Netz wittern einen gigantischen Markt. Die Globalisierung verlangt nach immer mehr Texten in immer mehr Sprachen, die Nachfrage nach Übersetzungen verdoppelt sich alle vier Jahre. Die Zahl der ausgebildeten Dolmetscher und Übersetzer hingegen steigt kaum. Bezeichnenderweise operiert auch die Europäische Union an einem Projekt namens MT@EC (Machine Translation Service), das dem Problem der vielen europäischen Nationalsprachen in der Eurobürokratie nun auch auf statistischem Sprachweg zu Leibe rücken und ab kommendem Jahr in die Pilottestphase gehen soll.
Microsoft, „Natural Language Processing“: Der Traum von der sprechenden Maschine Facebook, Google, Apple – das Rennen ist eröffnet. Denn zum ersten Mal erscheinen die Ergebnisse vielversprechend. „Am Ende berechnen wir die Wahrscheinlichkeit einer Übersetzung“, sagte jüngst Franz Josef Och, der Chefentwickler bei Google Translate, dem Spiegel. Der Deutsche ist sich des Grundproblems durchaus bewusst. Im Feld der „Natural Language Processing“ (NLP), wie die Entwicklung von Sprachfähigkeit für Maschinen genannt wird, spielt man in der obersten Liga der Künstliche-Intelligenz-Forschung. Unter KI-Forschern steht die sprachliche Kommunikation mit den Maschinen am Ende für das Grundproblem zu ergründen nämlich, was denn Intelligenz eigentlich sei, um es dann den Maschinen beizubringen. Dieser Weg erscheint auch heute noch sehr weit. Aber in den kommenden Jahren werden die Übersetzungshilfen lernen, „besser zu lernen“, wie Och das ausdrückt. Sie werden immer mehr Nischenbereiche besetzen, in denen es ausreicht, ziemlich gut zu wissen, was gemeint ist, auch wenn Doppelbödigkeiten dann immer noch nicht übersetzbar sind.
Denn wirklich interessant wird der Markt, wenn es nicht mehr um reine Texte geht, sondern wenn sich auch das Sprechen in Real Time übersetzen lässt. Diese Schwelle scheint nicht mehr fern. Vor Kurzem demonstrierte der Microsoft-Wissenschaftler Rick Rashid, wie seine Software seinen Vortrag simultan vom Amerikanischen ins Mandarin übersetzte. Rashid hatte vorher Sprechproben ins Programm eingespeist, das dann in der Folge Chinesisch sogar mit Rashids Stimme sprach. Crystals Idee vom Telefon, das während des Sprechens in beliebige Sprachen übersetzt, etwa in einer Webkonferenz, scheint greifbar zu werden. Ein gewaltiger Umbruch stünde bevor. Ein nächster Bereich mit Hunderttausenden an Arbeitsplätzen würde unter Druck geraten: Übersetzer, Dolmetscher, Sprachlehrer, Bildungseinrichtungen. Die Verwerfungen wären enorm. Die Veränderungen für das Zusammenleben der Menschen aber wären noch viel unvorstellbarer.
Die Anzahl der Sprachen auf der Welt nimmt zwar ab, doch die Komplexität der Verständigung wird weiter steigen: Vernischung der Sprache, Wachstum der Technolekte und die Vielzahl neuer Sprachkanäle werden neue Ansätze fördern, worunter der statistische Ansatz am meisten Erfolg Maschinen werden mit und für uns sprechen verspricht. Zunächst in Spezialgebieten, mit längerer Dauer aber in immer mehr Feldern wird die „technisch vermittelte Sprache“ zum Normalfall werden. Maschinen werden mit und für uns sprechen. Die Märkte dahinter werden in den kommenden Jahren heiß umkämpft sein.
Jacob Aron: Software tricks people into thinking it’s human. In: New Scientist, 6.9.2011 | Stephen Barbour, Patrick Stevenson: Variation im Deutschen. Soziolinguistische Perspektiven. Walter de Gruyter, 1998
Karl-Heinz Best: Unser Wortschatz. Sprachstatistische Untersuchungen. In: Rudolf Hoberg & Karin Eichhoff-Cyrus (Hrsg.): Die deutsche Sprache zur Jahrtausendwende. Sprachkultur oder Sprachverfall? Dudenverlag, Mannheim/Leipzig/Wien/Zürich 2000
Matthias Mehl, Simine Vazire, Nairán Ramírez- Esparza, Richard Slatcher, James Pennebaker: Are women really more talkative than men? In: Science, 6.7.2007
Daniel Pimienta, Daniel Prado, Álvaro Blanco: Douze années de mesure de la diversité linguistique sur l’Internet. Bilan et perspectives. 2010, S. 40f
Alan Turing: Computing Machinery and Intelligence. In: Mind 59, Nr. 236, Oktober 1950
Heike Wiese: Kiezdeutsch. Ein neuer Dialekt entsteht. C.H. Beck, 2012
Horst Winter: Benennungsmotive für chemische Stoffnamen. In: Special Language/ Fachsprache 8, 1986, S. 155-162