[Originalversion des im c’t Magazin für Computertechnik, 1991(8) erschienen Artikels zum selben Thema. H.T.]

Buchbesprechung: "Die Elektrifizierung der Sprache"

 

Zimmer

Intelligente nicht-technische Bücher zum Thema "Computer" sind im deutschsprachigen Raum immer noch eine Seltenheit. Dieter E. Zimmer diskutiert das neue Medium Computer in seiner Beziehung zum alten Medium Sprache. Klar legt er Spezialisten und Laien dar, welche Errungenschaften des Computers heute wirklich zur Verfügung stehen (Textverarbeitung, Trennwörterbücher). Andere vielgerühmte Sprachfunktionen siedelt er im Bereich der Mythologie oder der Scharlatanerie an (optische Zeichenerkennung, automatische Spracherkennung, Übersetzungsprogramme) und erklärt, warum auf diesen Gebieten in naher Zukunft nur mit langsamer Entwicklung zu rechnen ist. Die Diskussion der Gründe für diese unterschiedlichen Fähigkeiten des Computers führt bis ins chinesische Zimmer der künstlichen Intelligenz.

Im Haffmans Verlag sind schon einige Bände des Autors Dieter E. Zimmer zum Thema Sprache erschienen. Ging es dem Redakteur der "Zeit" in "Redensarten" noch um Trends und Tollheiten im neudeutschen Sprachgebrauch, so leitete er in "So kommt der Mensch zur Sprache" schon über zu Fragen um Spracherwerb und die komplizierte Wechselwirkung zwischen Sprache und Denken. In seinem neuesten Band "Die Elektrifizierung der Sprache" geht es um die Beziehung zwischen Computer und Sprache.

Das Inhaltsverzeichnis des Taschenbuch-Bändchens präsentiert sich wie der Inhalt einer Nummer des "c't". Eingangs wird die praktische Frage des Einflusses der Textverarbeitung auf das (Lesen und) Schreiben behandelt und sozusagen unter der Rubrik "Know-How" werden nützliche Tips zur Herstellung und Benützung von Orthographie-Programmen zusammengestellt. Nach Abschweifungen über den inneren Wortschatz und die Rechtschreibung der deutschen Sprache werden die drei für die Computerlinguistik zentralen ungelösten Probleme der optischen Zeichenerkennung (optical character recognition, OCR), der akustischen Spracherkennung (automatic speech recognition, ASR) und der automatischen Maschinenübersetzung (machine translation, MT) ausführlich behandelt. Ohne Beschönigung und ohne Vorurteile schildert Zimmer den heutigen Stand der Technik und gibt uns Hinweise, warum dieser sich nicht sehr schnell ändern wird. Unter die Rubrik "Forum" gehört die subjektive Behandlung der philosophischen Prämisse der KI-Forschung (KI = Künstliche Intelligenz) und als "Story" kommt zum Nachtisch die Erzählung "!Hypertext!". Zu jedem der Kapitel findet sich eine ausführliche Bibliographie. Für ein Buch eher ungewöhnlich, die Analogie mit einer Ausgabe des "c't" konsequent weiterführend, ist das Bezugsquellenregister im Anhang, wo sich erwähnte Produkte, Hersteller, Adressen und Preise finden.

PC = Privatcomputer

Wie das Dingens denn nun heissen solle, fragt Zimmer in seinem ersten Kapitel, das sozusagen als Einleitung dient. Nach Versuchen mit Homecomputer, Mikrocomputer, Computer tout court, Personalcomputer (welch ein Unding ausserhalb der Personalabteilung!) und dem "Pörsonnäll" Computer schlägt er die Beibehaltung der etablierten Abkürzung PC (auch für Macintoshs!) vor und deren Ausdeutschung als Privatcomputer.

Was geschrieben ist, ist geschrieben

Nach dieser begrifflichen Klärung wendet er sich dem computerbedingten Sprachzerfall in der heutigen Textproduktion zu. Mit amüsanten Seitenhieben auf Computerdeutsch (etwa: "Bearbeiten Sie bitte den Text oder unterbrechen Sie zum Hauptbefehlsmenü!") kommt er zur ersten grundsätzlichen Klärung, dass der Computer mitnichten selber schreibt, sondern der Mensch mit Hilfe des Computers schreibt. Dies wird auch noch eine ganze Weile so bleiben trotz "Eliza" und "SHRDLU".

______________________________________________________________

Im übrigen aber ist es eben die Leichtigkeit, welche das Schreiben, Edieren und Publizieren durch den Computer bekommt, die dem Pfusch Tür und Tor öffnet. Entgegen einem verbreiteten Vorurteil wissen wir spätestens seit den eingehenden psychologischen Studien von Sherry Turkle, die sie in ihrem Buch »The Second Self« (Die Wunschmaschine) festgehalten hat, dass der Computer den Geist seiner »User« keineswegs normt, keineswegs standardisiert, sondern dass jeder seine ureigene Art hat, mit ihm umzugehen, sich durch ihn auszudrücken. (S. 32)

______________________________________________________________

Die zweite fast ebenso wichtige Tatsache betrifft das "elektronische Buch". Der Computer eignet sich in näherer Zukunft exzellent als Schreibgerät, nicht aber als Lesegerät. Typographie, Papier und Druck werden trotz papierlosen Schlagworten ihre Stellung behalten und sogar befestigen.

Aus der Identifizierung des PC als blosse Schreibhilfe nun abzuleiten, dass dieser keinen Einfluss auf das Schreiben habe, wäre naiv. Zimmer benennt insbesondere drei wichtige Einflüsse der PC-Ergonomie auf das Schreiben: die Verfremdung, die Lokalität und die Malleabilität.

Dank der schnellen, verfremdenden Transformation der Bildschirmansicht des Textes in verschiedene Druckansichten kann der Schreibende einen grösseren Abstand und eine erhöhte Objektivität gegenüber seinem Text gewinnen. Dieses verfremdete Wiederbegegnen war vor dem PC erst nach Wochen oder nach der Publikation möglich.

Da die meisten Bildschirme (heute noch) nur einen Drittel oder die Hälfte einer A4-Seite anzeigen können, wird die Textübersicht auf diese Distanz reduziert. Im Gegensatz zur getippten Seite, wo man noch mehrere Blätter nebeneinander legen konnte, erschwert die Bildschirmarbeit die Wahrnehmung globaler Strukturen und verbessert den lokalen Zusammenhang.

Den langfristig stärksten Einfluss auf das Schreiben dürfte die beliebige, leichte Verformbarkeit des PC-Textes haben: seine Malleabilität. "Die Maschine erspart es einem, sich um das Mechanische des Schreibens zu kümmern. Der Weg vom Kopf in die Schriftform wird kürzer, direkter" (S. 44). Wo das Rearrangieren von mehreren hundert Seiten Fussnoten früher ein prohibitiver Preis für eine kleine Änderung war, kann man heute beliebig am Text feilen. Da das nochmalige Ausdrucken mühelos ist, gewöhnt man sich daran, das Gedruckte als noch unfertig zu betrachten. Die beliebige Verformbarkeit verführt zur Redseligkeit, zur Unfertigkeit, zur Beliebigkeit. Der alte Respekt vor dem Geschriebenen, das Gültigkeit beansprucht, weil es geschrieben ist, verschwindet. Da jede Änderung während des Bastelns am Text spurlos bleibt, begünstigt die PC-spezifische Ergonomie die gewagten Inhalte, die Geschwätzigkeit und die Phantasie. Auf der Strecke bleibt dabei wohl ein Stück weit deren Korrektiv: die Verantwortung für das Geschriebene.

Wahrnehmung, Erkennen und Vorwissen

Den drei Wunschträumen der Computerlinguistik widmet Zimmer je ein eigenes Kapitel. Bei der Behandlung von optischer Zeichenerkennung, akustischer Spracherkennung und Maschinenübersetzung erweist sich Zimmers unvoreingenommener Zugang zum PC als besonders vorteilhaft.

Über kaum ein Gebiet der Informatik liest man in Artikeln, Inseraten, Forschungsberichten soviel Unsinn, Halbwahrheit und Wunschdenken, wie etwa über die optische Zeichenerkennung. Zimmer erklärt, welche Produkte wieviel leisten und wo die grundsätzlichen, bisher nicht überwundenen, Hürden dieses Problems liegen. Seine Prognose über die Langsamkeit des Fortschritts auf diesem Gebiet mag bei der rasanten Entwicklung in Computersachen etwas überraschend anmuten, seine angeführten Gründe lassen sie jedoch als wahrscheinlich erscheinen.

______________________________________________________________

Was beim Lesen im Innern des Gehirns abläuft, weiss man längst nicht so genau, dass man versuchen könnte, es im Computer nachzubauen. Aber man weiss, dass das menschliche Geistesorgan jedenfalls nicht nur so liest wie die Maschine: von »unten« nach »oben«, geometrische Merkmale auffindend und zählend, Buchstaben entziffernd. Es liest (und versteht Sprache überhaupt) gleichzeitig von oben nach unten: indem es sie »versteht«. (S. 136)

______________________________________________________________

Sowohl die optische Zeichenerkennung als auch die akustische Spracherkennung scheitern an der mangelnden Redundanz, die der Mensch in Form von Vorwissen einbringen kann. Eine brauchbare Repräsentation des menschlichen Vorwissens wäre auch für eine Maschinenübersetzung, eine FAHQT (Fully Automated High Quality Translation) vonnöten. Wenn auch eine solche in absehbarer Zeit nicht verfügbar sein wird, so kann man mit heutigen Techniken reduzierten Ansprüchen durchaus genügen: Die speziellen OCR-Schriften werden zuverlässig erkannt. Aus wenigen hundert Befehlen kann die akustische Spracherkennung nach anfänglichem Sprechertraining meist den richtigen eruieren. Für die Übersetzung technischer Spezifikationen in einer reduzierten Sprache kann der Einsatz des Computers sehr nützlich sein.

Das chinesische Zimmer

Bei den zuvor besprochenen Intelligenzleistungen der linguistischen Informatik klang die berühmte Frage schon mehrfach an, inwiefern man einer solchen Maschine etwas wie "Geist" oder "menschenähnliche Intelligenz" zusprechen könne?

Zimmer resümiert die Diskussion um die künstliche Intelligenz, angefangen bei Alan Turing, dessen Position besagt: wenn etwas aussieht wie ein Eichhörnchen, sich wie ein Eichhörnchen benimmt, herumrennt wie ein Eichhörnchen und schläft wie ein Eichhörnchen, dann kann man es geradesogut ein Eichhörnchen nennen. Ebenso wäre es geradezu Rassismus, Maschinen den Status echter Personen vorzuenthalten, wenn sie es schafften, Intelligenz glaubwürdig zu emulieren. Turing hat für die Entscheidung der Frage, ob eine Maschine Intelligenz besitze, den berühmten "Turing-Test" vorgeschlagen: Man baue in einem Zimmer ein Terminal auf, von welchem ich über Tastatur und Bildschirm mit einem Gegenüber kommunizieren kann, das sich vielleicht in einem anderen Raum befindet. Wenn es mir nach beliebig langer "Konversation" nicht gelingt, festzustellen, ob auf der anderen Seite eine Maschine oder ein Mensch antwortet, dann muss man dem Gegenüber Intelligenz zusprechen.

Als Gegenargument referiert Zimmer die Anekdote vom "chinesischen Zimmer" des kalifornischen Philosophieprofessors John Searle aus dem Jahre 1959, in welcher dieser darlegt, dass die stur mechanische Simulation von Verständnis nichts mit eigentlichem Verstehen zu tun habe.

Searle versetzt sich sozusagen in die Zentraleinheit des Rechners und nimmt das Bild des Turing-Tests auf. Er hält fest, dass er kein Chinesisch versteht. Er stellt sich nun vor, er sei in ein Zimmer gesetzt mit Körben voller Kärtchen, die chinesische Schriftzeichen enthalten. Gleichzeitig habe man ihm ein englisches Buch (Englisch versteht er) voller Instruktionen in die Hand gedrückt, in dem Regeln stehen, was er mit welchen Symbolen zu tun habe. Zum Beispiel: "Nimm ein Krakel-Krakel-Zeichen aus dem Korb Nummer 1 und lege es neben ein Schnörkel-Schnörkel-Zeichen aus dem Korb Nummer 2". Wenn ihm nun Chinesen von aussen kleine Stapel von Kärtchen mit chinesischen Schriftzeichen hereinreichen würden, könnte er diese gemäss den Regeln in seinem Buch "abarbeiten". Wenn das Regelbuch so verfasst ist, dass die Antworten von denen eines gebürtigen Chinesen nicht zu unterscheiden sind, hätte er erfolgreich Verständnis für das Chinesische simuliert, ohne dass man von einem eigentlichen Verständnis reden könne.

Zimmer benützt diese Positionen von Turing und Searle als Ausgangspunkt für eine ausführliche Diskussion der Streitfrage nach der "Künstlichen Intelligenz" (KI). Er führt dabei aus, dass die KI-Forschung auf der "monistischen Wette" der heutigen Wissenschaft beruhe. Im Gegensatz zur abendländischen Geistesgeschichte, wo von Plato bis Descartes die Trennung von Körper und Geist, von res extensa und res cogitans, postuliert wird, hat sich in der modernen Naturwissenschaft eingebürgert, die Einheit von Körper und Geist als gegeben zu betrachten. Wenn also "Geist" ein sehr natürliches Attribut des materiellen Menschen ist, ist nicht einzusehen, warum dieses nicht auch in einer fernen Zukunft den Nachfahren der heutigen Computer zukommen soll.

______________________________________________________________

Ein anderes populäres Gedankenexperiment auf diesem Gebiet ist das folgende. Man stelle sich vor, man könnte winzige Prozessoren bauen, die genau das tun, was die einzelnen Neuronen des Gehirns tun: elektrische Potentiale aufzunehmen, zu addieren, zu subtrahieren und selber welche abzugeben, wenn eine bestimmte Summe erreicht ist. Es scheint nicht grundsätzlich unmöglich. Und nun beginne man, die Neuronen des Gehirns eins nach dem andern durch die entsprechenden Prozessoren zu ersetzen, bis man am Ende einen dichtverdrahteten Siliziumfilz hat, der Struktur und Funktion des Gehirns vollkommen nachgebaut. Wäre er eine Gehirnprothese? Würde er denken wie das Gehirn? Hätte er Bewusstsein? (S. 237)

______________________________________________________________

Zimmer entmystifiziert das Dingens für viele Computerlaien, die es zwar inzwischen benützen, aber immer noch konfus zwischen unreflektierter Technologiekritik und postmodernem KI-Wunderglauben hin und herschwanken. Für den Programmierer bietet er eine interessante Positionierung des kulturellen Phänomens PC. Was Theodor H. Nelsons "Computer Lib - Dream Machines" für die USA und Umberto Ecos Privatcomputer Abulafia in seinem neuesten Roman "Foucaults Pendel" für Italien leisteten, macht Zimmer mit der "Elektrifizierung der Sprache" im deutschsprachigen Raum möglich: die vorurteilslose Diskussion der modernen Technikentwicklung und ihrer gesellschaftlichen Auswirkungen. Am Ende seines Buches würde man diese gerne mit ihm weiterführen.

2. April 1991 Hartwig Thomas