Maschinelle Übersetzung (2000)

 

A. Lang

 

 

 

Inhaltsverzeichnis:

 

  

 

 

 

1.         Einleitung                                                                                                    

 

 

 

2.              Geschichte der maschinellen Übersetzung

 

 

 

2.1.           Die Wurzeln der MÜ

 

2.2.           Wort für Wort-Übersetzung

 

2.3.           Der ALPAC-Report in den USA und seine Folgen

 

2.4.           Globalisation

 

2.5.           Kommerzielle Vermarktung der MÜ

 

 

 

3.               Methoden der Maschinellen Übersetzung

 

 

 

3.1.           Direkte Übersetzung

 

3.2.           Interlingua-Modell

 

 

 

4.             Grenzen der maschinellen Übersetzung

 

 

 

5.            Die gegenwärtige Situation in Europa

 

 

 

6.           Schlusswort

 

 

 

7.                    Literatur

 

 

 

 

 

 

 

1.               Einleitung

 

 

 

Linguistische Datenverarbeitung hat in den letzten Jahren zunehmend an Bedeutung gewonnen. Computational linguistics, das im Deutschen nur ungenau mit ‚Computerlinguistik‘ wiedergegeben wird, beschäftigt sich seit Aufkommen der Rechner mit der Möglichkeit sprachliche Vorgänge datentechnisch zu verarbeiten. Verfolgte Ziele sind z.B. Frage-Antwort-Systeme, Elektronische Lexika und Maschinelle Übersetzung.

 

Die folgende Arbeit wird sich mit dem ältesten Zweig der Computerlinguistik befassen, der auch heute das bedeutendste Teilgebiet dieser Fachrichtung darstellt, der Maschinellen Übersetzung, kurz MÜ genannt. W. J. Hutchins[1][1] definiert dieses Fachgebiet kurz als die Anwendung von Computern für die Übersetzung natürlichsprachlicher Texte in einen anderen, ebenfalls natürlichsprachlichen Text.

 

Als Motivation für die Entwicklung der maschinellen Übersetzung dienten zunächst militärische Interessen in der Zeit des kalten Krieges, anfänglich hatte man den Prozess für eine reine Dekodierungsaufgabe gehalten. MÜ stellt aber eine wesentlich kompliziertere Aufgabe an die Menschheit. Die Beschäftigung mit ihr erfordert vom Wissenschaftler ein breites interdisziplinäres Fachwissen in den Bereichen der Informatik sowie der Linguistik, überdies sollte er mit der Wissenschaft und Technik des Übersetzens vertraut sein, das weit über die Kenntnis zweier Fremdsprachen hinausgeht und auch die Kenntnis der Fachterminologie der zu übersetzenden Texte einschliesst.[2][2] 

 

Heute wird Maschinelle Übersetzung hauptsächlich durch die Globalisierung vorangetrieben - auch in der Europäischen Union wächst ständig der Bedarf an Übersetzungen.[3][3] Inzwischen arbeiten weltweit zahlreiche Unternehmen und Forschungsprojekte an der Entwicklung von Übersetzungssystemen. Einige Unternehmen versuchen umfassende Übersetzungsdienste anzubieten, während andere auf einzelne Problembereiche  fokussieren.

 

Das in den vergangenen Jahren rasant wachsende Angebot an elektronischen Wörterbüchern (die die Grundlage von Übersetzungsprogrammen bilden) bis zu umfassenden Übersetzungssystemen wirft die Frage nach der Vollständigkeit und der Einsatzfähigkeit dieser Programme auf.

 

Ein Blick in die Geschichte und auf die grundlegenden Strategien und Methoden der Maschinellen Übersetzung soll im Folgenden zum besseren Verständnis der heutigen Situation beitragen. Anschliessend sollen einige wesentliche Problembereiche erläutert werden, um schliesslich einen Überblick über die gegenwärtige Lage geben zu können.

 

 

 

2.               Geschichte der maschinellen Übersetzung

 

 

 

2.1.             Die Wurzeln der MÜ

 

Es gab bestimmt auch schon früher Überlegungen Maschinen zur Auflösung babylonischer Sprachverwirrungen zu konstruieren, den ersten Baustein dazu legte jedoch Leibniz. Er hatte allerdings noch absolut keine MÜ im Sinn als er die Möglichkeit in Erwägung zog, die Sprache mit den Methoden der Mathematik und der Logik zu behandeln. Er schlug die Codierung der Sprache in binären Symbolen vor. Diese Idee hatte Boole später weiterverarbeitet, woraus die Boolsche Algebra entstand. Darin sind die Methoden der symbolischen Logik beschrieben, ohne die die Versuche einer maschinellen Übersetzung überhaupt unmöglich gewesen wären.[4][4]

 

Die ersten tatsächlichen Experimente fanden jedoch erst nach dem 2. WK statt. Das Potential der „frisch erfundenen programmierbaren Computer[5][5] bot den Forschern einzigartige Perspektiven die neuen Elektronenrechner auf interdisziplinärem Gebiet zu erproben und für die Forschung auszunutzen. Man suchte nach neuen Aufgabenstellungen, die die Leistungsfähigkeit der Rechner demonstrierten.[6][6]

 

Am Beginn der maschinellen Sprachübersetzung dachte man natürliche Sprachen mit den notwendigen technischen Mitteln vollständig beschreiben zu können. Man hielt die Sprache für prinzipiell berechenbar und dachte „die Übersetzung mit rein statistischen Mitteln bewerkstelligen zu können“. Die Rechner der 50er Jahre waren noch schwer zu bedienen. So konzentrierte sich die Aufmerksamkeit der damaligen Forscher hauptsächlich auf die technischen Aspekte der MÜ, welche überbewertet wurden, und die eigentlichen, nämlich sprachlichen Probleme lange Zeit in den Hintergrund drängten. Vielfach lag dies auch am mangelnden linguistischen Fachwissen der praktisch orientierten Forscher, die diese Wissenslücken bei Bedarf ‚nebenbei‘ meinten beseitigen zu können[7][7].

 

 

 

2.2.            Wort für Wort-Übersetzung

 

Der erste tatsächliche Anstoss mit Hilfe von Maschinen zu übersetzen, kam im Jahre 1946 von Andrew D. Booth. Er war auf der Suche nach einem interessanten Forschungsprojekt, mit dessen Hilfe er sich den neuen Grossrechner an seiner Universität finanzieren lassen konnte – die Übersetzung von Sprachen schien das Interesse der amerikanischen Förderinstitutionen zu wecken.[8][8]

 

Als erstes musste ein Lexikon konstruiert werden,  und ein Nachschlagevorgang ausgearbeitet werden. Es wurde eine Methode untersucht, bei der jedes Wort eine Codenummer hatte, und jeweils auf die Codenummer des Wortes in der Zielsprache verwies.[9][9]

 

„Diese Methode hat sich wegen der Redundanz der natürlichen Sprachen als unpraktisch erwiesen.“ Denn bei einem Wort mit Zehn Buchstaben würden sich mit den Buchstaben des Alphabets etwa 1.400.000.000 mal so viele Wörter ergeben, als tatsächlich in einer Sprache vorkommen. Das System müsste also redundante Kombinationen berücksichtigen.[10][10]

 

Das zweite Lexikonsystem verglich Codewörter der Ausgangssprache mit den Entsprechungen der Zielsprache. Das unbekannte Wort wurde nun so lange mit einer Reihe von Codewörtern der Zielsprache verglichen, bis das Äquivalent gefunden wurde. Die Maschine verglich unbekannte Wörter mit Lexikoneinträgen und mimte so den Nachschlagevorgang im Lexikon nach. Eine Zahl neben jedem Wort wies auf die Stellung des Wortes im Text an. Danach wurden die Wörter in alphabetischer Reihenfolge mit den Lexikoneinträgen zusammensortiert, die das Äquivalent der Zielsprache angaben und anschliessend wurden die Textstellenangaben angepasst.

 

Dies war das erste Übersetzungssystem, das über die Wort-zu-Wort-Übersetzung hinausging, indem es auch den Vergleich von Wortstämmen und Flexionsformen vorsah. Da die Arbeiten von A. D. Booth und seinem Kollegen Warren Weaver in den USA noch wenig bekannt waren, wird das 1949 erschienene Weaver-Memorandum als ausschlaggebendes Ereignis in der Geschichte der MÜ betrachtet, weil Weaver hier das erste mal ausführlich die optimistische Auffassung verkündete dass die Probleme einer automatischen Übersetzung prinzipiell und insbesondere in technisch-fachsprachlichen Texten lösbar wären. Optimistisch beschrieb er die Sprache als logisch und beschreibbar und meinte, das Problem der Mehrdeutigkeit liesse sich durch die Hinzufügung eines hinreichenden Kontextes leicht beheben.

 

Im Laufe der Jahre erwiesen sich die Illusionen, die mit den teuren Forschungsprojekten verbunden waren als unrealistisch. So trat langsam - vor allem auf Seiten der Sponsoren - eine Ernüchterung ein, dessen Folgen einen deutlichen Umbruch in die Geschichte der MÜ brachten.

 

 

 

 

 

 

 

2.3.            Der ALPAC-Report in den USA und seine Folgen:

 

Im Bericht des ALPAC[11][11] (1967) wurden die bis dahin erzielten Ergebnisse der maschinellen Übersetzung zusammengefasst und bewertet. Vom Komitee sollte geprüft werden, ob

 

(1)     eine tatsächliche Notwendigkeit für maschinelle Übersetzungen überhaupt besteht,

 

(2)     das Projekt effektive und schnelle Kostenreduzierung verspricht,

 

(3)     durch das Projekt eine wesentliche Leistungsverbesserung der Übersetzung erreicht wird.[12][12]

 

Maschinelle Übersetzung war sehr teuer, während es zu dieser Zeit ein Überangebot an Übersetzern gab. Der Bedarf an Übersetzungen war infolge eines niedrigen politischen und kulturellen Austausches zwischen den Ländern in der damaligen Zeit im Vergleich gering, während eine überreichliche Übersetzungskapazität zusätzlich für ein niedriges Preisniveau sorgte.

 

Eine Vollautomatische Übersetzung (Fully automatic high quality translation)[13][13] - also eine Übersetzung ohne menschliche Vor- und Nachbereitung, die qualitativ den bestehenden Anforderungen entsprach und den manuell angefertigten Übersetzungen ebenbürtig war, schien überdies nicht möglich zu sein, womit die Frage nach der Leistungsverbesserung schnell beantwortet war.[14][14]

 

Somit konnte keiner der oben angesprochenen Fragen nach Meinung des Komitees im positivem Sinne für die Maschinelle Übersetzung beantwortet werden, wonach die meisten Projekte in den USA eingestellt wurden. Für Europa hatte der ALPAC-Report geringere Auswirkungen, zumal die im Vergleich mit den USA hohe Dichte der Sprachenvielfalt bereits damals einen grösseren Bedarf an Übersetzungen lieferte.

 

Obwohl der Bericht damals von den Forschern als weitgehend kurzsichtig, voreingenommen und zu wenig weitblickend beurteilt wurde,[15][15] sorgte er doch für einen Umbruch in der Geschichte der Forschung und Entwicklung der Maschinellen Übersetzung, der aus heutiger Sicht als positiv zu betrachten ist.

 

Denn durch den Bericht hatte man erstmals die essentielle Bedeutung der linguistischen Grundlagenforschung erkannt. Maschinelle Übersetzung wurde nicht länger als statistisches Problem aufgefasst, sondern als ein Problem der Sprachtheorie. Weiters wurde die Vollautomatische Übersetzung - also ohne menschliche Vor- und Nachbereitung - von hoher Qualität) nicht länger als realistisches Ziel angesehen.[16][16]

 

 

 

2.4.            Globalisation

 

Um 1974 machte eine neue Generation maschineller Übersetzungssysteme auf sich aufmerksam und erstmals wurde auch die gesprochene Sprache in die Forschungen integriert. Motivation für den neuen Antrieb waren steigende Globalisation, der wachsende Bedarf der Europäischen Gemeinschaft sowie neue sprachwissenschaftliche Erkenntnisse.

 

Im Jahre 1976 wurde das Übersetzungsprogramm SYSTRAN, das seit 1963 in den USA als kommerzielles System verfügbar war bei der Europäischen Gemeinschaft eingeführt.[17][17]

 

Sechs Jahre später (1982) begann man mit dem EUROTRA-Projekt in Europa, an dem sich Forschergruppen aus 9 Ländern beteiligten und 72 Sprachenpaare bearbeitet wurden. Im selben Jahr, also ebenfalls in 1982 begann die japanische Regierung und die japanische Industrie die maschinelle Sprachübersetzung zu fördern mit dem Ziel, die Sprachbarriere zwischen dem Japanischen und den Europäischen Sprachen zu überwinden.[18][18]

 

In 1988 begann man erstmals Dolmetschersysteme zu entwickeln. Dies war der Beginn der Beschäftigung mit der elektronischen Verarbeitung von gesprochener Sprache.[19][19]

 

 

 

2.5.            Kommerzielle Vermarktung der MÜ

 

Seit 1994 werden PC-Versionen von MÜ-Systemen vertrieben, auch das Internet bietet neue Möglichkeiten zur breiten Vermarktung Maschineller Übersetzungssysteme. Viele preiswerte Systeme für den Privatgebrauch sind auf den Markt gekommen, vertrieben  von renommierten Verlagen wie Langenscheidt, Klett/Pons.[20][20]

 

Zahlreiche mehrsprachige Wörterbücher dienen neben vollautomatischen Systemen zusätzlich als Stütze, von professionellen menschlichen Übersetzern wegen der mangelnden Verlässlichkeit der Übersetzungsprogramme immer noch die bevorzugte Art der maschinellen Hilfestellung.[21][21]

 

In den letzten Jahren beschäftigt sich die Forschung auch zunehmend mit der Übersetzung von Idiomen.

 

 

 

3.               Methoden der Maschinellen Übersetzung

 

 

 

Man kann Übersetzungssysteme zunächst danach unterscheiden, wie viele Sprachen für die Übersetzung relevant sind.

 

3.1.             Direkte Übersetzung

 

Handelt es sich nur um ein Sprachenpaar ist die effizienteste Methode zur Konzipierung eines Übersetzungssystems die sogenannte direkte Übersetzung. Diese Methode beschränkt sich auf die übersetzerischen Besonderheiten und Schwierigkeiten zwischen diesen beiden Sprachen. In diesen Systemen kann man viele grammatikalische Probleme mit Hilfe eines Lexikons lösen, und kann auf die – hoch komplizierte – Syntaxanalyse verzichten.[22][22]

 

 

 

3.2.            Interlingua-Modell

 

Ist im Unterschied zum direkten Übersetzungsmodell beabsichtigt, auch Übersetzungen in andere Zielsprachen zu erstellen, so ist es praktisch, Gemeinsamkeiten oder Besonderheiten verschiedener Sprachen in einem für alle Sprachen verwendbaren Modell zu berücksichtigen. Ein derartiges Modell, in dem jeder Quelltext in eine von den beteiligten Sprachen unabhängige Repräsentation überführt wird, nennt man Interlingua-Modell[23][23].

 

Die Idee, die künstliche Sprache Esperanto als bei der Übersetzung als Interlingua verwenden zu können wurde schnell verworfen, wäre man doch ständig mit Wortneuschöpfungen beschäftigt, um für jeden Wortneuzugang in einer natürlichen lebendigen Sprache eine Entsprechung in Esperanto zu finden.

 

Eine natürliche Sprache wie Englisch als Interlingua zu wählen, ist ebenfalls in der Diskussion gewesen. Darüber hinaus würde die Tatsache, dass die meisten Wissenschaftler bereits über englische Sprachkenntnisse verfügen die Arbeit deutlich vereinfachen. Dennoch wurde die Verwendung von Englisch als Interlingua in internationalen Projekten verworfen. Einer Sprache eine dominierende Rolle zuzuschreiben, war aus politischen Gründen nicht durchsetzbar. Dennoch wird in der Praxis oft darauf zurückgegriffen.[24][24]

 

Zieht man formale Sprachen zur Repräsentation heran, gibt es das Problem, die zahlreichen natürlichsprachlichen Feinheiten und Nuancen in den Ausdrucksmöglichkeiten zu formalisieren. Dennoch ist dies die heute meist verwendete Variante der Interlingua.[25][25]

 

 

 

4.               Grenzen der maschinellen Sprachübersetzung

 

 

 

Übersetzung ist ein Kommunikationsprozess. Der Übersetzer versetzt sich dabei in die Rolle des Autors und des Lesers zugleich, wobei er nicht nur zwischen zwei Sprachen, sondern auch zwischen zwei kulturellen Gegebenheiten vermittelt. Er muss den Autor interpretieren können und die Erwartungen des Lesers verstehen.[26][26] Dazu muss er oft sein ganzes Weltwissen einsetzen um Unübereinstimmungen zwischen den Sprachen auszugleichen. Für die Übersetzung von Metaphern und Phrasen (zusammengesetzten Ausdrücken) ist zumindest Textverständnis, oft auch die Improvisationskunst der Übersetzer erforderlich.[27][27]

 

Der Übersetzungsprozesses liefert aber noch eine ganze Menge anderer Probleme:[28][28]

 

a)                                        Semantische Ambiguitäten[29][29], also bedeutungsspezifische Mehrdeutigkeiten einzelner Lexeme, wie z.B.: ‚die Bank‘ (Geldinstitut oder Sitzgelegenheit?); ‚das Schloss‘ (Gebäude oder Schliessapparat?) können oft nur durch Kontextverständnis aufgelöst werden.[30][30] Das folgende Beispiel soll dieses Problem veranschaulichen.
                             

 

       unauthorized reproduction is strictly forbidden

      --> unauthorisierte Fortpflanzung ist strengstens untersagt

 

 

 

Durch falsche Lexemwahl bei der maschinellen Übersetzung des englischen Originals ins Deutsche wurde in diesem Lizenzvertrag einer Computersoftware der Inhalt des Satzes völlig entstellt.

 

b) Kompositabildungen, derer insbesondere die deutsche Sprache reich ist (‚Taschenrechnerformat‘, ‚Politikverdrossenheit‘, etc.), können unmöglich alle in einem Wörterbuch enthalten sein, also wird eine morphologische Analyse dieser Lexeme notwendig. Oft liegt die Schwierigkeit jedoch darin, dass man Komposita auf mehrere Arten trennen kann, und so verschiedenartig lesen kann. Diese liefern bei der Übersetzung auch verschiedene Ergebnisse. Beispiele hierfür wären z.B.

 

Uranbrenner: Ur-anbrenner, Uran-brenner

Beinhaltung: Bein-haltung, Be-inhaltung

 

Quelle: Seewald, Uta: Antibabylonisch

 

 

 

Arm-band-uhr: poor tape clock -- bracelet clock

Bar-zahlung: nightclub payment -- cash payment

 

Quelle: Seewald, Uta: Antibabylonisch

 

 

 

c)  Auch auf der syntaktischen Ebene, also auf der Satzbauebene müssen die Sätze von den Übersetzungssystemen analysiert werden, das wieder eine reichhaltige Quelle für Ambiguitäten darstellt.[31][31] Folgende Beispiele veranschaulichen die Irrtumquelle bei Übersetzungen, die hier z.B. sich aus der fehlenden Wortartbestimmungsmöglichkeit ergeben: 

 

 Flying planes can be dangerous.

------>       Fliegende Flugzeuge können gefährlich sein.

------>       Flugzeuge zu fliegen kann gefährlich sein.

 

Quelle: Seewald, Uta: Antibabylonisch

 

 

 

Ich sehe den Mann mit dem Fernrohr.

1.)    Ich sehe (Subjekt) den Mann (Objekt) mit dem Fernrohr (Präpositionalergänzung).

2.)    Ich sehe (Subjekt) den Mann mit dem Fernrohr (Objekt).

 

 

 

Diese Ambiguitäten aus verschiedenen linguistischen Teilbereichen lassen sich meist aus im Kontextzusammenhang leicht auflösen. Ziemlich unwahrscheinlich scheint aber, dass Maschinen in absehbarer Zeit über einem dafür notwendigen, umfassendem Weltwissen verfügen werden.

 

Man ist sich seit dem ALPAC-Report also einig, dass eine vollautomatische Übersetzung aufgrund der ungeheuren Vielfalt der natürlichen Sprachen nicht realistisch ist. Statt dessen müssen die maschinell Übersetzten Texte durch einen menschlichen Übersetzer überarbeitet werden. Viele Übersetzer, ganz besonders die, die im literarischen Bereich tätig sind bevorzugen aus diesem Grund elektronische Lexika als maschinelle Hilfe.

 

Realistischer ist maschinelles Übersetzen in den Fachsprachen. Da ist es meist nur wichtig, den Inhalt des Originals so getreu wie möglich wiederzugeben. Das grossteils fachgebundene Vokabular der Fachtexte lässt sich meist eindeutig transferieren, weil die Begriffe zumeist durch die Theorien der jeweiligen Fächer definiert sind.

 

Manche solcher Übersetzungssysteme, werden etwa bei der Bahn, auch schon mit Erfolg eingesetzt. Diese Programme verfügen über ein Spezialwörterbuch, das auf die Fachterminologie der Zielgruppe zugeschnitten ist. So wird im Übersetzungssystem der Bahn festgelegt, dass chemin de fer als Eisenbahn übersetzt werden muss. Ohne Spezialwörterbuch würde es Weg des Eisens ergeben.

 

Auch Wetterberichte eignen sich hervorragend für die maschinelle Übersetzung. Das Wetter-Vokabular beschränkt sich auf weniger als 1000 Wörter; menschliche Übersetzer empfinden die Arbeit als langweilig und eintönig. Doch genau durch den trockenen und sachlichen Charakter der Texte, bestehend aus einfachen, kurzen und deutlichen Sätzen, sowie einem eindeutig übersetzbarem Vokabular, liegt die Fehlerquote bei der MÜ sehr niedrig (2 %).[32][32]

 

Bei gewerblichen Texten werden oft auch noch andere Vereinfachungen vorgenommen. Autoren von Texten, die maschinell übersetzt werden sollen, wird geraten einfache Sätze zu formulieren (z.B. sind nur Hauptsätze erlaubt, keine Relativsätze oder andere komplexere Satzmuster) und sich in der Wortwahl nur auf Fachwortschatz und allgemeinsprachliche Wörter zu beschränken.

 

 

 

5.               Die gegenwärtige Situation in Europa

 

 

 

Die heutige Ära der MÜ ist dadurch charakterisiert, dass viele preiswerte maschinelle Übersetzungssysteme auf den Markt gekommen sind, die von jedermann auf einem PC installiert und benutzt werden können. Viele dieser Billiglösungen für PCs oder im Taschenrechnerformat sind jedoch linguistisch gesehen unbefriedigend.

 

Weiterhin werden umfassende Übersetzungssysteme angeboten, die sich von den low cost-Systemen vor allem dadurch unterscheiden, dass sie umfangreichere Wörterbücher mit viel Zusatzwissen und syntaktischer Information enthalten.

 

Inzwischen bieten weltweit mehrere Firmen maschinelle Übersetzung auch im Internet an. Mit vollautomatischen Programmen ausreichender Qualität ist hier allerdings vorerst auch nicht zu rechnen.

 

Als letztes ist auf die in Deutschland seit mehr als vier Jahren laufende Forschung zur Entwicklung eines Übersetzungssystems für gesprochene Sprache aufmerksam zu machen. Es handelt sich um das Projekt VERBMOBIL[33][33], das 1992 begonnen wurde. In diesem Projekt geht es darum, für einen begrenzten Bereich mündliche Dialoge verschiedensprachiger Sprecher durch maschinelle Hilfen zu unterstützen. So soll z.B. ein deutscher Benutzer, der sich in Japan zu einer Konferenz anmelden will, einen telefonischen Dialog in englischer Sprache führen können, wobei ihm Verbmobil bei Übersetzungsproblemen hilft. Der japanische Gesprächspartner soll ebenfalls in englischer Sprache kommunizieren und gleichfalls durch das maschinelle System bei Übersetzungsproblemen unterstützt werden. Ein Ziel von Verbmobil war eine Verständigung zwischen Deutschen und Japanern, mit Englisch als Zwischensprache. Da der Sprachausschnitt zumindest vorerst sehr begrenzt ist (Terminvereinbarung), sind die linguistischen Probleme nicht sehr gross.

 

Die zweite Phase fokussiert auf die Bereiche Reiseplanung und Hotelreservierung und erfasst die beiden Sprachpaare Deutsch-Englisch und Deutsch-Japanisch. Auch hier konzentriert sich die Arbeit hauptsächlich auf Probleme, die sich bei der maschinellen Erfassung gesprochener Spontansprache wie zum Beispiel die Eliminierung spontansprachlicher nicht bedeutungstragender Einschübe (‚ähmm...‘) oder Betonung, die hier im Gegensatz zu geschriebener Sprache ausschlaggebend für Bedeutung sein kann. [34][34]

 

 

 

6.               Schlusswort

 

 

 

Es gibt viele Skeptiker, die meinen, maschinelle Übersetzungssysteme wären den Aufwand, den man betreibt, um sie zu entwickeln und zu konstruieren, nicht wert. Auf der anderen Seite gibt es aber tatsächliche Fortschritte und praktische Anwendungen.

 

Es gibt viele elektronische Wörterbücher für den PC, oder in Taschenrechnerformat, und es wird auch immer mehr Übersetzungssoftware angeboten. Leider ist der Grossteil dieser kommerziell vertriebenen Produkte nur wenig ausgereift, und linguistisch gesehen unvollständig. Eine vollautomatische Übersetzung ist aus heutiger Sicht nicht realistisch, menschliche Eingriffe bleiben erforderlich.

 

 Derzeit sucht die Wissenschaft nach einer generellen ‚Zwischensprache‘, der Interlingua, um nicht für jedes Sprachpaar neue Systeme bauen zu müssen - allerdings bislang erfolglos. Bisher konnte weder eine umfangreiche Interlingua erstellt noch ein Verfahren zu ihrer Konzeption entwickelt werden.

 

Computerlinguistik - und mit ihr auch die Maschinelle Übersetzung - befindet sich heute jedoch trotz viele Fragen betreffender Ernüchterung im Aufschwung -; laufend werden Projekte erfolgreich beendet, neue Ziele werden gesteckt. Deutschlandweit ist Computerlinguistik an über zwanzig Universitäten als Studienrichtung vertreten. Obwohl man heute weiss, dass die natürliche menschliche Sprache niemals mit den Mitteln der Mathematik und der Logik vollständig berechnet werden kann, gibt es zahlreiche Anwendungsgebiete, wo Maschinelle Übersetzung mit Erfolg eingesetzt werden kann. 

 

 

 

 

 

7.               Literatur

 

 

 

Bátori, István S.: Development. Computerlinguistik I: Entwicklungslinien. In: Bátori, István S., Winfried Lenders u.a. (Hrsg.): Computational Linguistics. An International Handbook on Computer Oriented Language Research and Applications. Berlin, New York 1989.

 

Booth, Andrew D.: Ursprung und Entwicklung der mechanischen Sprachübersetzung (1963). In: Automatische Sprachübersetzung /hrsg. von Herbert E. Bruderer. - Darmstadt, 1982.

 

Bruderer, Herbert E.: Handbuch der maschinellen und maschinenunterstützten Sprachübersetzung. München/New York 1978.

 

Hutchins, W.J.: Machine Translation. Past, present, future.New York etc. 1986.

 

Schwanke, Martina: Maschinelle Übersetzung. Ein Überblick über Theorie und Praxis. Berlin et al.: Springer 1991.

 

Tophoven, Elmar: Bericht aus der Werkstatt. In: Klaus Birkenhauer (Hg.): Übersetzer über Das Übersetzen. In: Der Übersetzer. Monatszeitschrift des Verbandes deutschsprachiger Übersetzer (VdÜ).

 

Tsujii, Jun-ichi: Machine Translation: Research and Trends. In: Bátori/Lenders/Putschke: Handbuch 'Computerlinguistik. Berlin 1989

 

Seewald, Uta: Antibabylonisch. Marktübersicht: Kommerzielle Systeme und Werkzeuge. In: iX Magazin für professionelle Informationstechnik. Verlag Heinz Heise GmbH & Co KG. 12/1995 S. 88ff

 

Wilss, Wolfram: Kognition und Übersetzen. Zu Theorie und Praxis der menschlichen und der maschniellen Übersetzung. Max Niemeyer Verlag, Tübingen. 1988.

 

Rothkegel, Annely: Semantisch-pragmatische Aspekte in der maschinellen Übersetzung. In: Wilss, Wolfram / Klaus-Dirk Schmitz (Hg.): Maschinelle Übersetzung – Methoden und Werkzeuge. Saarbrücken, 1.-3. September 1986. Max Niemeyer Verlag Tübingen, 1987.

 

Snell-Hornby, Mary (Hg.): Übersetzungswissenschaft - eine Neuorientierung: zur Integrierung von Theorie und Praxis. Francke Verlag Tübingen und Basel, 1994.

 


 


 

 

 



[1][1]    vgl. Hutchins, W.J.: Machine Translation. Past, present, future.New York etc. 1986.

[2][2] vgl. Bátori, István S.: Computational Linguistics I: Development Computerlinguistik I: Entwicklungslinien. In: Bátori, István S., Winfried Lenders u.a. (Hrsg.): Computational Linguistics. An International Handbook on Computer Oriented Language Research and Applications. Berlin, New York 1989.

[3][3]  vgl. Wilss, Wolfram: Kognition und Übersetzen. Zu Theorie und Praxis der menschlichen und der maschniellen Übersetzung. Max Niemeyer Verlag, Tübingen. 1988.

[4][4]  vgl. Booth, Andrew D.: Ursprung und Entwicklung der mechanischen Sprachübersetzung. 1963. In: Bruderer, Herbert E. (Hg.): Automatische Sprachübersetzung. Wissenschaftliche Buchgesellschaft Darmstadt, 1982.

[5][5]  Bátori, a.a.O.

[6][6] ebd.

[7][7]  ebd.

[8][8] vgl. Booth, a.a.O.

[9][9] siehe Booth, e.b.d., „Auf diese Weise ist bei einer Kodierung A = 01, B = 02, C = 03, ..., Z= 26 die Codenummer des deutschen Wortes „und“: (21) (14) (04), und die Speicherstelle 211404 gibt die Codenummer der englischen Entsprechung an: 011404 = „and“.

[10][10] vgl. Booth, a.a.O.

[11][11] ALPAC, Automatic Language Processing Advisory Committee (Hg.): Language and Machines. Computers in Translation and Linguistics. A Report by the Automatic Language Processing Advisory Committee, Division of Behavioral Sciences, National Academy of Sciences, National Research Council. Washington, D.C.: National Academy of Sciences, National Research Council (Publication 1416) 1966

[12][12] vgl. Schwanke, Martina: Maschinelle Übersetzung. Ein Überblick über Theorie und Praxis. Berlin et al.: Springer 1991. vgl. auch ALPAC, a.a.O.

[13][13] ALPAC, a.a.O.

[14][14] vgl. Schwanke, a.a.O.

[15][15]  vgl. Hutchins, W. J., a.a.O.

[16][16] zum ALPAC-Report und seine Folgen vgl. u.a. Schwanke, a.a.O., Hutchins, a.a.O.

[17][17] vgl. Tsujii, Jun-ichi: Machine Translation: Research and Trends. In: Bátori/Lenders/Putschke: Handbuch ‚Computerlinguistik‘. Berlin 1989

[18][18]  ebd.

[19][19] ebd.

[20][20] siehe etwa http://www.langenscheidt.de  Langenscheidts T1 Standard (plus) 3.0; http://www.pons.de Personal Translator 2000 Home/Office

[21][21] siehe Kapitel 4. in dieser Arbeit über die Grenzen der Maschinellen Übersetzung

[22][22] vgl. Hutchins, a.a.O.

[23][23] ebd.

[24][24] z.B. auch bei Verbmobil (s. Kap. 5. in dieser Arbeit)

[25][25] vgl. Guenthner, Franz: Vorlagen zum Seminar ‚Einführung in die Programmierung‘ im WS 1998/99 Centrum für Informations- und Sprachverarbeitung (CIS) an der Ludwig-Maximilians-Universität München

[26][26] vgl. Snell-Hornby, Mary (Hg.): Übersetzungswissenschaft - eine Neuorientierung: zur Integrierung von Theorie und Praxis. Francke Verlag Tübingen und Basel, 1994. bzw. Wilss 1988, a.a.O., Vorwort.

[27][27] vgl. Frank, Armin Paul: Einleitung zu: Schultze, Brigitte (Hg.): Die literarische Übersetzung: Fallstudien zu ihrer Kulturgeschichte. Erich Schmidt, Berlin. 1987.

[28][28] vgl. hierzu etwa Wilss, Wolfram: Möglichkeiten und Grenzen der Disambiguierung in einem System der maschinellen Übersetzung. In: Wilss, Wolfram: Kognition und Übersetzen. Zu Theorie und Praxis der menschlichen und der maschinellen Übersetzung. Max Niemeyer Verlag, Tübingen. 1988.

[29][29] Am|bi|gu|i|tät <lat.> die; -, -en: [...] b) lexikalische od. syntaktische Mehrdeutigkeit (Sprachw.). , vgl. Duden Fremdwörterbuch, a.a.O.

[30][30] vgl. Rothkegel, Annely: Semantisch-pragmatische Aspekte in der maschinellen Übersetzung. In: Wilss, Wolfram / Klaus-Dirk Schmitz (Hg.): Maschinelle Übersetzung – Methoden und Werkzeuge. Saarbrücken, 1.-3. September 1986, Max Niemeyer Verlag Tübingen, 1987.

[31][31] vgl. Wilss, a.a.O., bzw. Hutchins, a.a.O.

[32][32] vgl. Seewald, Uta: Antibabylonisch. Marktübersicht: Kommerzielle Systeme und Werkzeuge. In: iX Magazin für professionelle Informationstechnik. Verlag Heinz Heise GmbH & Co KG. 12/1995.

[33][33] vgl. http://verbmobil.dfki.de/verbmobil

[34][34] vgl. Verbmobil Infotext: http://verbmobil.dfki.de/verbmobil/Vm.Info.Phase2.html