Wordshop Fachübersetzungen

NMÜ: Neuronale maschinelle Übersetzung – ein aktueller Einblick

von | 08.07.2021

Seit einigen Jahren sorgt die neuronale maschinelle Übersetzung (NMÜ) im Bereich der Translationsarbeit und Translationswissenschaft für großes Aufsehen. An den Universitäten wird geforscht, wie leistungsstark dieser neue Ansatz ist, und in den Unternehmen reiben sich die CEOs die Hände, in Vorfreude darauf, bald deutlich weniger Geld für Übersetzungen ausgeben zu müssen. Und immer wieder hört man auch von den Fachfremden, dass es sich gar nicht mehr lohnen würde, das Handwerk des Fachübersetzens zu erlernen, denn das würden ja ohnehin bald alles die Computer machen!

Aber was ist eigentlich die NMÜ? Warum wird ihr so viel Bedeutung beigemessen? Und wird sie über kurz oder lang den menschlichen Übersetzer ersetzen?

Geschichte der maschinellen Übersetzung

Die NMÜ stellt die neueste Form der maschinellen Übersetzung dar. Das Konzept und die ersten Programme dazu sind jedoch wesentlich älter. Bereits Mitte der 1970er Jahre versuchten Wissenschaftler Computerprogramme zu entwickeln, mit denen sich Texte automatisch übersetzen lassen.[1] Das erste Modell war die sogenannte ‚regelbasierte maschinelle Übersetzung‘ (RMÜ).  Für die RMÜ wurde ein Programm mit den syntaktischen, semantischen und grammatischen Regeln zweier Sprachen sowie dem entsprechenden bilingualen Vokabular angereichert.

Die RMÜ geriet jedoch schnell an ihre Grenzen. Die kontinuierliche Akkumulation von Sprachinformationen im System führte ab einem gewissen Zeitpunkt dazu, dass sich die einzelnen Regeln gegenseitig aufhoben bzw. negierten.[2] Das System begann dadurch neue Fehler zu produzieren, mit denen man ursprünglich nicht gerechnet hatte.

Auf die RMÜ folgte die statistische MÜ (SMÜ). Bei diesem Ansatz wurde die Software mit einer Vielzahl umfassender bilingualer Textkorpora gefüttert. Anschließend generierte die SMÜ im Translationsprozess die statistisch wahrscheinlichste Übersetzung – sprich die Übersetzung, die sie in den Texten am häufigsten angetroffen hatte.[3]

Die Problematik dieses Ansatzes wurde schnell deutlich: die wahrscheinlichste Übersetzung war nicht unbedingt die Richtige! Das System war nicht im Stande, den Kontext als Variable miteinzubeziehen und dementsprechend die passende wahrscheinlichste Übersetzung auszuwählen. Dadurch, dass das Programm die textliche Umgebung nicht in den Translationsvorgang integrieren konnte, kam es auch häufig zu einer grammatischen Inkongruenz in den Texten.

Auf die SMÜ folgte schließlich die neuronale MÜ. Die NMÜ baut direkt auf ihrem Vorgänger auf und nutzt ebenfalls bilinguale Korpora zur ‚Translationserlernung‘. Im Gegensatz zur SMÜ verfügt die NMÜ über ein sogenanntes ‚künstliches neuronales Netz‘, welches einen Zweig der künstlichen Intelligenz (KI) darstellt. Die KI versucht, mit dem Computer Entscheidungsstrukturen und Lernverhalten des Menschen zu imitieren[4]. Das künstliche neuronale Netz des Rechners entspricht dabei im übertragenen Sinne dem biologischen neuronalen Netz des menschlichen Gehirns.[5]

Neuronale Netze werden unter anderem zur Bilderkennung, Gesichtserkennung und Spracherkennung eingesetzt. Dabei „lernt“ die Software selbstständig. Ein Beispiel: anstatt manuell Regeln festzulegen, wie eine Hauskatze aussieht – sprich: sie ist klein, hat zwei Ohren, zwei Augen, Fell, Schnurrhaare, etc. – wird das System mit einer Vielzahl von Katzenbildern gefüttert. Dabei reagiert das neuronale Netz auf die sich wiederholenden Merkmale und filtert diese – schließlich hat das Programm für sich ein Konzept erstellt, wie eine Hauskatze aussieht.

Der Einsatz neuronaler Netze ermöglicht der NMÜ sprachspezifische Strukturen zu erkennen und anzuwenden. Durch die Verarbeitung einer Vielzahl von Texten kann das System anhand der sich wiederholenden syntaktischen Konstruktionen ein strukturelles Konzept der Sprache erstellen. Dieses Konzept wendet das System bei der Übersetzung an und ‚berechnet‘ so, welche Wörter in einem Satz an den jeweiligen Stellen stehen müssen. [6]

Ein weiterer Durchbruch bezüglich der NMÜ gelang Bahdanau et al. 2014. Wie bereits erwähnt, war ein zentrales Problem der vorangegangenen Modelle, dass die einzelnen Sätze und Phrasen inhaltlich und grammatisch häufig nicht mit dem Kontext übereinstimmten. Dies hat unter anderem damit zu tun, dass die Texte für die maschinelle Übersetzung von den Programmen codiert und decodiert werden müssen. Dazu wird der Text in kleinere Einheiten zerlegt, z.B. Sätze oder Phrasen, was dazu führt, dass der Kontext verloren geht. Diese Problematik wurde lange als ‚Nadelöhr‘ der maschinellen Übersetzung angesehen.[7] Bahdanau und seinen Kollegen gelang es jedoch, das Programm durch eine sogenannte ‚(soft-)search‘ zu ergänzen. Die ‚(soft-)search‘ untersucht den Kontext auf die Elemente, die zur Findung eines Zielwortes nötig sind.[8] Diese Funktion trägt zentral dazu bei, Übersetzungen sowohl grammatisch als auch inhaltlich korrekter und einheitlicher zu gestalten.

Die Leistungsfähigkeit einer NMÜ und damit die Qualität der Übersetzung hängt sehr stark von der Leistungsfähigkeit der Rechner ab, auf denen das Programm läuft. Derzeit wird DeepL als erfolgreichste und qualitativ hochwertigste NMÜ gehandelt. Das Unternehmen lässt seine Software über ein Rechenzentrum in Island laufen, welches auf High Performance Computing (HPC) ausgerichtet ist.[9] Dabei wird von günstigen Strompreisen und höchstmöglichen Ausfallsicherheiten profitiert.[10]

Was kann die NMÜ leisten?

Hört man sich um, so fällt die Bewertung von NMÜ-Programmen wie Google Translate und Co. durch Laien weitestgehend positiv aus. Der sprunghafte Anstieg der Qualität Anfang/Mitte der 2010er Jahre wurde von vielen Nutzern wahrgenommen. Jedoch sind viele der Texte, die von diesen Programmen im Alltag übersetzt werden, relativ allgemeinsprachlich und besitzen dadurch einen vergleichsweise geringen Schwierigkeitsgrad. Komplexere Schriftstücke, wie zum Beispiel literarische Texte oder Fachtexte, die ja den überwiegenden Großteil der vom Übersetzer zu übersetzenden Dokumente ausmachen, beinhalten häufig eine Vielzahl rhetorischer Figuren oder spezialisierter Terminologie und erschweren dadurch den Übersetzungsprozess drastisch.

Die Forschung zeigt diesbezüglich, dass die NMÜ bei der Übersetzung von literarischen und Fachtexten zwar bessere Ergebnis erzielt als die SMÜ, jedoch weiterhin an vielen Stellen an den spezifischen Komplexitäten der Textsorten scheitert. Toral und Way haben im Jahr 2018 eine ausführliche Studie zur Qualität literarischer maschineller Übersetzungen durchgeführt. Dabei hielten sie fest, dass die Leser knapp 17-34% der NMÜ-Resultate als mit einer Übersetzung durch einen menschlichen Übersetzer vergleichbar bewerteten – was durchaus nicht zu vernachlässigen ist und deutlich über dem Wert der SMÜ liegt, von deren Output nur 8-20% als mit einer menschlichen Übersetzung vergleichbar eingestuft wurden.[11] Trotzdem möchte wahrscheinlich keiner ein Buch lesen, das zu rund 75 % stilistisch unschön klingt oder gar inkorrekt und unverständlich ist.

Auch die wenigen Studien, die die Performanz der Programme hinsichtlich der Übersetzung von Fachtexten analysieren, kommen zu einem eher verhaltenen Ergebnis. Grunter prüfte 2019 die Qualität rechtlicher Übersetzungen der NMÜ und kam zu dem Fazit, dass diese „gerade auf lexikalischer Ebene – bei der Terminologie und bei festen Wortverbindungen (terminologische Kollokation) – weiterhin noch nicht ausreichend ausgereift sind“[12]. Long et al. setzen sich in ihrem Artikel aus dem Jahr 2017 mit der maschinellen Übersetzung von Patenten auseinander. In Bezug auf diese Textsorte bereiten vor allem die seltenen technischen Fachbegriffe der NMÜ große Probleme.[13] Long et al. raten in ihrem Artikel abschließend dazu, bei der Übersetzung von Patenten die NMÜ mit einer SMÜ zu kombinieren und die korrekte bilinguale Terminologie manuell einzugeben.

Die schwache Leistung der NMÜ bezüglich der Übersetzung von Fachtexten hängt unter anderem damit zusammen, dass viele dieser Texte nicht (in bilingualer Form) im Internet zu finden sind. Das Programm kann diese somit nicht „lernen“. Gerade im wirtschaftlichen Bereich werden viele wichtige Schriftstücke z.B. bezüglicher der Entwicklung neuer Technologien oder Medikamente, unternehmensintern gehandhabt.

Was bringt die Zukunft?

Insgesamt kann festgehalten werden, dass bei der maschinellen Übersetzung in den letzten Jahren große Fortschritte gemacht wurden, dass sie aber größtenteils nicht den Ansprüchen einer qualitativ hochwertigen Übersetzung gerecht wird – vor allem nicht hinsichtlich der Translation komplexer literarischer und fachsprachlicher Texte.

Für viele ist die zentrale Frage, ob bzw. wann die NMÜ den menschlichen Übersetzer ersetzen wird. Aktuell kann diese Frage kaum beantwortet werden. Es gilt abzuwarten, wie und wie schnell sich die NMÜ weiterentwickelt. Darum sollte vielleicht zunächst eher die Frage gestellt werden, wie derzeit der größtmögliche Nutzen aus der neuen Technologie gewonnen werden kann.

Mit der Globalisierung ist der Bedarf an Übersetzungen exponentiell gestiegen. Zeitgleich hat auch der Zeit- und Qualitätsdruck zugenommen. Unternehmen wünschen schnelle, perfekte und billige Übersetzungen. Wenn richtig eingesetzt, kann die NMÜ für den Übersetzer in bestimmten Situationen ein hilfreiches Tool sein.

Um das Programm nutzbringend verwenden zu können ist es vor allem wichtig, seine Schwächen zu kennen. Es muss für jeden Text einzeln entschieden werden, ob sich in dem jeweiligen Fall der Einsatz der Software lohnt. An dieser Stelle soll auch darauf verwiesen werden, dass es nicht die eine NMÜ gibt, sondern viele NMÜ-Programme (DeepL, Google Translate, Microsoft Translator, SYSTRAN, etc. …). Dies bedeutet jedoch auch, dass man, wenn man mit einer Ausfertigung vertraut ist, sich nicht unbedingt auch mit den anderen Programmen auskennt.

Wie bereits festgestellt, schwächelt die NMÜ besonders bei technischen und juristischen Texten. Hier gilt es abzuwägen, wie stark fachsprachlich der Ausgangstext ist. Prinzipiell gilt, je weniger fachsprachlich der Inhalt des Dokuments, desto besser das Resultat der NMÜ.

Für diese Art von Übersetzungen kann es Sinn machen, die NMÜ mit einem CAT-Tool zu kombinieren. Dies gilt vor allem, wenn bereits eine umfangreiche Terminologiedatenbank für das jeweilige Thema vorliegt. In den aktuellen Versionen der Translationsprogramme MemoQ und SDL Trados sind bereits Schnittstellen für DeepL vorhanden. Mit diesem Setup kann zum einen von der vorhandenen, geprüften Terminologie profitiert werden, zum anderen kann der von der NMÜ gelieferte Übersetzungsvorschlag bei Bedarf zur Übersetzung genutzt werden.

Besonders problematisch für die NMÜ sind Dokumente, in denen Fachbegriffe isoliert vorkommen. Ein Beispiel hierfür sind technische Bedienungsanleitungen, die eine Vielzahl an beschrifteten Grafiken enthalten. Für diese Art der Übersetzung lohnt sich der Einsatz einer NMÜ in der Regel nicht, da sich die Terminologie aus dem bildlichen und situativen Kontext (z.B. Auftraggeber, physischer Gegenstand des Textes) ergibt, nicht aber aus dem schriftlichen. Hier besitzt der menschliche Übersetzer einen großen Vorteil gegenüber der Maschine.

Bei einem vergleichsweise einfachen Text kann es sein, dass ein Post-Editing der maschinell erstellten Übersetzung ausreicht. Der Post-Editor muss jedoch auch in diesem Fall über die entsprechenden Fachkenntnisse in Bezug auf den Text verfügen, um z.B. terminologische Fehlübersetzungen korrekt ausbessern zu können. Eine „unbeaufsichtigte“ Übersetzung oder eine Prüfung durch den Laien oder Halb-Profi ist also auch in diesem Fall nicht möglich bzw. nicht ausreichend.

Post-Editing erscheint vielen auf den ersten Blick als eine sinnvolle Methode um den Übersetzungsvorgang zu beschleunigen und die Kosten zu verringern. Der Vorgang des Post-Editing birgt jedoch seine ganz eigenen Gefahren. So kann es sein, dass die von der NMÜ erstellte Übersetzung an der Oberfläche so stimmig klingt, dass Fehler leichter übersehen werden, die bei einer manuellen Übersetzung gar nicht erst aufgekommen wären.

Mit der Nutzung der NMÜ ergibt sich auch noch ein rechtliches Problem: die Haftbarkeit des Übersetzers. Im Falle von medizinisch, technisch und juristisch bedeutsamen Texten kann eine Fehlübersetzung fatale Folgen haben. Dementsprechend stellt sich die Frage, wer im Rahmen einer solchen Fehlübersetzung durch die NMÜ für die Konsequenzen haften würde.

Schlussendlich bleibt abzuwarten, in welche Richtung sich die maschinelle Übersetzung und der Umgang mit ihr entwickelt. Sicher ist jedoch, dass sowohl beim Einsatz als auch beim Ausbau der NMÜ noch viel Raum für Verbesserung ist.

Quellen

Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 1-15.

Breitner, Michael H. (2020) ‚Neuronales Netz‘ https://www.enzyklopaedie-der-wirtschaftsinformatik.de/wi-enzyklopaedie/lexikon/technologien-methoden/Neuronales-Netz/index.html/?searchterm= neuronale%20Netze Download vom: 02.09.2020

Castilho, S., Moorkens, J., Gaspari, F., Calixto, I., Tinsley, J., & Way, A. (2017). Is neural machine translation the new state of the art?. The Prague Bulletin of Mathematical Linguistics, 108(1), 109-120.

Felden, Carsten (2020). ‚Künstliche Intelligenz‘ https://www.enzyklopaedie-der-wirtschaftsinformatik.de/wi-enzyklopaedie/lexikon/technologien-methoden/kuenstliche-intelligenz Download vom: 02.09.2020

Gruntar, Ada (2019). Rechtstexte und maschinelle Übersetzung?. Beiträge zur Translation und Fachkommunikation, 131-147.

Long, Zi, et al. (2017). Translation of patent sentences with a large vocabulary of technical terms using neural machine translation. arXiv preprint arXiv:1704.04521.

Rechnen auf Zeit: DeepL setzt für Machine Learning auf Rechenzentrum von Verne Global. Verne Global: Rechnen auf Zeit: DeepL setzt für Machine Learning auf Rechenzentrum von Verne Global / Verne Global bietet höchste Ausfallsicherheit und die notwendige Skalierbarkeit für den neuen DeepL Translator – ots Presseportal – Advertorials – Tagesspiegel Download vom: 08.06.2021.

Stein, D. (2009). Maschinelle Übersetzung-ein Überblick. J. Lang. Technol. Comput. Linguistics, 24(3), 5-18.

Toral, A., & Way, A. (2018). What level of quality can neural machine translation attain on literary text?. Translation Quality Assessment. Springer, Cham., 263-287.

[1] Stein, D. (2009). Maschinelle Übersetzung-ein Überblick. J. Lang. Technol. Comput. Linguistics, 24(3), S. 9.

[2] Vgl. ebd.

[3] Vgl. ebd. S.7.

[4] Vgl. Felden, Carsten (2020) ‚Künstliche Intelligenz‘ https://www.enzyklopaedie-der-wirtschaftsinformatik.de/wi-enzyklopaedie/lexikon/technologien-methoden/kuenstliche-intelligenz download vom: 02.09.2020.

[5] Vgl. Breitner, Michael H. (2020) ‚Neuronales Netz‘https://www.enzyklopaedie-der-wirtschaftsinformatik.de/wi-enzyklopaedie/lexikon/technologien-methoden/Neuronales-Netz/index.html/?searchterm=neuronale%20Netze download vom: 02.09.2020.

[6] Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, S.2.

[7] Vgl. ebd. S.1.

[8] Vgl. ebd. S.1.

[9] Vgl. Rechnen auf Zeit: DeepL setzt für Machine Learning auf Rechenzentrum von Verne Global. Verne Global: Rechnen auf Zeit: DeepL setzt für Machine Learning auf Rechenzentrum von Verne Global / Verne Global bietet höchste Ausfallsicherheit und die notwendige Skalierbarkeit für den neuen DeepL Translator – ots Presseportal – Advertorials – Tagesspiegel download vom 08.06.2021.

[10] Vgl. ebd.

[11] Vgl. Toral, Antonio, and Andy Way (2018). “What level of quality can Neural Machine Translation attain on literary text?.” Translation Quality Assessment. Springer, Cham, S.263.

[12] Gruntar, Ada (2019). Rechtstexte und maschinelle Übersetzung?. Beiträge zur Translation und Fachkommunikation. S.144.

[13] Vgl. Long, Zi, et al. (2017). Translation of patent sentences with a large vocabulary of technical terms using neural machine translation. arXiv preprint arXiv:1704.04521.