Like-Blog
So interessant können Übersetzungslösungen sein
Warum Like-Blog? Nun, zum einen ist dieser Blog ein Blog, den Sie mögen (und regelmäßig lesen) sollten – zumindest dann, wenn Sie sich für Übersetzungen interessieren. Zum anderen ist das hier behandelte Thema eines, in dem die sinnstiftende Ähnlichkeit zwischen einem Text und seiner Übersetzung im Sprachenpaar Englisch-Deutsch eine zentrale Rolle spielt. Auf dieser Seite diskutiere ich einige interessante Übersetzungslösungen, die mir im Laufe meiner Tätigkeit als Übersetzer und Übersetzungswissenschaftler über den Weg gelaufen sind.
Eine Übersetzungslösung ist immer nur so gut wie die sie stützenden Argumente. Wer also positive oder negative Übersetzungskritik übt, muss diese auch begründen. Wie gut eine Übersetzungslösung ist, erweist sich erst in Relation zu anderen möglichen Übersetzungslösungen in einer gegebenen Übersetzungssituation. Daher sollte ein Übersetzungskritiker oder eine Übersetzungskritikerin nicht nur sagen, warum eine Übersetzungslösung schlecht ist, sondern auch aufzeigen, wie eine bessere Lösung aussehen könnte. Diese Grundsätze der Übersetzungskritik werde ich versuchen zu beherzigen. Das bedeutet auch: Wenn Sie Fragen zu meiner Argumentation haben oder anderer Meinung sind, lassen Sie es mich gerne wissen unter 04171 6086525 oder per E-Mail an bittner@businessenglish-hamburg.de. Doch nun genug der einleitenden Worte. Ich wünsche Ihnen viel Spaß beim Lesen!
Künstliche Intelligenz (Dezember 2024)
Nein, dieser Blog-Eintrag handelt nicht von Übersetzungsfehlern, wie sie immer wieder bei den automatischen Übersetzungen mit Hilfe von künstlicher Intelligenz vorkommen. Dieser Blog-Eintrag handelt von drei kleinen Experimenten, die ich im Sommer 2024 im Rahmen einer Fortbildung gemacht habe. Ein Thema dieser Fortbildung behandelte die Frage, wie KI-Anwendungen für den Sprachunterricht nutzbar gemacht werden können. In dem Zusammenhang habe ich experimentell überprüft, ob diese Anwendungen einen Text in seiner grammatischen Struktur richtig erfassen können.
KI-Anwendungen für den Sprachbereich erzeugen ihren Output auf der Grundlage von Wahrscheinlichkeiten von Sprachmustern, wie sie in unzähligen Korpora vorkommen, mit denen die KI-Anwendungen trainiert wurden. Es ist also zu erwarten, dass bei grammatischer Zweideutigkeit die Variante bevorzugt wird, die häufiger vorkommt. Wurden diese Erwartungen in meinen Experimenten erfüllt?
Ausgangspunkt für die Experimente war der folgende Satz:
“It can be incredibly difficult for a disabled student to get a wheelchair on to a salt marsh,” he says. “But if the learning aims are being immersed in an environment, and making discoveries, VR can achieve that.” (Business Spotlight 6/19, S. 64)
Wenn Sie diesen Blog regelmäßig lesen, kommt Ihnen dieser Satz vielleicht bekannt vor. Seine Grammatik ist an einer Stelle zweideutig – mit einer naheliegenden und einer weniger naheliegenden Interpretation. Damit der Satz einen Sinn ergibt, muss jedoch die weniger naheliegende grammatische Variante gewählt werden. Die Problematik habe ich in meinem Blog-Eintrag vom November 2019 ausführlich erläutert. Es geht darum, ob „are being immersed“ eine Verbform ist (nämlich die passive Verlaufsform des Verbs „immerse“ im Präsens), oder ob „being immersed“ als Gerundium (nominalisiertes Verb) aufzufassen ist, wobei „are“ als finites Verb fungiert. Grammatisch möglich sind beide Varianten, semantisch sinnvoll ist nur die zweite Variante. Wie schon aus meinem Blog-Eintrag vom November 2019 herauszulesen war, und wie ich mehrfach ausgetestet habe, scheint die erste Variante muttersprachlichen Lesern oder Leserinnen naheliegender – jedenfalls so lange, bis sie erkennen, dass diese Variante wenig sinnvoll ist.
In meinem ersten Experiment habe ich getestet, wie ElevenLabs mit diesem Satz umgeht. Mit ElevenLabs lässt sich schriftlicher Text in eine Audiodatei verwandeln. Das Ergebnis ist ein Hörtext, der in Bezug auf Aussprache und Intonation absolut perfekt gesprochen ist – wie von einem Muttersprachler oder einer Muttersprachlerin. Ich habe ElevenLabs den gesamten Absatz mit dem obigen Satz als letztem Satz in einen Hörtext umwandeln lassen und für den Output eine männliche amerikanische Stimme gewählt. Für die semantisch richtige Intonation müsste zwischen „are“ und „being immersed“ eine kleine Pause zu hören sein. Das war jedoch nicht der Fall. Die (vermutlich wahrscheinlichere) erste Variante wurde gewählt, obwohl sie keinen Sinn ergibt.
Für mein zweites Experiment habe ich ChatGPT den entsprechenden Absatz ins Deutsche übersetzen lassen. Auf diese Übersetzung soll hier nicht im Detail eingegangen werden; entscheidend ist, dass der infrage stehende Satz sinngemäß richtig übersetzt wurde. Dieses Ergebnis kam eher unerwartet, da ich davon ausgegangen war, dass (wie bei ElevenLabs) der ersten grammatischen Variante der Vorzug gegeben würde. Hatte ChatGPT etwa den Sinn des Ausgangssatzes richtig erfasst und deshalb eine sinngemäß richtige Übersetzung produziert?
In meinem dritten Experiment fühlte ich ChatGPT weiter auf den Zahn. Mit einer klaren, freundlich formulierten Anweisung in englischer Sprache bat ich die KI-Anwendung, mir die grammatische Struktur des letzten Satzes zu erläutern und dabei insbesondere auf Haupt- und Nebensätze sowie Satzstrukturen (Subjekt, Verb, Objekt) einzugehen. Das Ergebnis war verblüffend: ChatGPT identifizierte lediglich „are“ als das finite Verb und gab „being immersed“ den syntaktischen Status eines Objektes. Nun gut, genau genommen handelt es sich um eine Nominativergänzung, aber das ist für unsere Zwecke nicht von Belang. Entscheidend ist, dass nicht „are being immersed“ als Verb des if-Satzes identifiziert wurde.
Wer angesichts dieser Ergebnisse nun meint, ChatGPT sei – zumindest in sprachlicher Hinsicht – eine KI-Anwendung, auf die man sich verlassen kann, der sei vorgewarnt. Wenn ChatGPT von zwei Computern zur gleichen Zeit zwei identische Anweisungen erhält, produziert die KI-Anwendung unterschiedlichen Output.