Bref : TAUS MT Series du 30 avril
J’ai regardé pour vous le webinaire TAUS intitulé « MT Series: Automated Translation in the Enterprise ».
Cette conférence virtuelle organisée par TAUS le 30 avril 2020 était dédiée à certains de nos clients, les grandes entreprises qui confient leurs traductions aux agences de traduction ou qui ont encore les moyens financiers de se permettre d’embaucher des linguistes à plein temps. Évidemment, le sujet principal était la traduction automatique, mais du point de vue du client final. Les invités ont beaucoup parlé de la traduction automatique « brute ». Ce n'est pas étonnant, car ces entreprises veulent réduire les coûts et automatiser les processus de traduction autant que possible.
Voici les points clés.
Mille
Le premier invité représentait Microsoft et a centré sa présentation sur le chiffre 1000 :
« La traduction automatique permet de traduire 1000 fois plus vite »
« La traduction automatique coûte 1000 fois moins cher »
« La traduction automatique n'est pas 1000 fois pire ».
En effet, les chiffres qu'il a présentés indiquent que la « traduction » d'un million de mots coûte 250 000 USD si elle est faite par un humain, 180 USD si elle est faite par un moteur de traduction automatique personnalisé et 70 USD si elle est faite par un moteur de traduction automatique général.
L'objectif de tout fournisseur de services de traduction automatique comme Microsoft est évidemment celui d'augmenter le volume des traductions automatiques « brute », c’est-à-dire les traductions de bonne qualité qui ne sont pas post-éditées. L’invité a déclaré que pour les 20 premières combinaisons linguistiques (avec l'anglais comme langue source) « nous nous rapprochons de la qualité humaine ». Cette égalité de qualité entre traduction automatique et traduction humaine est entravée par le fait que les moteurs de traduction automatique n'ont aucune connaissance du monde réel, ce qui entraîne un manque de contexte sur lequel la machine peut s'appuyer.
L'une des erreurs les plus catastrophiques ? Un moteur de traduction automatique qui « hallucine ».
J’ai souri lorsque l’invité a dit que l'une des erreurs les plus catastrophiques se vérifie quand le moteur de traduction automatique « hallucine », c'est-à-dire lorsqu'il ajoute des concepts non présents dans le texte original.
Pour en rester à la qualité d'une traduction automatique « brute », celle-ci varie (bien sûr) en fonction de la combinaison linguistique. Chers collègues italiens, nous sommes les plus malchanceux : la combinaison anglais-italien donne les meilleurs résultats. Le français, en revanche, occupe la quatrième position du classement et l'allemand se trouve en douzième position. Ne vous inquiétez pas : il s'agit d'un classement interne établi par Microsoft. Si l’on utilisait un autre moteur de traduction automatique, ce classement serait différent.
Brute
« Brute » est le mot clé du discours du deuxième invité, qui représentait l’entreprise japonaise Nikon. En 2015, ils confiaient près de 35 % des traductions à des linguistes externes. En 2019, grâce à l'utilisation de moteurs de traduction automatique hautement personnalisés, créés parce que « il est impossible de tout faire traduire par des humains », ils n'ont externalisé que 5 % de leur travail de traduction. Le reste se fait en interne à l'aide de logiciels propriétaires mis à la disposition de tous les employés, y compris les linguistes internes. Bien entendu, le nombre de linguistes a été réduit, mais l'animateur a déclaré que les linguistes doivent désormais faire preuve de nouvelles compétences : ils doivent apprendre à utiliser la traduction automatique (en se formant sur la post-édition) et à gérer les données. Voilà pourquoi c’est important de diversifier vos services…
Du côté des linguistes, comme on vient de le dire, ceux-ci ont dû s'adapter en apprenant à faire de la post-édition. Dans le même temps, la qualité de la traduction brute s'est considérablement améliorée grâce à l'utilisation de moteurs très spécifiques.
37% des traductions brutes sont considérées comme étant d'excellente qualité et ne sont pas modifiées.
Je vous rappelle que ce sont des entreprises qui ont les moyens de se permettre de créer leur propre moteur de traduction (ou plusieurs moteurs). Nikon en a créé trois pour des raisons différentes.
L'invité a ensuite expliqué que dans certains contextes, ils publient directement les traductions brutes et laissent l'utilisateur final évaluer leur qualité. Vous avez bien lu : ils font traduire le texte par la machine et ils le publient immédiatement sur Internet : aucun traducteur ne vérifie le résultat obtenu. En réalité, cette « évaluation » faite par les utilisateurs finaux ne porte pas sur la qualité de la traduction, mais sur la question de savoir si la traduction automatique brute a atteint l'objectif final. Le texte original et la traduction ne sont pas comparés. L'utilisateur final se voit demander « Ces informations vous ont-elles été utiles ? » et il choisit un classement entre 1 et 5 étoiles.
Son message était clair : ne vous focalisez pas sur la qualité de la traduction automatique, mais sur son utilité (sa capacité à atteindre l'objectif final). En conclusion, lorsqu'on lui a demandé quelle était la meilleure façon d'évaluer la qualité d'une traduction automatique, il a répondu : les humains !
À vos claviers.