Avec la traduction instantanée des avis sur TripAdvisor et sur Amazon, des commentaires sur Facebook, des sites web… nous sommes aujourd’hui habitué.e.s à voir des contenus traduits de façon immédiate. Or, cette possibilité était inimaginable il n’y a encore pas si longtemps.
Pour Bernardin et al. (2020), « Le volume de documents et de contenus à traduire a augmenté de manière exponentielle dans un monde global où les usagers sont habitués à lire les informations dans leur propre langue ». En 2022, la taille du secteur des services linguistiques dans le monde serait de 50 milliards USA. Cette augmentation vertigineuse de besoins de traductions se produit conjointement avec l’utilisation généralisée des logiciels de traduction automatique (TA) par les organisations et les particuliers.
Le volume de contenus à traduire explose… l’utilisation de la TA aussi
La généralisation de la TA est en train de changer profondément le panorama des services de traduction : depuis quelques années, des nouveaux métiers se sont développés, dont la post-édition. En effet, les services linguistiques des entreprises et des organisations recourent de plus en plus aux logiciels de TA pour assurer leurs traductions. En Suisse, l’administration fédérale a acheté en 2018 une licence DeepL Pro Starter pour la traduction de ses textes internes.
Des premiers systèmes de TA à la traduction neuronale (NMT)
La traduction automatique ne date pas d’hier : ses origines se retrouvent avant les années 1950 avec le Weaver’s Memorandum. Les premiers modèles de TA étaient utilisés dans des domaines spécifiques ayant un vocabulaire limité (par. ex., les bulletins météorologiques). Ces modèles s’appuyaient sur des règles. Mais du fait qu’un dictionnaire a environ 50 000 mots, il devenait impossible de mettre en contexte tous les mots d’une langue pour que combinés, ils produisent du sens.
L’arrivée d’internet dans les années 1990 a permis d’utiliser des corpus parallèles multilingues, ce qui a donné naissance aux premiers modèles statistiques de TA. Ils calculaient la probabilité d’occurrence d’un mot par rapport au mot précèdent dans une phrase. Dès le début, la TA s’est heurtée à certains obstacles. La langue n’est pas que des mots, mais du sens qui varie avec le contexte. Pour Poibeau (2019), il est impossible d’établir des règles capables de faire des prédictions pour l’ensemble d’une langue, car il existe un infini de contextes et de phrases possibles.
C’est en 2016 que tout change. Google annonce qu’il adopte la traduction neuronale pour son service Google Translate. La traduction neuronale (NMT), basée sur les réseaux neuronaux avancés et sur l’apprentissage profond (deep learning) dépasse le niveau expérimental pour devenir le nouveau standard en TA.
La NMT fonctionne sur le principe de word embedding (plongement des mots) ou un « ensemble de méthodes d’apprentissage visant à représenter les mots d’un texte par des vecteurs de nombres réels ». Ce qui change dans la NMT par rapport aux modèles statistiques est le fait que le système considère non seulement la probabilité d’occurrence d’un mot, mais son sens et le sens des mots qui l’entourent. L’analyse se fait sur plusieurs couches. Le système « apprend » à interpréter à chaque analyse effectuée à quel contexte appartient un mot et ses mots voisins sans avoir besoin de règles explicites. Puisque les systèmes de NMT ont besoin de corpus de millions de documents préalablement traduits, ils fonctionnent nettement mieux pour des de langues pour lesquelles il existe d’énormes volumes de données (p.ex., anglais-français) que pour des couples de langues qui ne disposent pas d’une grande quantité de données (p.ex., arabe-chinois).
Même si la machine, a différence du traducteur humain, n’est pas pour l’instant capable de reconnaitre les métaphores, le langage figuré ou les jeux de mots, l’état actuel de la NMT permet déjà de satisfaire une grande partie des besoins en traduction des entreprises et des organisations. Cela amène à considérer le niveau de qualité souhaitable pour un certain type de traduction (Aramberri, 2014). Pour des documents du domaine médical et juridique qui exigent la plus haute précision à cause des conséquences que des erreurs éventuelles pourraient entraîner, une traduction humaine reste essentielle. Par contre, de nombreuses organisations utilisent désormais la formule NMT + post-édition pour traduire des milliers de documents internes afin de raccourcir les délais et diminuer les coûts.
Les systèmes de NMT ne cessent pas de d’améliorer. En même temps, les métiers linguistiques et les traducteurs ont dû s’adapter aux changements technologiques. De nouveaux métiers vont apparaitre dans les années à venir. Il n’en reste que « les traducteurs humains sont toujours les arbitres ultimes de ce qui est une bonne traduction, de ce qui ne l’est pas, de ce qui doit être changé, et ce qui, compte tenu du résultat de la TA, doit être traduit à partir de zéro. » (Bernardini et al.).
L’avenir aura besoin de spécialistes sachant allier connaissances linguistiques et utilisation des derniers outils technologiques.
Bibliographie
ARANBERRI, Nora, 2014. Posedición, productividad y calidad. Tradumàtica. 12. 471-477. [consulté le 12 novembre 2022]. Disponible à l’adresse : https://revistes.uab.cat/tradumatica/article/view/n12-aranberri
Bernardini, S., Bouillon, P., Ciobanu, D., van Genabith, J., Hansen-Schirra, S., O’Brien, S., Steiner, E., et Teich, E., 2020. Language service provision in the 21st century: Challenges, opportunities and educational perspectives for translation studies. In Sijbolt Noorda, Peter Scott,Martina Vukasovic (Ed.), Bologna process beyond 2020: Fundamental values of the EHEA (pp. 297-303) Bononia University Press.
DABRE, RAJ, CHU, Chenhui et Kunchukuttan, Anoop, 2020. A Comprehensive Survey of Multilingual Neural Machine Translation. ACM Computing Surveys. 53. 1-38. [consulté le 15 novembre 2022]. Disponible à l’adresse : https://arxiv.org/abs/2001.01115
KRÜGER, Ralph, 2020. Explicitation in Neural Machine Translation. Across Languages and Cultures, 21(2), 195–216. [consulté le 12 novembre 2022]. Disponible à l’adresse : https://doi.org/10.1556/084.2020.00012
POIBEAU, Thierry, 2019. Babel 2.0. Où va la traduction automatique ?. Paris : Odile Jacob.
STAHLBERG, Felix, 2020, Neural Machine Translation: A Review. The Journal of Artificial Intelligence Research, 69, 343–418. https://jair.org/index.php/jair/article/view/12007
Laisser un commentaire