Navigation path

Left navigation

Additional tools

Traduction automatique neuronale et enseignement : quelques pistes de réflexion

Pascaline Merten, chargée de cours, Présidente de l’École de Traduction et Interprétation de l’ULB et Sonja Janssens, Docteure, chercheuse, titulaire du cours d’Histoire et Théories de la Traduction

Les 29 et 30 septembre derniers, l’École de Traduction et Interprétation (ETI) de l’Université Libre de Bruxelles célébrait son installation dans ses nouveaux locaux et le lancement d’un programme de cours réformé en organisant un colloque. Celui-ci, fruit de la collaboration entre l’ETI, son centre de recherche Tradital et l’Université de Mons, soutenu financièrement par la faculté LTC, le FNRS, la Commission européenne et l’EMT, était intitulé « Enseigner la traduction et l’interprétation à l’heure neuronale ».

En effet, la traduction automatique neuronale (TAN), désormais incontournable dans le domaine de la traduction et de la traductologie, le devient logiquement aussi dans l’enseignement de la traduction. Les systèmes à base de corpus relèvent d’une « datafication » du monde en général et de la traduction en particulier. En amont, la TAN, comme sous-ensemble de l’intelligence artificielle, fait l’objet de recherches extrêmement actives et de développements qui ont un impact majeur sur le travail des professionnel.le.s d’aujourd’hui et se doivent donc d’être reflétés dans la formation des professionnel.le.s de demain.

Les communications retenues portaient aussi bien sur la manière dont la TAN modifie le paysage professionnel que sur les moyens de l’aborder dans l’enseignement de la traduction, ou sur les outils spécifiques et les nouvelles pratiques dans le monde de l’interprétation. Les réflexions des différents intervenant.e.s portaient sur le produit (comment évaluer la TAN mais aussi la post-édition, comment tarifer, comment comparer les systèmes, quelles sont les interventions nécessaires qui assurent la plus-value humaine, etc.) et s’intéressaient également au processus (quel est l’impact des algorithmes sur les performances, la qualité ou sur les biais induits).

Ce colloque riche en réflexions aura permis de faire ressortir les questions et perspectives suivantes :

  • Les enseignant.e.s en traduction, qui avaient l’habitude d’intégrer à leur cours la révision, se retrouvent à devoir y former aussi à la post-édition. Mais à quel stade intégrer la traduction automatique et la post-édition dans les programmes d’études ? Dès le Bachelier ? Au niveau du Master ? Également dans la formation continue et les ateliers de remise à niveau pour les enseignant.e.s ? Et dans le cadre des programmes universitaires, ces compétences doivent-elles être développées dans tous les cours de traduction ou uniquement dans quelques cours spécifiques ? Vers la langue maternelle exclusivement ou vers la langue étrangère également ?
  • Plusieurs intervenant.e.s posent qu’il importe de former les étudiant.e.s non seulement à la post-édition, mais aussi au paramétrage du système, qu’il est grand temps de les sensibiliser (tout comme le grand public) à la « machine translation literacy ». Ceci amène évidemment aussi des questionnements sur le contenu des cours de TAO traditionnels et sur la place, aux côtés de la TAN, des outils classiques comme les mémoires de traduction ou les bases de données terminologiques.
  • La technologisation du métier comme de l’enseignement a inévitablement un impact sur d’autres acquisitions de compétences, développées dans les premières années des programmes de cours : la formation en langues étrangères et en langue maternelle. Les recherches, dialogues entre enseignant.e.s et échanges de bonnes pratiques doivent permettre de faire évoluer également les habitudes didactiques dans l’enseignement des langues aux futur.e.s traductrices et traducteurs.
  • Dans le domaine dans l’interprétation, les avancées technologiques ont, sans doute plus encore que dans le monde de la traduction, l’effet de brouiller les frontières entre les sous-disciplines. Une nouvelle forme hybride d’interprétation apparaît, appelée « simconsec », incluant l’usage d’un enregistrement du discours dans la pratique de la consécutive. En simultanée, la transcription audio en texte, couplée à la TAN, ouvre de nouvelles perspectives. Mais est-il déjà temps d’intégrer ces nouveaux outils à la formation des jeunes interprètes ? Et comment le faire ?

Bien entendu, le changement de paradigme créé par les nouvelles technologies en général et la TAN en particulier bouscule le monde académique, qui peut se montrer moins réactif aux (r)évolutions que le monde professionnel. Les cascades d’acronymes décrivant les nouvelles réalités ont de quoi mettre mal à l’aise, tout comme les implications éthiques de la collecte automatique et de l’exploitation des données personnelles.

C’est avant tout aux chercheuses et chercheurs qu’il appartient d’appréhender ce progrès en marche et de dessiner les contours de l’avenir professionnel et pédagogique qui nous attend, comme l’ont fait brillamment les intervenant.e.s au colloque dont il est ici question. Mais la recherche, comme celles et ceux qui la pratiquent en ont bien conscience, ne peut négliger la place et le rôle de « l’élément humain ». Autant il serait irréaliste de lutter contre la technologie ou de l’ignorer, autant il serait irréaliste de croire que cette technologie sera auto-suffisante. Le consensus qui se dégage est qu’il faudra toujours, dans un avenir prévisible, des spécialistes hautement qualifié.e.s pour programmer, paramétrer, pré-éditer, post-éditer, etc.

De nombreuses questions restent ouvertes – quoi de plus normal dans une discipline scientifique si récente – mais ce colloque aura démontré que les perspectives théoriques, méthodologiques, pédagogiques et leurs applications pratiques sont à la fois fascinantes et prometteuses, aussi bien dans la sphère académique que dans la sphère professionnelle.

Gageons que de nouveaux échanges – entre les membres de l’EMT, entre autres – permettront de développer rapidement ces perspectives !

Comments are closed.