Langages n° 201 (1/2016)
Pour acheter ce numéro, contactez-nous
Recevez les numéros de l'année en cours et accédez à l'intégralité des articles en ligne.
Une bonne traduction implique de comprendre le texte à traduire pour le transposer aussi finement que possible dans une langue-cible. La traduction automatique a longtemps reposé sur ce constat et c’est essentiellement par une absence ou du moins une déficience au niveau de l’analyse sémantique que l’on a longtemps expliqué l’échec de la première vague de systèmes de traduction automatique (1950-1965). Les recherches se sont alors orientées vers la « compréhension automatique » visant justement à fournir une représentation formelle du contenu d’un texte. À rebours de cette conception quasi unanimement acceptée à la fin des années 1980, on a vu se généraliser depuis les années 1990 des systèmes reposant sur une approche statistique et sans représentation explicite de la sémantique des textes. On s’interrogera sur cet état de choses, sur la raison du succès des systèmes actuels et sur leurs limites éventuelles.
The translation activity involves understanding the text to be translated so as to transpose the main ideas as precisely as possible in the target language. It is largely assumed that the first generations of machine translation systems (1950-1965) failed because of the absence of semantic analysis or at least because of weaknesses in their semantic analysis component. Research has then largely focused on text understanding, in order to be able to calculate a relevant semantic representation of the text. Contrary to this approach, the late 1980s and 1990s have seen new kinds of systems based on a purely statistical analysis, with no explicit semantic representation of the textual content. In this article we will investigate the attitude of current systems towards semantics. To what extent do current systems based on large collections of texts (the “big data” approach) integrate semantic information ?