Todas as inúmeras versões de um texto carregam o trabalho árduo do revisor, que aprimora o texto até que este chegue não na sua versão final, mas na versão possível, considerando-se a norma, o canal, o público e o propósito. A partir disso, este artigo objetiva discutir três âmbitos que se limitam e se complementam no trabalho do revisor – a norma, a prática e o poder –, propondo um olhar sistêmico e inter-relacional entre eles e pensando-os dentro de uma conjuntura social em que sobressaem os delineamentos sociais, destacando o apagamento do revisor, o manto institucional e as expectativas sociais.
This paper analyzes the quality of machine translated interlingual subtitles, which were post-edited in the language pair EN/PT-BR. Our analyses applied the FAR model, a Translation Quality Assessment Model, to the PT-BR subtitles of The Red Sea Diving Resort movie trailer, correlating it to empirical data collected with translators (quality assessment) and audience (reception). Reception data was collected with undergraduate students, which were divided into two groups: the control group that watched the subtitled trailer available on Netflix; and the experimental group that watched the trailer with post-edited subtitles. Quality data was collected with translators and they watched the trailer with post-edited subtitles. We used a 5-point Likert-type scale, a questionnaire and a guided think-aloud protocol to collect our data. Data collected with both translators and students were correlated with the FAR model error scores (Functional Equivalence, Acceptability and Readability). Our results indicate that the post-edited subtitles had good quality in terms of meaning and target language norms; however, the technical parameters had lower quality, which affected the trailer appreciation as reported by most of the audience. Due to the small sample size, further empirical studies are required to obtain solid standards for assessing the quality of post-edited subtitles.
Este artigo relata um estudo investigativo, a partir do uso de rastreamento ocular e do registro de toques de teclado e de mouse, sobre o esforço cognitivo despendido por tradutores para pós-editar metáforas traduzidas automaticamente ou para traduzir metáforas manualmente. Hipotetizamos que a pós-edição exigiria menos esforço do que a tradução manual. Para testarmos essa hipótese, foi realizado um experimento com dois grupos diferentes de participantes. 14 participantes pós-editaram um texto jornalístico e 8 participantes traduziram manualmente o mesmo texto-fonte. A análise baseou-se em dados de rastreamento ocular relacionados à duração total da fixação e dados de registro de toques de teclado e de mouse (inserções, exclusões e pausas). A análise dos dados mostrou que o esforço cognitivo necessário para pós-editar o insumo da tradução automática é menor quando comparado à tradução manual.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.