L’évaluation automatique de textes connaît actuellement un succès grandissant en raison de son importance dans le champ de l’éducation et, tout particulièrement, de l’apprentissage des langues étrangères. Si des systèmes efficaces ont été développés ces quinze dernières années, peu d’entre eux prennent en compte le niveau discursif. Récemment, quelques recherches ont proposé de remédier à cette lacune au moyen de mesures automatiques de la cohésion lexicale obtenues à partir d’une analyse sémantique latente, mais les résultats n’ont pas été conformes aux attentes. En s’inspirant d’un modèle bien connu de l’expertise rédactionnelle, la présente recherche propose d’employer un nouvel indice de cohésion dérivé des travaux en segmentation thématique de textes. L’efficacité de cet index est confirmée au travers de l’analyse d’un corpus de 223 textes d’apprenants de l’anglais comme langue étrangère. La conclusion discute les limitations principales de cette étude exploratoire et propose des pistes de développement.
Automatic essay grading is currently experiencing a growing popularity because of its importance in the field of education and, particularly, in foreign language learning. While several efficient systems have been developed over the last fifteen years, almost none of them take the discourse level into account. Recently, a few studies proposed to fill this gap by means of automatic indexes of lexical cohesion obtained from Latent Semantic Analysis, but the results were disappointing. Based on a well-known model of writing expertise, the present study proposes a new index of cohesion derived from work on the thematic segmentation of texts. The efficiency of this index is supported through the analysis of a corpus of 223 essays of learners of English as a foreign language. The conclusion discusses the main limitations of this exploratory study and proposes further avenues for development