Evaluación de un modelo transformador aplicado a la tarea de generación de resúmenes en distintos dominios = Evaluation of a transformer model applied to the task of text summarization in different domains Articles uri icon

publication date

  • March 2021

start page

  • 27

end page

  • 39

volume

  • 66

International Standard Serial Number (ISSN)

  • 1135-5948

Electronic International Standard Serial Number (EISSN)

  • 1989-7553

abstract

  • En los últimos años, las técnicas de deep learning han supuesto un gran impulso tecnológico en muchas de las tareas de Procesamiento de Lenguaje Natural (PLN). La tarea de generación de resúmenes también se ha beneficiado de estas técnicas, y en los últimos años se han implementado distintos modelos, logrando superar los resultados del estado de la cuestión. La mayoría de estos trabajos han sido evaluados en colecciones de textos periodísticos. Este artículo presenta un trabajo preliminar donde aplicamos un modelo transformador, BART, para la tarea de generación de resúmenes y lo evaluamos en varios datasets, uno de ellos formado por textos del dominio biomédico. = In recent years, deep learning techniques have provided a significant technological advance in many Natural Language Processing (NLP) tasks. Text summarization has also benefited from these techniques. Recently, several deep learning approaches have been implemented, surpassing the previous state of the art performances. Most of these works have been evaluated on collections of journalistic texts. This article presents a preliminary work where we apply a transforming model, BART, for text summarization. The model is evaluated on several datasets, one of them consisting of texts from the biomedical domain.

keywords

  • generación de resúmenes; transformadores; text summarization; transformers