La big translation history es una herramienta conceptual y una nueva metodología para descentralizar la historia de la traducción, cultural y literaria
Usar herramientas digitales y ciencia de datos todavía es poco común en historia de la traducción, pero, tal y como han demostrado dos investigadoras del Laboratorio de Investigación en Estudios Literarios Globales (GlobaLS), adscrito al Internet Interdisciplinary Institute (IN3) y a los Estudios de Artes y Humanidades de la Universitat Oberta de Catalunya (UOC), el análisis de datos masivos y el aprendizaje automático (machine learning) permitirá matizar, e incluso reescribir, la historia de las traducciones a lo largo del tiempo.
En un artículo publicado en la revista científica Translation Spaces, las investigadoras Diana Roig-Sanz, profesora de investigación ICREA y líder del grupo GlobaLS ?cuya investigación también está financiada por el Consejo Europeo de Investigación, con una beca Starting Grant?, y Laura Fólica, investigadora posdoctoral del mismo grupo, proponen el concepto big translation history ?historia de la traducción a gran escala? como una metodología y herramienta conceptual para analizar grandes cantidades de datos y metadatos. El objetivo es permitir cuestionar los relatos eurocéntricos sobre los intercambios culturales y la circulación del libro y desvelar patrones que hayan quedado ocultos o sean poco conocidos.
Para demostrarlo, esta investigación incluye un estudio de caso en el que se analiza la circulación de la literatura traducida y sus agentes implicados ?escritores, traductores, editores? en diversos países iberoamericanos entre 1898, fecha de la pérdida de Cuba por parte del Imperio español, y 1945, el final de la Segunda Guerra Mundial, a partir de los metadatos extraídos del catálogo de la Biblioteca Nacional de España.
Digitalización y datos masivos para reinterpretar el pasado
"La big translation history representa un gran avance, ya que desafía la investigación previa sobre la circulación de traducciones, aprovechando los metadatos como fuente de análisis y la creciente digitalización de textos", explican Roig-Sanz y Fólica. "Al comparar conjuntos de datos y flujos de traducción a una escala que un solo investigador no podría abordar, estamos contribuyendo a reescribir una nueva historia de la traducción que pueda ser más inclusiva, con capacidad para cuestionar los mal llamados centros y periferias e incluir perspectiva de género para estudiar el papel de las traductoras", precisan.
El análisis que propone esta nueva herramienta conceptual se basa en tres fundamentos principales: una investigación a gran escala, geográfica y temporal; el uso de datos masivos, entendidos como macrodatos (big data) o pocos datos (little data), que incluye los que son a menudo heterogéneos y no están estructurados, y la utilización de técnicas computacionales como el aprendizaje automático, la minería de datos o la inteligencia artificial.
Cuestionar la historiografía de la traducción
Para el caso de estudio de la circulación de traducciones entre 1898 y 1945, Roig-Sanz y Fólica han utilizado el catálogo de la Biblioteca Nacional de España, que cuenta con 28 millones de volúmenes. A pesar de los retos metodológicos que esta investigación implica, como cotejar los resultados con los metadatos de los catálogos de otras bibliotecas iberoamericanas, este estudio consigue ofrecer una nueva visión sobre los mayores centros de producción editorial en español, las lenguas más traducidas o los autores hispánicos y extranjeros con mayor representación.
"Uno de los objetivos principales de esta nueva perspectiva es cuestionar las historiografías nacionales de la traducción", explican Roig-Sanz y Fólica. "Este cuestionamiento puede ser muy valioso para investigaciones que estudian etapas históricas en las que las fronteras geográficas se han modificado y han experimentado cambios importantes, pero también para los trabajos sobre literaturas más pequeñas y menos traducidas", añaden.