Red de Bibliotecas Virtuales de Ciencias Sociales en
América Latina y el Caribe

logo CLACSO

Por favor, use este identificador para citar o enlazar este ítem: https://biblioteca-repositorio.clacso.edu.ar/handle/CLACSO/128040
Título : Algorithmic models and automated fact-checking. A systematic literature review
Modelos algorítmicos y fact-checking automatizado. Revisión sistemática de la literatura
Palabras clave : automated fact-checking;disinformation;fake news;systematic literature review;algorithms;fact-checking automatizado;desinformación;fake news;revisión sistemática;algoritmos
Editorial : Ediciones Complutense
Descripción : Automated fact-checking consists of automatically determining the veracity of a claim by applying existing artificial intelligence technologies to classify it into one of the categories commonly used by human fact-checkers (true, misleading, false, etc.). This paper presents the first systematic literature review in Spanish on the evolution of research on this topic. It also aims to analyze the level of accuracy of algorithmic solutions and the impact of published work, using descriptive and inferential statistical treatments (chi-square and Kruskal-Wallis tests). According to our results, the highest volume of contributions was concentrated in the last three years, mainly from the Asian region and United States. Papers proposing integrated algorithmic methods or systems predominate. Studies on linguistic models, which still have several limitations and below-average effectiveness, are in the majority. There is little attention to models based on image analysis, and the presence of fake audio detection algorithms is practically nonexistent. In line with previous work, our study concludes that there are no statistically significant differences in the level of accuracy of the diverse algorithmic models proposed, despite their different degrees of technical complexity.
El fact-checking automatizado consiste en la comprobación automática de la veracidad de una información aplicando las tecnologías de inteligencia artificial existentes para clasificarla en alguna de las categorías comúnmente usadas por los fact-checkers humanos (verdadero, engañoso, falso, etc.). Este trabajo presenta el primer análisis bibliométrico en castellano -de tipo cuantitativo- sobre la evolución y los países de procedencia de la investigación sobre esta práctica. Asimismo, pretende analizar el nivel de precisión de las soluciones algorítmicas y el impacto de los trabajos publicados, utilizando para ello tratamientos estadísticos descriptivos e inferenciales (pruebas de chi cuadrado y test de Kruskal-Wallis). De acuerdo con nuestros resultados, en los últimos tres años se concentra el mayor volumen de aportaciones, que proceden mayoritariamente de la región asiática y Estados Unidos. Predominan los trabajos que proponen métodos o sistemas algorítmicos integrados. Son mayoritarios los estudios sobre modelos lingüísticos, que presentan aún varias limitaciones y una efectividad inferior a la media. Se observa una reducida atención hacia los modelos basados en el análisis de imágenes, y resulta prácticamente nula la presencia de algoritmos de detección de audios falsos. En línea con trabajos anteriores, nuestro estudio concluye que no existen diferencias estadísticamente significativas en el nivel de precisión de los diversos modelos algorítmicos propuestos, a pesar de sus diferentes grados de complejidad técnica.
Otros identificadores : https://revistas.ucm.es/index.php/DCIN/article/view/77472
10.5209/dcin.77472
Aparece en las colecciones: Servicio Documentación Multimedia. Sección Departamental de Biblioteconomía y Documentación. Universidad Complutense de Madrid - SDM - Cosecha

Ficheros en este ítem:
No hay ficheros asociados a este ítem.


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.