Estudio concluye que casi la mitad de los resúmenes de noticias mediante asistentes de IA contienen errores

Y los errores pueden quedar anclados en el imaginario del lector, haciendo con ello que persistan incluso habiendo sido corregidos.
28 de octubre, 2025

Muchos de nosotros vivimos en un mundo en el que abunda la información pero falta tiempo para procesarla y, de ahí, que los asistentes de IA que permiten realizar resúmenes de noticias, estén ganando popularidad. Pero ¿son fiables?

Un reciente estudio liderado por la BBC y coordinado por la Unión Europea de Radiodifusión ha detectado que el 45% de las respuestas de estos sistemas contenía al menos un error significativo, con especial incidencia en problemas de atribución de fuentes.

Hago aquí un punto y aparte para explicar que, por sistema de entrenamiento -y explicándolo de una manera muy simplista-, muchos modelos de lenguaje de IA generativa reciben una recompensa por respuesta dada, por lo que cuando no la saben… se la inventan. Son las famosas alucinaciones.

Además del 45% de respuestas generadas con IA que contenían algún problema significativo, un 31% del total de las respuestas dadas por la IA mostraron problemas graves como falta de atribución a medios, atribución engañosa o bien incorrecta.

El 20% de los contenidos generados contenía importantes problemas de precisión, incluídas alucinaciones e información obsoleta.

Entre los asistentes de IA analizados, Google Gemini tuvo el peor resultado, con problemas significativos en el 76% de las respuestas, más del doble que los otros asistentes.

La investigación también señala que muchos usuarios dan por buenas las respuestas cuando incluyen señales como fechas, cifras y nombres reconocibles, lo que reduce la propensión a verificar, obviando con ello los errores.

Todos los errores importan, pero los factuales son los más dañinos para la confianza. El 84% de los encuestados afirmó que un fallo factual impacta de manera importante en su confianza en un resumen de IA; el 81% sostiene lo mismo cuando se presentan opiniones como hechos; el 76% lo indica ante errores de fuente y atribución; y el 73% cuando el sistema introduce opiniones no presentes en los artículos originales.

El estudio también halló que pequeñas inexactitudes en entornos de lectura rápida anclan interpretaciones que pueden persistir aunque luego se corrijan.