La verdad incómoda sobre la IA: el 45% de sus respuestas sobre noticias son falsas, según informes y análisis de expertos
26 de octubre de 2025

Los asistentes de inteligencia artificial se han convertido en la nueva puerta de entrada a la información. Millones de personas los consultan a diario para resolver dudas, entender el mundo y hasta reemplazar los titulares de los medios tradicionales. Pero un estudio encabezado por la Unión Europea de Radiodifusión (UER) y la BBC pone en duda su fiabilidad: casi la mitad de sus respuestas sobre noticias recientes contenían errores o directamente información inventada.
El informe evaluó más de 3.000 respuestas generadas por ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas distintos. El resultado fue contundente: un 45% de ellas presentaba errores graves, y el 81% mostraba algún tipo de imprecisión, ya sea en contexto, atribución o interpretación.
Detrás de este número hay una advertencia seria: la desinformación ya no proviene solo de las redes sociales o portales dudosos, sino también de sistemas que los usuarios creen imparciales, objetivos y “más inteligentes” que los humanos.

El experimento global que expuso los errores de las máquinas
El trabajo, realizado con la participación de 22 medios públicos de 18 países, se propuso medir la exactitud y fiabilidad de las respuestas que ofrecen los principales modelos de IA cuando se les consulta sobre noticias recientes.
Los investigadores no solo analizaron si los datos eran correctos, sino también cómo los asistentes distinguían entre hechos y opiniones, y si las fuentes citadas eran reales. Los resultados mostraron un patrón preocupante: un tercio de las respuestas incluía atribuciones falsas, tergiversadas o inexistentes.
Entre los modelos evaluados, Gemini, de Google, fue el que mostró más fallos: un 72% de sus respuestas presentaban problemas de referencia o atribución. En contraste, Copilot (Microsoft) y Perplexity tuvieron menos del 25% de respuestas con errores de este tipo.
El estudio también halló ejemplos llamativos de información desactualizada: desde leyes inexistentes hasta personajes fallecidos que las IAs seguían describiendo como vivos. Incluso se registraron confusiones entre países o eventos ocurridos años atrás.
Las “alucinaciones” que siguen persiguiendo a la inteligencia artificial
Las llamadas alucinaciones —cuando una IA genera información falsa o sin sustento real— no son un problema nuevo, pero este estudio demuestra que persisten incluso en los modelos más avanzados.
OpenAI y Microsoft han reconocido que reducirlas es uno de sus mayores desafíos técnicos y éticos. Google, por su parte, promete avances en su integración con fuentes verificadas. Y Perplexity sostiene que su modo de “Investigación profunda” alcanza más del 93% de precisión factual.

Aun así, los investigadores advierten que el lenguaje natural es demasiado complejo para garantizar exactitud constante. Los modelos generativos no “saben” nada: predicen palabras en función de patrones estadísticos. Por eso, pueden crear afirmaciones plausibles pero falsas, especialmente en temas de actualidad o con cambios recientes.
En otras palabras, cuanto más reciente es la información, más fácil es que la IA se equivoque.
¿Aliadas o fuentes poco confiables?
La expansión de los asistentes de IA plantea un dilema: si millones de personas los usan como fuente principal de noticias, ¿cómo afecta eso la percepción pública de la verdad?
El informe recomienda a los usuarios adoptar una postura crítica. Verificar los datos en medios confiables, contrastar versiones y desconfiar de respuestas que no incluyan fuentes claras. “Las herramientas de IA pueden ayudar a resumir o contextualizar, pero no deben reemplazar al periodismo profesional”, advierte el documento.
En un entorno donde la velocidad parece más importante que la precisión, el riesgo es evidente: un error repetido por una máquina puede propagarse más rápido que cualquier desmentida.
Por eso, el informe concluye con una advertencia tanto a las empresas tecnológicas como al público: la inteligencia artificial puede ser una gran aliada informativa, pero aún no ha demostrado ser una fuente confiable. La responsabilidad, por ahora, sigue siendo humana.
