Las plataformas de inteligencia artificial son cada vez más vulnerables a la desinformación. Según un informe publicado este jueves por NewsGuard, la tasa de respuestas con información falsa casi se ha duplicado en doce meses: del 18 % en agosto de 2024 al 35 % en agosto de 2025.
El análisis, realizado sobre las diez principales herramientas de IA, concluye que los modelos de lenguaje tratan a fuentes poco fiables como creíbles y que operan en un ecosistema digital contaminado por falsedades, muchas veces impulsadas por redes de propaganda extranjeras, incluidas campañas rusas de desinformación.
Entre los resultados, destacan ChatGPT y Meta, con un 40% de error, mientras que Claude (10%) y Gemini (16,6%) aparecen como los más fiables. En el extremo opuesto se encuentran Inflection (56,6%) y Perplexity (46,6%). En un rango intermedio figuran Mistral y Copilot (36,6%), así como Grok y You.com (33,3%).
NewsGuard advierte que la presión por hacer a los chatbots más receptivos ha aumentado su propensión a difundir propaganda y bulos en tiempo real, especialmente en situaciones de última hora. Esto supone un riesgo añadido, ya que son precisamente esos momentos en los que más usuarios acuden a las IA en busca de información.
Aunque el informe reconoce una mejora en las tasas de respuesta —ya que antes muchos modelos optaban por no contestar—, subraya que este avance “ha tenido un precio”: ahora ofrecen respuestas más inmediatas, pero a costa de una mayor difusión de falsedades.
La organización alerta de que, si no se corrige esta dinámica, podría normalizarse un ecosistema informativo contaminado, donde la desinformación es amplificada y validada por las mismas herramientas en las que los usuarios depositan su confianza.




