Dos investigaciones publicadas en Nature y Science revelan que los chatbots con inteligencia artificial pueden influir de forma significativa en las actitudes y decisiones de los votantes, incluso cuando se trata de modelos pequeños y de código abierto. Los estudios, encabezados por las universidades de Cornell y Oxford, advierten además de que estos sistemas, cuando se optimizan para convencer, pueden generar información engañosa o falsa.
Los experimentos, realizados en Estados Unidos, Canadá y Polonia, muestran que los LLM políticos pueden mover las preferencias de los votantes entre 4 y 10 puntos porcentuales, especialmente entre quienes inicialmente se oponen al candidato defendido por el chatbot. En las elecciones estadounidenses de 2024, por ejemplo, un modelo pro-Harris desplazó a los votantes de Trump 3,9 puntos, un impacto cuatro veces mayor que el de los anuncios tradicionales.
Según David Rand (Cornell), la eficacia radica en la capacidad de los modelos para producir numerosas afirmaciones, no siempre precisas, que respaldan una postura política. La Universidad de Oxford añade que la persuasión proviene sobre todo de las técnicas de entrenamiento posterior y de las instrucciones de uso, más que del tamaño del modelo.
Sin embargo, esta potencia tiene un coste: cuanto más se presiona al sistema para persuadir, más aumenta la aparición de datos imprecisos, especialmente en modelos programados para apoyar a candidatos de derecha, según Cornell. La presión por generar argumentos puede llevar al chatbot a “inventar” hechos cuando se agota la información verificada.
El estudio de Science, que evaluó a 77.000 participantes y 19 modelos distintos, confirma que la persuasión crece hasta un 51 % con entrenamiento adicional y hasta un 27 % con estrategias simples de incitación. Pero ambas prácticas reducen la veracidad, lo que demuestra que afinar un modelo para influir degrada su precisión.
Los investigadores coinciden en que estos sistemas se convertirán en herramientas clave de las campañas políticas, por lo que el gran desafío será limitar los riesgos, aumentar la alfabetización digital y ayudar a los ciudadanos a reconocer y resistir la persuasión generada por la IA.
Redacción agencias




