En el contexto de las elecciones, la persuasión de los votantes es crucial para los resultados políticos. Tradicionalmente, los anuncios televisivos y las campañas de publicidad electoral han sido herramientas esenciales para influir en la opinión pública. Sin embargo, un nuevo conjunto de estudios ha demostrado que los chatbots basados en inteligencia artificial podrían ser más efectivos que la publicidad tradicional para cambiar la postura de los votantes sobre los candidatos.

Un estudio publicado enScience se ha centrado en explorar cómo los modelos de lenguaje de gran escala afectan a las decisiones políticas de los votantes. En tres grandes experimentos, con un total de 76,977 participantes, se asignaba aleatoriamente a los participantes para interactuar con un modelo de lenguaje de IA que promoviera a uno de los principales candidatos en las elecciones de 2024 y 2025. Los investigadores encontraron que el"prompt informativo"(donde el modelo era instruido para proporcionar hechos y evidencia) resultaba ser el más persuasivo. En comparación con elprompt básico”, el uso del"prompt informativo" aumentaba la persuasión en un 27%. Este hallazgo demuestra que los modelos de IA, cuando se les instruye para ofrecer información basada en hechos, logran convencer más eficazmente que con otros enfoques psicológicos, como la reestructuración moral o la narración de historias.

Esto destaca el potencial de los asistentes virtuales para ser más persuasivos que los anuncios tradicionales debido a su capacidad para interactuar, personalizar los mensajes y ofrecer información sustantiva y relevante. Además, los avances tecnológicos están haciendo que estos sistemas sean cada vez más sofisticados, lo que incrementa la probabilidad de que los bots conversacionales se conviertan en herramientas clave para influir en las decisiones políticas en el futuro.

La clave del éxito

Lo que hace a estos chatbots tan efectivos no es solo su capacidad para generar texto, sino su habilidad para proporcionar información densa y relevante. Los modelos de IA fueron más persuasivos cuando ofrecían argumentos basados en hechos y evidencia. Este enfoque centrado en la información aumentaba la credibilidad del mensaje, algo que las técnicas tradicionales de publicidad, como los anuncios persuasivos, no logran siempre. De hecho, los asistentes digitales más efectivos no empleaban tácticas psicológicas, sino que simplemente proporcionaban hechos que los votantes consideraban al tomar su decisión.

¿Pero es siempre precisa la información?

A pesar de la persuasión efectiva, surge una preocupación importante: la exactitud de la información, un compromiso entre persuasión y precisión. Los modelos de inteligencia artificial más convincentes tendieron a generar afirmaciones menos precisas, especialmente en los modelos que apoyaban a los candidatos de derechas, según un estudio publicado en Nature. Aunque los chatbots fueron efectivos para movilizar las opiniones de los votantes, algunos de los datos que proporcionaron fueron incorrectos, lo que plantea serias preocupaciones sobre el riesgo de desinformación en las elecciones.

Más allá del tamaño del modelo

Otro hallazgo clave del estudio es que la escala del modelo de IA no es el principal motor de la persuasión. Aunque los modelos más grandes suelen ser más persuasivos, los métodos de post-entrenamiento y las estrategias de persuasión fueron los que realmente marcaron la diferencia. Estos métodos ayudaron a los chatbots a afinar sus argumentos, haciéndolos más efectivos al interactuar con los votantes. Esto significa que, en el futuro, incluso modelos de IA más pequeños podrían tener un gran impacto en la persuasión política si se utilizan las técnicas adecuadas.

Implicaciones a futuro

Este escenario plantea importantes desafíos éticos y regulatorios para el futuro de las campañas políticas. Si estas herramientas pueden ser tan efectivas para cambiar las opiniones de los votantes, existe el riesgo de que actores políticos utilicen estos modelos para manipular las elecciones mediante la distribución masiva de desinformación. Es fundamental que los responsables de políticas públicas y los desarrolladores de IA trabajen para establecer normas claras sobre el uso de estas tecnologías en la política.