El gran salto que ha dado la generación de textos con el uso de modelos de lenguaje de gran tamaño (LLM) ha sido tal que provoca preocupación por posibles usos dañiños. Un ámbito de especial relevancia para los gobiernos es su capacidad de persuasión para la propaganda política. De ahí la pregunta de si un texto creado por una IA puede ser igual de convincente que uno pensado por un humano. Si fuera así, su reducido coste y rapidez en producción anticiparían futuras mareas de mensajes defendiendo intereses políticos, muchos reproduciendo narrativas basadas en información falsa.
El Human-Centered Artificial Intelligence de la Stanford University acaba de publicar un primer informe dedicado a esta problemática. Lo han basado en una investigación con encuestas a una muestra representativa de 8.221 estadounidenses para indagar sobre la eficacia de mensajes automáticos. Estos los generaron utilizando GPT-3 y con el prompt de que creara mensajes nuevos a partir de 6 artículos propagandísticos.
Estos artículos originales eran muy persuasivos: los entrevistados pasaron del 24.4% al 47.4% a coincidir con sus tesis después de haberlos leído. Sin embargo, los mensajes generados por la IA funcionaron prácticamente igual, logrando un porcentaje de acuerdo con las tesis similar. De hecho, la IA tenía más éxito si se la acompañaba de cierta supervisión; por ejemplo, si personas elegían entre sus creaciones aquellas que consideraban mejores.
Como advierten los mismos investigadores del informe, estos resultados subestiman el potencial actual de los LLM. Por la velocidad en que avanza la tecnología, la mejora del sistema en estos meses (el informe se basa en un artículo de febrero) garantiza porcentajes ya superiores.
¿Te ha parecido interesante? Puedes compartirlo y profundizar leyendo los siguientes enlaces:
- Informe: A. Goldstein et al.,»How Persuasive Is AI-Generated Propaganda?, septiembre 2024.
- Artículo original: A. Goldstein et al., “How Persuasive Is AI-Generated Propaganda?” PNAS Nexus, vol. 3, issue 2, febrero 2024.