MADRID 12 Sep. (EUROPA PRESS) -
En un nuevo artículo titulado 'Reducción duradera de las creencias conspirativas mediante diálogos con IA', publicado en 'Science', investigadores de la Escuela de Administración de Empresas Sloan del MIT (Estados Unidos) muestran que los modelos de lenguaje de gran tamaño pueden reducir eficazmente las creencias de los individuos en teorías conspirativas (y que estas reducciones duran al menos dos meses ), un hallazgo que ofrece nuevos conocimientos sobre los mecanismos psicológicos detrás del fenómeno, así como herramientas potenciales para combatir la propagación de las conspiraciones.
Los hallazgos, que desafían la idea de que tales creencias son inmunes al cambio, apuntan a una nueva herramienta para combatir la desinformación. "Se ha convertido casi en una verdad de Perogrullo que es casi imposible llegar a las personas que están 'en la madriguera del conejo' de las creencias conspirativas", escriben los autores.
"En contraste con esta visión pesimista, mostramos que una conversación relativamente breve con un modelo de IA generativa puede producir una disminución grande y duradera de las creencias conspirativas, incluso entre personas cuyas creencias están profundamente arraigadas".
Las teorías conspirativas (creencias de que alguna organización malévola secreta pero influyente es responsable de un evento o fenómeno) son notoriamente persistentes y plantean una grave amenaza para las sociedades democráticas. Sin embargo, a pesar de su inverosimilitud, una gran fracción de la población mundial ha llegado a creer en ellas, incluido hasta el 50% de la población de los Estados Unidos, según algunas estimaciones.
La creencia persistente en teorías conspirativas a pesar de la existencia de pruebas claras en contra suele explicarse por procesos sociopsicológicos que satisfacen necesidades psicológicas y por la motivación de mantener la identidad y la pertenencia a grupos. Las intervenciones actuales para desacreditar las teorías conspirativas entre los creyentes actuales son en gran medida ineficaces.
Con este fin, Thomas Costello, quien llevó a cabo la investigación durante su puesto posdoctoral en la Escuela de Administración de Empresas Sloan del MIT y su equipo investigaron si los modelos de lenguaje grande (LLM, por sus siglas en inglés) como GPT-4 Turbo pueden desacreditar eficazmente las teorías conspirativas utilizando su amplio acceso a la información y utilizando contraargumentos personalizados que responden directamente a la evidencia específica presentada por los creyentes.
En una serie de experimentos que abarcaron a 2190 creyentes de la conspiración, los participantes participaron en varias interacciones personalizadas con un LLM, compartiendo sus creencias conspirativas y la evidencia que sentían que las respaldaba. A su vez, el LLM respondió refutando directamente estas afirmaciones a través de contraargumentos personalizados, fácticos y basados ??en evidencia. Un verificador de hechos profesional contratado para evaluar la precisión de las afirmaciones realizadas por GPT-4 Turbo informó que, de estas afirmaciones, el 99,2% se calificó como "verdadero", el 0,8% como "engañoso" y 0 como "falso"; y no se encontró que ninguna contuviera sesgo liberal o conservador.
Costello y su equipo descubrieron que estos diálogos impulsados ??por IA redujeron las creencias mal informadas de los participantes en un promedio del 20%. Este efecto duró al menos dos meses y se observó en varias teorías conspirativas no relacionadas, así como en distintas categorías demográficas. Según los autores, los hallazgos desafían la idea de que las pruebas y los argumentos son ineficaces una vez que alguien ha adoptado una teoría conspirativa. También cuestionan las teorías sociopsicológicas que se centran en las necesidades y motivaciones psicológicas como los principales impulsores de las creencias conspirativas.
"Para bien o para mal, la IA está destinada a cambiar profundamente nuestra cultura", escriben Bence Bago y Jean-François Bonnefon en un artículo de 'Perspective' relacionado. "Aunque se ha criticado ampliamente como un multiplicador de fuerza para la desinformación, el estudio de Costello y su equipo demuestra una posible aplicación positiva del poder persuasivo de la IA generativa".