¿Puede un chatbot con IA disuadirte de creer en teorías de conspiración?

Con el debate presidencial de esta semana, probablemente hayas escuchado mucha desinformación y teorías de conspiración.

De hecho, los reporteros y verificadores de datos han estado trabajando largas horas para determinar con certeza si los inmigrantes haitianos en Ohio comen mascotas, como han afirmado el contendiente presidencial republicano Donald Trump y su compañero de fórmula, el senador JD Vance. Ninguno de ellos ha aportado pruebas para demostrar su afirmación y Las autoridades locales dicen que esto es falso.. Sin embargo, la afirmación es falsa. por todo internet.

Los expertos han estado preocupados durante mucho tiempo por la rapidez con la que se propagan las teorías de la conspiración, y algunos estudios muestran que no se puede convencer a las personas con evidencia que contradiga la creencia.

pero un Un nuevo estudio publicado hoy en Ciencia Con suerte, muchas personas podrán abandonar las teorías de la conspiración en las circunstancias adecuadas.


VER TAMBIÉN:

Jon Stewart analiza los momentos más importantes del debate Harris-Trump en un monólogo en vivo

En este caso, los investigadores probaron si una conversación con un chatbot impulsado por inteligencia artificial puede comunicarse con éxito con personas que creen en teorías de conspiración populares, como los ataques del 11 de septiembre que fueron orquestados por el gobierno de EE. UU. y el virus COVID: 19 hombres. , para cooperar con éxito. – el intento de las “élites globales” de “proveer a las masas”.

2.190 participantes del estudio generaron conversaciones de ida y vuelta sobre una teoría de conspiración de su elección con el GPT-4 Turbo de OpenAI. El modelo se entrenó con una gran cantidad de datos de Internet y fuentes autorizadas.

Después de interrogar a los participantes, los investigadores encontraron una reducción del 20 por ciento en las creencias de conspiración. En otras palabras, una cuarta parte de los participantes dejó de seguir la teoría de la conspiración que discutían. Este descenso continuó dos meses después de su interacción con el chatbot.

David Rand, coautor del estudio, dijo que los hallazgos muestran que los hechos pueden cambiar el pensamiento de las personas, a pesar del pesimismo sobre esta perspectiva.

“Los hechos y los hechos importan mucho para mucha gente”.

– David Rand, profesor del MIT

“La evidencia no está muerta”, dijo Rand a Mashable. “Los hechos y los hechos importan mucho para mucha gente”.

Las mejores historias de Mashable

Rand, profesora de ciencias de la gestión y ciencias cerebrales y cognitivas en el MIT, y sus coautores no probaron si los participantes del estudio cambiarían su opinión sobre una persona que conocen en la vida real después de hablar con un chatbot. como un mejor amigo o hermano. Pero sospechan que el éxito de un chatbot depende de la rapidez con la que pueda recopilar datos y cifras precisos como respuesta.

En una conversación de muestra incluida en el estudio, un participante que creía que los ataques del 11 de septiembre fueron organizados preguntó al chatbot cómo se derrumbaron las Torres Gemelas sin la ayuda de explosivos, entre otras afirmaciones relacionadas, da una explicación científica completa a las conspiraciones populares. Al principio, el participante creía al 100 por ciento en la teoría de la conspiración; Hasta el final, su confianza cayó al 40 por ciento.

Cualquiera que alguna vez haya intentado discutir una teoría de la conspiración con alguien que cree en ella, probablemente haya experimentado un acalorado intercambio que involucra lo que Rand describió como “extraños hechos y referencias esotéricas que son extremadamente difíciles de rechazar”. Sin embargo, un chatbot impulsado por IA no tiene este problema, ya que puede responder instantáneamente con información basada en hechos.

Un chatbot de IA tampoco se ve afectado por la dinámica de las relaciones personales, como una rivalidad entre hermanos de larga data o una amistad inapropiada que moldea la visión de un teórico de la conspiración hacia una persona que proporciona la información opuesta. En general, el chatbot fue entrenado para ser cortés con los participantes e interactuar con ellos confirmando su curiosidad o confusión.

Los investigadores también preguntaron a los participantes sobre su confianza en la inteligencia artificial. Descubrieron que cuanto más creía un participante en la IA, más probabilidades había de que suspendiera sus creencias en la teoría de la conspiración en respuesta a la conversación. Pero incluso aquellos que dudaban de la IA pudieron cambiar de opinión.

Es importante destacar que los investigadores contrataron a un evaluador profesional para evaluar las afirmaciones del chatbot y asegurarse de que no estuviera compartiendo información falsa o inventando cosas. El verificador de datos evaluó casi todos correctamente y algunos de ellos incorrectamente.

Ahora las personas que sientan curiosidad por el trabajo de los investigadores pueden probarlo ellos mismos usándolos. DesacreditarBotlo que permite a los usuarios probar sus creencias frente a la IA.

Rand y sus coautores imaginan un futuro en el que un chatbot pueda conectarse a cuentas de redes sociales como una forma de combatir las teorías de conspiración en la plataforma. O las personas pueden encontrar el chatbot mientras buscan en línea rumores virales o estafas gracias a anuncios de palabras clave relacionados con ciertos términos de búsqueda conspirativos.

Rand dijo que el éxito del estudio, que él y sus coautores replicaron, es un ejemplo de cómo se puede utilizar la IA con fines de lucro.

Sin embargo, no es ingenuo sobre la posibilidad de que los malos actores utilicen la tecnología para crear chatbots que respalden algunas teorías de conspiración. Por ejemplo, imagine un chatbot entrenado en publicaciones en redes sociales que hacen afirmaciones falsas.

“Queda por ver cómo se desarrolla todo esto”, dijo Rand. “Si la gente utiliza principalmente estos modelos fundamentales de empresas que se esfuerzan mucho en hacerlos precisos, tenemos una posibilidad razonable de que se convierta en una herramienta útil y fiable”.



Fuente