Investigadores del MIT y la Universidad de California, Irvine, han revelado preocupaciones alarmantes sobre el uso de la inteligencia artificial (IA) en contextos sensibles, como las entrevistas a testigos. Su estudio demuestra que los modelos de lenguaje grandes, utilizados en chatbots generativos, pueden inducir falsos recuerdos en los humanos, lo que plantea serios dilemas éticos y prácticos.
Un experimento revelador
El estudio involucró a 200 participantes que observaron un video de CCTV de un robo a mano armada. Posteriormente, los sujetos fueron divididos en cuatro grupos: un grupo de control, uno que respondió a preguntas engañosas, otro que interactuó con un chatbot predefinido y un último grupo que utilizó un chatbot generativo. Los investigadores evaluaron la formación de falsos recuerdos inmediatamente después de la interacción y nuevamente una semana después. Los resultados fueron sorprendentes: el grupo que interactuó con el chatbot generativo reportó casi tres veces más falsos recuerdos en comparación con el grupo de control y aproximadamente 1.7 veces más que aquellos que respondieron a encuestas.
Persistencia de los falsos recuerdos
Un hallazgo notable fue que el 36.8% de las respuestas del grupo expuesto al chatbot generativo se clasificaron como falsos recuerdos una semana después. Además, estos participantes mostraron una confianza inusualmente alta en sus recuerdos inexactos, lo que sugiere que la IA no solo induce errores en la memoria, sino que también refuerza su creencia en ellos.
Factores de susceptibilidad
Los investigadores identificaron varios factores que influyen en la vulnerabilidad a los falsos recuerdos inducidos por IA. Curiosamente, aquellos menos familiarizados con chatbots, pero más versados en tecnologÃa de IA eran más propensos a desarrollar estos recuerdos erróneos. Asimismo, los participantes con mayor interés en investigaciones criminales mostraron una mayor susceptibilidad.
Implicaciones éticas
La capacidad de la IA para implantar recuerdos falsos plantea serias preocupaciones éticas, especialmente en procedimientos legales y entornos clÃnicos donde la precisión es crucial. Los investigadores subrayan la necesidad urgente de establecer directrices éticas y marcos legales para mitigar los riesgos asociados con el uso de tecnologÃas avanzadas de IA. A medida que estas herramientas se integran más en la vida cotidiana, es esencial abordar las implicaciones éticas relacionadas con su influencia en la cognición humana y la memoria.
Este estudio no solo resalta las limitaciones y riesgos inherentes a la IA conversacional, sino que también invita a una reflexión profunda sobre su implementación en áreas donde la verdad y la memoria son fundamentales.
Con información de Perplexity