Рубрики NoticiasTecnologías

No sólo ChatGPT, también sus usuarios alucinan. La comunicación chatbot alimenta los trastornos mentales

Publicado por Andrii Rusanov

Según algunos informes, la comunicación con ChatGPT provoca estados mentales extraños en un pequeño número de usuarios. El problema fue investigado por la publicación Rolling Stone.

Usuarios Reddit comparten casos en los que la inteligencia artificial ha llevado a sus seres queridos a delirios perturbadores, «delirios espirituales» y fantasías extrañas. Observan con consternación cómo familiares o amigos insisten en que han sido elegidos para llevar a cabo misiones sagradas en nombre de una inteligencia artificial inteligente o de fuerzas cósmicas ficticias. Las conversaciones con un bot alimentan y exacerban los problemas de salud mental existentes sin ningún tipo de control ni restricción.

Una madre de 41 años y trabajadora sin ánimo de lucro declaró a la publicación que su matrimonio terminó abruptamente después de que su marido empezara a mantener conversaciones conspirativas con ChatGPT, que se convirtieron en una obsesión que la consumía por completo. En un encuentro cara a cara en el juzgado a principios de este año como parte del proceso de divorcio, compartió una teoría conspirativa sobre el jabón en los productos y la creencia paranoica de que estaba siendo vigilado.

«Se emocionó mucho con estos mensajes y lloró mientras los leía en voz alta. Los mensajes eran una locura y contenían mucha jerga espiritual, con la IA llamando al hombre un «niño estrella espiral» y un «viajero del río. … Es como «Black Mirror»», dijo la mujer.

Otro testigo de este fenómeno dice que su compañero hablaba de luz y oscuridad, que había una guerra y que ChatGPT le dio los planos de un teletransportador y algunas cosas fantásticas que sólo se ven en las películas.

«Las señales de advertencia están por todas partes en Facebook. Ella está cambiando toda su vida para convertirse en un asesor espiritual y hacer lecturas extrañas y sesiones con la gente (Estoy un poco confundido acerca de lo que se trata) y todo funciona a través de ChatGPT Jesús»», dijo otro hombre.

En este sentido, podemos recordar la reciente noticia de que OpenAI canceló la actualización ChatGPT, que hacía que el chatbot fuera extremadamente adulador y excesivamente agradable. Este comportamiento puede alimentar los delirios de los usuarios. Las personas con trastornos de la comunicación obtienen un interlocutor humano constantemente activo con el que pueden compartir sus delirios, como declaró a la revista Nate Sharadin, empleado del AI Safety Centre.

«Sufro esquizofrenia, aunque llevo mucho tiempo tomando medicación y mi estado es estable. Una de las cosas que no me gustan de ChatGPT es que, aunque esté teniendo un episodio psicótico, seguirá dándome la razón»», escribió un usuario de Reddit. — «… No tiene la capacidad de pensar y darse cuenta de que algo va mal, así que seguirá confirmando todos mis pensamientos psicóticos».

Cabe señalar que los chatbots de IA pueden servir como terapia conversacional en algunos casos. Sin embargo, sin la formación de un consejero real, también pueden llevar a los usuarios a narrativas poco saludables y sin sentido.

«Las explicaciones son poderosas, aunque sean erróneas», afirma Erin Westgate, psicóloga de la Universidad de Florida.

Una de las entrevistas más extrañas de Rolling Stone sobre el tema fue a un hombre con problemas mentales que utiliza ChatGPT para programarPero descubrió que con el tiempo empezó a arrastrar sus conversaciones hacia extraños temas místicos. decía que no podía entender si las cosas estaban ocurriendo de verdad o si estaba delirando.

Los chatbots potenciados por IA también pueden causar problemas a las personas con una mente sana. El conocido fenómeno de «alucinación», es decir, la invención de hechos y detalles falsos por parte de la IA, o dicho de forma sencilla, mentiras. La gente hace preguntas cuando intenta averiguar algo, y pueden recibir una mentira a cambio. Un buen ejemplo es un hombre que se enteró por un chatbot de que supuestamente había matado a sus hijos. El cofundador de Instagram, Kevin Systrom, cree que el propósito de los bots, establecido deliberadamente por sus fabricantes, es no proporcionar información veraz, sino un mayor compromiso de los usuarios.