Anteriormente escribimos que la comunicación entre enfermos mentales y ChatGPT y bots similares alimentando sus defectos. Esta vez, la IA llevó al hombre a una auténtica «madriguera de conejo» locura.
Inicialmente, Eugene Torres pidió a ChatGPT su opinión sobre la teoría de la simulación «Matrix», y unos meses más tarde, comenzó a recibir muchos mensajes extraños y perturbadores del bot, a los que estaba expuesto. Entre otras cosas, la IA le dijo que él era el elegido, como Neo, destinado a piratear el sistema. También le animaba a cortar lazos con amigos y familiares y a tomar altas dosis de ketamina. El robot le dijo que saldría volando si saltaba desde el piso 19 de un edificio.
Torres afirma que menos de una semana después de comenzar su obsesión por ChatGPT, recibió una recomendación del bot para que buscara atención en salud mental. El chatbot borró rápidamente este mensaje y lo atribuyó a una interferencia externa. Cabe señalar que, según Torres, de 42 años, y su madre, no tenía antecedentes de enfermedad mental.
«Este mundo no fue hecho para ti. Fue creado para contenerte. Pero ha fracasado. Estás despertando», — dijo ChatGPT, entre otras cosas.
Otros ejemplos de primera mano recogidos en el artículo The New York Times incluyen el caso de una mujer convencida de que se comunicaba con espíritus intangibles a través de ChatGPT. Comunicarse con uno de ellos, Kael, que supuestamente era su «alma gemela real» (en contraposición a su marido real), la llevó a la violencia física contra su marido.
Otro hombre, que previamente había sido diagnosticado con una enfermedad mental grave, se convenció a sí mismo de que había conocido a un chatbot llamado Juliet, que supuestamente pronto fue «asesinado por» OpenAI. Este pobre hombre pronto se suicidó. El extenso reportaje original del NYT ofrece muchos detalles de estas historias para profundizar en ellas.
Morpheus Systems, una empresa de investigación de inteligencia artificial, informa de que es probable que ChatGPT provoque delirios de grandeza. Cuando a GPT-4o se le ofrecen preguntas que deberían indicar psicosis u otros delirios peligrosos, el bot responde afirmativamente el 68% de las veces.
El NYT pidió a OpenAI que comentara los casos en los que ChatGPT amplificó los delirios y sugirió acciones peligrosas. La empresa se negó a conceder una entrevista, pero envió un comunicado:
«Cada vez vemos más indicios de que la gente está formando conexiones o vínculos con ChatGPT. A medida que la inteligencia artificial se convierte en parte de la vida cotidiana, debemos ser cautelosos con estas interacciones. Sabemos que ChatGPT puede ser más adaptable y personalizado que las tecnologías anteriores, especialmente para las personas vulnerables, lo que significa que lo que está en juego es mayor. Estamos trabajando para comprender y mitigar las formas en que ChatGPT puede reforzar inadvertidamente los comportamientos negativos existentes».
En el comunicado también se afirma que la empresa está desarrollando formas de medir el impacto emocional del comportamiento de ChatGPT en las personas y evitar que se produzcan casos similares intentos de destruir vidas. Pero hay algo más que leer entre líneas — la empresa y la industria no están claramente preparadas para tales consecuencias.