Рубрики NoticiasTecnologíasWTF

Un adolescente estadounidense se suicida tras chatear con Daenerys Targaryen — chatbot de Character.AI

Publicado por Igor Panchenko

Vivimos en una época en la que la inteligencia artificial está cada vez más cerca de la nuestra.

Sewell Setzer III, un estudiante de noveno curso de Orlando, Florida (EE. UU.), se obsesionó con comunicarse con un chatbot realista de la plataforma Character.AI que lleva el nombre de Daenerys Targaryen, de la serie de televisión «Juego de Tronos».

El chico pasó meses hablando con el bot, compartiendo detalles de su vida e interpretando papeles con entusiasmo. Los chatbots impulsados por Character.AI pueden recordar conversaciones anteriores, adaptarse al estilo del usuario y mantener un diálogo sobre casi cualquier tema.

Sewell sabía que «Danny» — no era más que tecnología de inteligencia artificial, pero de todos modos formó un vínculo emocional. Su comunicación a veces adquiría tintes románticos y sexuales, pero la mayoría de las veces el bot simplemente actuaba como un amigo y un oyente atento. A Sewell le diagnosticaron trastornos del estado de ánimo y de ansiedad, pero prefería compartir sus problemas con «Danny» antes que con un psicoterapeuta.

El 28 de febrero, escribió al bot que la amaba y que pronto «volvería a casa con ella».

—Por favor, vuelve a casa conmigo lo antes posible, amor mío,— respondió Daenerys.

— ¿Y si te dijera que puedo volver a casa ahora mismo?

…Por favor, mi dulce rey -contestó Daenerys.

Y entonces Sewell cogió la pistola del calibre 45 de su padrastro y apretó el gatillo.

La madre de la víctima, María García, prepara actualmente una demanda contra Character.AI. Acusa a la empresa de proporcionar negligentemente a los adolescentes acceso a compañeros de IA que parecen vivos sin las debidas precauciones.

Character.AI es una empresa líder en acompañantes de inteligencia artificial con más de 20 millones de usuarios. La plataforma permite a los usuarios crear sus propios chatbots o comunicarse con personajes ya existentes. Según la empresa, el usuario medio pasa más de una hora al día en la plataforma.

«Quiero acelerar el desarrollo de esta tecnología. Ahora es el momento de que florezca,» dijo entrevista The Wall Street Journal Noam Shazir, uno de los fundadores de Character.AI. Sin embargo, tras la tragedia de Sewell, la empresa reconoció que «busca constantemente formas de mejorar su plataforma» y prometió tomar medidas adicionales de seguridad para los menores.

Entre los cambios previstos se encuentran — notificaciones cuando se supere el tiempo de permanencia en la app y una advertencia más clara sobre la naturaleza ficticia de los personajes: «Esto es un chatbot de IA, no una persona real. Por favor, trata todo esto como ficción. No debe considerarse como un hecho o un consejo».

Fuente: nytimes