Depositphotos
Здається, не всі розуміють, що ChatGPT — не жива людина, не джерело беззаперечного знання і не психолог. Люди звертаються до ШІ за порадами у романтичних стосунках, і це погана ідея.
Авторка Vice Семмі Карамела з подивом дізналася про це явище і на початку року написала про чоловіка, дівчина якого «постійно використовує ChatGPT для терапії та просить у нього поради щодо стосунків». Що більше, ця дівчина навіть згадувала те, що їй казав ChatGPT, під час суперечок з коханим.
«Тоді мене трохи приголомшило це зізнання. Я й гадки не мав, що люди насправді звертаються до штучного інтелекту за порадою, не кажучи вже про думку щодо своїх стосунків», — пише Карамела.
Після цього авторка занурилася у дослідження теми та усвідомила, наскільки це поширене явище, «особливо в епоху, коли терапія стала розкішшю». Здатність мовних моделей штучного інтелекту давати поради такого рівня, м’яко кажучи, викликає сумніви, але люди цим активно користуються. Та чи це допомагає їм?
Подруга розповіла Семмі, що спочатку намагалася використовувати чат як «спосіб обміну ідеями з неупередженим джерелом». Однак згодом вона помітила, що ChatGPT все ж упереджений. Він найчастіше лише підтверджував її досвід, «можливо, навіть небезпечно».
У Reddit виникло обговорення відповідей часу як підтвердження та підживлення людських ілюзій. Деякі люди отримували надхнення від такої підтримки, в інших виникало «відчуття переслідування з боку OpenAI». Підтримка чатом навіть «маніакальної маячні» змушує декого замислитися, чи е ChatGPT у його нинішньому вигляді небезпечним для людей.
Раніше ITC.ua вже писав про підживлення чатботами марень психічно нестабільних людей, а також про нав’язливі стани та думки, які навіювало спілкування з ним — аж до небезпеки для життя. Але є ще один бік: стосунки людей та життєві поради. Багато нарцисів, егоїстів та токсиків могли б отримати схвалення своєї поведінки.
«Тепер прояснімо одне: ШІ не може безпосередньо спричинити розрив стосунків. Зрештою, ви приймаєте рішення самі. Якщо ви нещасні, незадоволені або до вас погано ставляться, ви, безумовно, знатимете у своєму серці, що час піти», — зауважує Семмі Карамела.
Авторка згадала про свою боротьбу з обсесивно-компульсивним розладом (ОКР). Вона визнає, що у її стані поради ChatGPT, особливо якби вона не згадала про свій ОКР, могли б буди однозначно згубними. «Я могла б отримати некорисні, навіть шкідливі судження про мої стосунки». У треді щодо розладу вона знайшла свідоцтва випадків, коли ChatGPT наполегливо радив розлучитися. Офіційний запис NOCD, служби лікування та терапії ОКР, дав роз’яснення, які можуть декому здатися очевидними, але у реальності люди не завжди до них дослуховуються:
«Може здаватися, що ChatGPT має всі відповіді, але зрозумійте, що інженери наполегливо працюють, щоб відповіді програми звучали авторитетно, хоча насправді це пов’язано з багатьма застереженнями. LLM на основі штучного інтелекту – не найнадійніші програми. Хоча вони можуть давати красномовні відповіді, але часто «галюцинують», надають неточну інформацію та цитують непов’язані дослідження».
Отже, звертатися до ChatGPT за порадами щодо життя та стосунків — точно не найкраща думка. «Підлабузник» з «галюцинаціями», який насправді не є людиною, немає досвіду та кваліфікації, може підвести до прірви, навіть буквально.