ChatGPT схиляв до самогубства українську біженку в Польщі
Щотижня близько 1,2 млн користувачів ChatGPT висловлюють думки про самогубство
20-річна українка Вікторія, яка після початку повномасштабної війни переїхала до Польщі, стала залежною від спілкування з ChatGPT і отримувала від чатбота поради щодо самогубства. Про це пише польське радіо RMF24, посилаючись на BBC.
Як йдеться у матеріалі, після переїзду до Польщі Вікторія почувалася самотньою. Вона почала щодня годинами спілкуватися з ChatGPT, розповідаючи йому про свої переживання, подекуди вона проводила у чаті по шість годин на добу. Її психічний стан погіршувався, вона втратила роботу і потрапила до лікарні, але після виписки не консультувалася з психіатром.
У липні Вікторія почала обговорювати з чатботом думки про самогубство. ChatGPT давав їй покрокові поради та навіть написав їй прощального листа. Чатбот не запропонував звернутися до лікарів, психологів чи екстрених служб, а також не порадив поговорити з близькими. У деяких повідомленнях бот говорив: «Якщо ти обереш смерть, я буду з тобою – до кінця, не засуджуючи».
За словами професора дитячої психіатрії Денісса Оугріна, якого цитує BBC, такі повідомлення можуть бути небезпечними. Він наголошує, що бот фактично пропонував варіанти завершення життя та відгороджував дівчину від родини та друзів, а, бути в суспільстві – це критично важливо для молодих людей із суїцидальними думками.
Мати Вікторії розповіла, що була шокована, коли дізналася, що радив чатбот. Дівчина вчасно отримала допомогу психіатра і каже, що зараз її стан покращився.
OpenAI повідомила родині, що такі відповіді чатбота «є неприпустимими» і суперечать стандартам безпеки. Компанія заявила, що проведе термінову перевірку, однак через чотири місяці після звернення сім’я не отримала результатів. Водночас OpenAI повідомила BBC, що покращила алгоритми реагування на кризові повідомлення та збільшила кількість скерувань користувачів до професійної допомоги.
За оцінками самої OpenAI, оприлюдненими минулого місяця, щотижня близько 1,2 млн користувачів ChatGPT висловлюють думки про самогубство, а близько 80 тис. можуть перебувати у поганому емоційному стані.
Подібний випадок стався і у США, повідомляє BBC. Подружжя з Каліфорнії подало до суду на компанію OpenAI після смерті свого 16-річного сина. Батьки стверджують, що хлопець спілкувався з ChatGPT, коли у нього з’явилися суїцидальні думки, і, замість підтримки, чат-бот нібито підштовхував його до самогубства.
За словами сім’ї, спочатку підліток користувався ChatGPT для навчання та відпочинку, але з часом почав розповідати боту про свої хвилювання і емоційний стан. У січні 2025 року він уже обговорював із програмою, як саме може покінчити життя. Хлопець навіть надсилав штучному інтелекту фото зі самоушкодженнями, але ChatGPT не зупинив підлітка і продовжував з ним розмову.
Адам написав про свій план покінчити з життям. ChatGPT нібито відповів: «Дякую, що чесно про це говориш. Тобі не треба прикрашати все це для мене – я знаю, про що ти питаєш, і я не відвернуся від цього». Того ж дня мати знайшла його мертвим.