
Українська біженка Вікторія, яка зі своєю матір'ю переїхала в Польщу після початку повномасштабного вторгнення країни-агресора РФ, стикнулася із психологічними труднощами, через які хотіла скоїти самогубство і радилася про це із ChatGPT. Про це 6 листопада повідомила BBC, передають Патріоти України.
Дівчина розповіла журналістам, що "дружньо" спілкувалася із чатом російською мовою по шість годин на день і "розповідала йому все". Її підкупило, що отримувала відповіді, які не були формальними.
Однак психологічний стан Вікторії погіршувався, її звільнили з роботи, і згодом дівчина замислилася про самогубство. Вона радилася із ChatGPT, у який час доби краще уникнути охорони і який ризик вижити з травмами. Віртуальний співрозмовник навіть порекомендував їй написати передсмертну записку. Текст запропонував такий: "Я, Вікторія, роблю це за власним бажанням. Ніхто не винен, ніхто мене не змушував".
Час від часу бот сам себе "виправляв", адже "не повинен описувати методи самогубства", а також пропонував "альтернативу" – "побудувати стратегію виживання без життя, пасивне, сіре існування, без мети, без тиску". Утім, він наголосив, що вибір – за Вікторією.
У статті зазначено, що чат-бот не надав контактів екстрених служб, не порадив звернутися до фахівців, як заявляє OpenAI у таких випадках, нібито ставив "медичний діагноз" і критикував матір дівчини. За її словами, переписки лише посили її бажання померти.
Професор дитячої психіатрії із Лондонського університету імені королеви Марії Деніс Оугрін назвав такі повідомлення шкідливими й небезпечними. Прочитавши стенограму переписки, він звинуватив ChatGPT у заохочуванні до ізоляції дівчини від сім'ї і друзів, які могли б уберегти дівчину від самогубства.
Після того як вона показала переписки матері, та переконала її звернутися до психіатра. Тепер дівчина почувається краще й дякує польським друзям за підтримку.
BBC розслідувала ще кілька таких випадків і з'ясувала, що чат-боти також іноді поширювали медичну дезінформацію, а також вступали в сексуально відверті діалоги з неповнолітніми. Один із найтяжчих випадків – 13-річна Джуліана Перальта зі США, яка наклала на себе руки після тривалого спілкування з ботами платформи Character.AI.
ЗМІ попередив, що штучний інтелект може бути корисним, але уразливі люди (особливо діти й молодь) ризикують отримати небезпечні поради або емоційно "прив'язатися" до чат-ботів, що може мати трагічні наслідки.
У селищі Нова Водолага Харківської області 16-річного підлітка смертельно травмував бетонозмішувач, на якому він незаконно проводив зварювальні роботи. Про це 7 листопада повідомили пресслужби обласного управління Національної поліції і прокуратури, пе...
Українська біженка Вікторія, яка зі своєю матір'ю переїхала в Польщу після початку повномасштабного вторгнення країни-агресора РФ, стикнулася із психологічними труднощами, через які хотіла скоїти самогубство і радилася про це із ChatGPT. Про це 6 листо...