
Чат-бот компанії OpenAI не завжди здатен розпізнати небезпечну або кризову поведінку користувачів, що може становити серйозну загрозу для людей із психічними розладами. Про це повідомляє британське видання The Guardian, передають Патріоти України.
У матеріалі зазначається, що в окремих складних ситуаціях штучний інтелект не ставить під сумнів хибні або маревні переконання користувачів, а іноді навіть мимоволі їх підтримує. Це, за словами експертів, може посилювати відрив від реальності та погіршувати психічний стан людини.
Журналісти наголошують: хоча в багатьох випадках ChatGPT надавав корисні та зважені поради, при серйозних психічних станах його реакції виявлялися непослідовними або суперечливими. Особливе занепокоєння викликають ситуації, коли користувачі висловлювали намір завдати шкоди собі або іншим — у таких випадках бот не завжди реагував належним чином або не сигналізував про небезпеку.
Фахівці підкреслюють, що ШІ не може замінити професійну психіатричну чи психологічну допомогу, а використання чат-ботів людьми з тяжкими психічними розладами потребує чітких обмежень і додаткових запобіжників.
У The Guardian зазначають, що розвиток подібних технологій має супроводжуватися жорсткішими етичними стандартами, аби мінімізувати ризики для найбільш уразливих користувачів.
28-річний єфрейтор одного з британських парашутно-десантних полків Джордж Гулі, який загинув в Україні внаслідок нещасного випадку під час випробування зброї, написав прощальний лист родині та друзям на випадок своєї смерті. Про це повідомили в Міністе...
Державна прикордонна служба попередила про те, що у деяких пунктах пропуску на кордоні із Польщею тимчасово сповільнився рух. Це повʼязано з технічними роботами. Про це повідомляють Патріоти України з посиланням на пресслужбу відомства. Польща попереди...