
Чат-бот компанії OpenAI не завжди здатен розпізнати небезпечну або кризову поведінку користувачів, що може становити серйозну загрозу для людей із психічними розладами. Про це повідомляє британське видання The Guardian, передають Патріоти України.
У матеріалі зазначається, що в окремих складних ситуаціях штучний інтелект не ставить під сумнів хибні або маревні переконання користувачів, а іноді навіть мимоволі їх підтримує. Це, за словами експертів, може посилювати відрив від реальності та погіршувати психічний стан людини.
Журналісти наголошують: хоча в багатьох випадках ChatGPT надавав корисні та зважені поради, при серйозних психічних станах його реакції виявлялися непослідовними або суперечливими. Особливе занепокоєння викликають ситуації, коли користувачі висловлювали намір завдати шкоди собі або іншим — у таких випадках бот не завжди реагував належним чином або не сигналізував про небезпеку.
Фахівці підкреслюють, що ШІ не може замінити професійну психіатричну чи психологічну допомогу, а використання чат-ботів людьми з тяжкими психічними розладами потребує чітких обмежень і додаткових запобіжників.
У The Guardian зазначають, що розвиток подібних технологій має супроводжуватися жорсткішими етичними стандартами, аби мінімізувати ризики для найбільш уразливих користувачів.
Науковці підтверджують: обертання Землі навколо власної осі поступово сповільнюється, але його повна зупинка в найближчі мільярди років практично неможлива. Новий аналіз фізичних процесів показує, що добова тривалість днів збільшується лише на кілька м...
Засніжені ліси Чорнобильського заповідника знову стали місцем несподіваної зустрічі. Фахівці зафіксували коня Пржевальського — рідкісного дикого скакуна, який упевнено крокував лісом, не зважаючи на глибокий сніг, передають Патріоти України з посилання...