
Чат-бот компанії OpenAI не завжди здатен розпізнати небезпечну або кризову поведінку користувачів, що може становити серйозну загрозу для людей із психічними розладами. Про це повідомляє британське видання The Guardian, передають Патріоти України.
У матеріалі зазначається, що в окремих складних ситуаціях штучний інтелект не ставить під сумнів хибні або маревні переконання користувачів, а іноді навіть мимоволі їх підтримує. Це, за словами експертів, може посилювати відрив від реальності та погіршувати психічний стан людини.
Журналісти наголошують: хоча в багатьох випадках ChatGPT надавав корисні та зважені поради, при серйозних психічних станах його реакції виявлялися непослідовними або суперечливими. Особливе занепокоєння викликають ситуації, коли користувачі висловлювали намір завдати шкоди собі або іншим — у таких випадках бот не завжди реагував належним чином або не сигналізував про небезпеку.
Фахівці підкреслюють, що ШІ не може замінити професійну психіатричну чи психологічну допомогу, а використання чат-ботів людьми з тяжкими психічними розладами потребує чітких обмежень і додаткових запобіжників.
У The Guardian зазначають, що розвиток подібних технологій має супроводжуватися жорсткішими етичними стандартами, аби мінімізувати ризики для найбільш уразливих користувачів.
В Україні питання додаткових відпусток для військових під час війни залишається складним. Їхнє надання залежить від рішення командира підрозділу та регламентується законодавством. Тривалість відпочинку та виплати залежать від статусу військовослужбовця...
Іспанський завод групи Renault Group розпочав виробництво нового гібридного двигуна HR12 Concept, який обіцяє низьку витрату пального та високий коефіцієнт корисної дії, передають Патріоти України. Новий мотор виготовлятиметься в Іспанії та розроблений...