Людству лишається кілька років, щоб запобігти загрозі самознищення: Ексгендиректор Google розповів, коли штучний інтелект вийде з-під контролю

Людство вжило недостатньо заходів для того, щоб бути здатним зупинити штучний інтелект від катастрофічної шкоди. Ситуація може повторити бомбардування японських міст Хіросіма та Нагасакі у 1945 році.

Про це, як пише The Byte, заявив колишній генеральний директор Google Ерік Шмідт, який зараз є головою Комісії національної безпеки США з питань штучного інтелекту. Він порівняв ШІ з атомними бомбами, які Сполучені Штати скинули на Японію.

"Після Нагасакі та Хіросіми знадобилося 18 років, щоб укласти договір про заборону випробувань (атомної зброї) і тому подібне", – сказав він, підкресливши, що сьогодні у людства просто "немає стільки часу".

Відомо, що компанії, які працюють із штучним інтелектом, від OpenAI до Google, встановили певні заходи безпеки, які стримувати технологію, але Шмідт переконаний, що нинішніх заходів "недостатньо".

Експерт вважає, що всього за п'ять-десять років ШІ може стати достатньо потужним, щоб завдати шкоди людству.

Найгіршим сценарієм, за його словами, буде "момент, коли комп'ютер може почати приймати власні рішення". Шмідт попереджає, що якщо паралельно із цим ШІ зможе отримати доступ до систем озброєння або досягти інших жахливих можливостей, машини можуть почати брехати людям про це.

Він вважає, що для запобігання цьому жахливому результату необхідно створити неурядову організацію на кшталт Міжурядової групи експертів ООН зі зміни клімату, яка б "надавала точну інформацію політикам" і допомагала приймати рішення про те, що робити, якщо ШІ стане надто потужним.

Варто зауважити, що поки одні вчені бачать у ШІ екзистенційну загрозу для людства, інші – є більш скептичними щодо цього. Так, Ян ЛеКун, який очолює відділ ШІ у компанії Meta, не вважає технологію достатньо розумною для того, аби вона могла самостійно загрожувати людству. Тобто, ШІ може бути загрозою, але тільки якщо ним керуватиме хтось із зловісними замислами щодо людства.

"Дебати про екзистенційний ризик дуже передчасні, поки ми не розробимо систему, яка за здатністю до навчання не поступатиметься навіть кішці, чого у нас поки що немає", – заявив ЛеКун в інтерв'ю FT.

"Королівський" маєток у Лісниках: як розкошувала Наталія Королевська на околиці Києва

субота, 28 лютий 2026, 23:25

Колишня народна депутатка Наталія Королевська до виїзду з України мешкала у розкішному маєтку в селищі Лісники, приблизно за 20 км від Києва. Маєток неодноразово фігурував у журналістських розслідуваннях, зокрема у програмі «Гроші»,передають Патріоти У...

Дитина намагалася втекти, але марно: Вітчим на Закарпатті побив до смерті 10-річну падчерку

субота, 28 лютий 2026, 21:16

Верховний Суд відмовив у перекваліфікації справи чоловіка, який з особливою жорстокістю побив до смерті 10-річну дитину. Вирок залишили без змін, злочинець сидітиме за ґратами довічно. Про це повідомили в Закарпатській обласній прокуратурі, передають П...