Майже 70 ти. вчених, дослідників, відомих бізнесменів та публічних осіб виступили з відкритим закликом до негайної заборони подальшої розробки супероінтелекту (Superintelligence). Вони вимагають зробити паузу, доки людство не навчиться ефективно керувати цим потенційно «потужним» інструментом. Про це повідомляють Патріоти України з посиланням на заяву, опубліковану організацією Future of Life Institute.
Відкрите звернення було опубліковане наприкінці жовтня. У листі наголошується на небезпеці створення системи, яка може перевершити людський інтелект у всіх сферах, та закликає до обережності, поки не будуть розроблені механізми контролю.
«Інноваційні інструменти штучного інтелекту можуть забезпечити безпрецедентне здоров'я та процвітання. Однак, поряд з інструментами, багато провідних компаній у сфері штучного інтелекту мають на меті створити в наступному десятилітті суперінтелект, який зможе значно перевершити всіх людей практично у всіх когнітивних завданнях. Це викликає занепокоєння, починаючи від економічного старіння та позбавлення прав людини, втрати свободи, громадянських свобод, гідності та контролю, і закінчуючи ризиками для національної безпеки та навіть потенційним вимиранням людства», – йдеться у заклику.
Як повідомляє Національний антарктичний науковий центр, з 11 грудня і дотепер "Ноосфера" вперше працює за Південним полярним колом, де забезпечує проведення міжнародних океанографічних і геологічних досліджень. . Вчені пояснюють, що полярне коло - це ...
Дорожньо-транспортні пригоди з постраждалими найчастіше виникають через людський фактор. Серед основних причин - надмірна швидкість, ігнорування правил проїзду перехресть і пішохідних зон, небезпечні маневри, а також керування автомобілем у стані сп’ян...