"Точность работы американской ракеты такова, что она уничтожает одного пассажира в авто, а остальные отделываются легким испугом", - Анти-Колорадос

Росіяни про подібну зброю можуть тільки мріяти.

"За последний год американская специализированная пресса выдала массу материалов на тему внедрения искусственного интеллекта в системы вооружений. Из них следует, что новейшие оборонные системы уже имеют все технические возможности для полностью автономной работы. Более того, часть из них уже работает без малейшего участия человека, но массовое внедрение этих возможностей еще на наступило уже точно не по техническим, а по этическим и правовым причинам", - пише Анти-Колорадос у своєму блозі, передають Патріоти України, та продовжує:

"Это положение вещей уже прямо подтвердил Пентагон в прошлом месяце. В заявлении его представителя было прямо сказано о том, что на данном этапе идет увязок правил работы автономных систем вооружений с конвенциями, которые регулируют правила ведения боевых действий.

В самом деле, целый ряд современных систем и комплексов, работают самостоятельно и без вмешательства человека. Единственная функция оператора сводится к переводу системы в автоматический режим. Дальше система самостоятельно осуществляет и идентифицирует цель, подбирает подходящее для ее поражения оружия, выбирает время применения оружия и дальше – сопровождает цель и наводит на нее боеприпас, до самого поражения.

Пока так работают системы, которые в принципе не могут допустить ошибки в идентификации цели. Проще говоря, из того алгоритма, который описывает для системы определение "цель" невозможно сделать исключений. Или почти невозможно.

Так работает система ПВО "Иджис" на эсминцах и крейсерах ВМФ США. Она включается в этот режим в зоне риска и работает самостоятельно. Однако именно описание цели здесь имеет четкие параметры. Скажем так, в районе автоматической работы системы, просто не может быть никаких других объектов, имеющих определенные параметры полета и других свойств, кроме цели и собственных самолетов и ракет, которые система распознает как "свой" и исключает из списка целей.

Причем, именно такой режим работы, когда система все делает самостоятельно, внедрен достаточно давно и если (по словам Пентагоно) до сих пор не увязаны этические и юридические аспекты автономной работы, то та же "Иджис" вполне нормально работает и без этой головной боли. А все потому, что каждый эсминец, крейсер или авианосец стоит миллиарды долларов и играться с терминами и соотношениями – нет возможности.

Тем более, что современные противокорабельные средства, имеют параметры работы, которые дают идентификацию цели совсем близко от атакуемого корабля. Это достигается высокой скоростью боеприпаса, малой высотой подлета и средствами радиоэлектронной борьбы.

Как мы помним, россияне однажды жаловались на "кривизну Земли", которая заслоняет горизонтом подлетающую цель. И тут все правильно. Физика и геометрия говорят о том, что если корабль не имеет средств мониторинга с неба, Дрона или самолета, то примерно с 200 км радиуса обнаружения цели этот параметр сокращается в десять раз, а сколько времени нужно современной ракете, чтобы преодолеть 20 или 10 км?

А если боеприпас высокоскоростной и летит выше скорости звука или даже в несколько раз выше этой скорости, то сколько времени нужно для того, чтобы его перехватить? А если таких боеприпасов летит сразу несколько? Тут речь идет о считанных секундах и человек просто не вписывается в эту схему. Поэтому "Иджис" работает автоматически на всей указаной выше цепочке действий – от обнаружения цели до ее поражения.

Проще говоря, система точно знает, что пассажирский самолет не будет подлетать к ней на сверхзвуковой скорости и в 5 метрах над волнами. Поэтому ей легко идентифицировать цель как "разбойника" и отработать по нему быстро и точно.

С одной стороны этот (и не только этот) пример говорит о том, что технически, промышленность и военные уже давно готовы перейти на такие системы, а с другой – здесь читается вполне понятный алгоритм, который указывает на то, что если существует реальная угроза и другими средствами она эффективно не может быть ликвидирована, то можно на конвенции, этику и прочее, "плюнуть слюной, как плевали до эпохи исторического материализма", по словам Остапа Бендера.

То есть, Штаты уже сейчас вывели из этических страданий ключевые системы оборонного характера, а ведь мы помним, что ПВО это – сугубо оборонная система, о чем и свидетельствует последнее слово ее названия. И наверное, представителям Пентагона следовало более точно выражать свою мысль, а именно, все этические и юридические рассуждения применительны к наступательным системам вооружений или вооружений, которые по своей природе нейтральны и могут выступать инструментом как в наступательных, так и в оборонительных целях.

В этом случае, понятие "цель" для машины должна описываться намного точнее, а это уже говорит о том, что искусственный интеллект должен интерпретировать данные о потенциальной цели, учитывая не только внешние параметры цели, но и контексты.

Достаточно сказать о том, что Штаты разработали модификацию ракеты класса воздух-земля, на базе Хелл-Файр, вообще без боеголовки с взрывчатым веществом. Поражающим элементом являются шесть подпружиненных мечей, которые выдвигаются перед поражением цели. Точность работы такова, что ракета уничтожает одного пассажира в легковой машине, а остальные отделываются легким испугом.

Так вот, как машине пояснить понятие "сопутствующий ущерб"? Ведь она подбирает боеприпас, исходя из гарантированного уничтожения цели. В данном случае, она (скорее всего) уложила бы туда нормальный Хелл-Файр, который разнес бы машину на мелкие части и еще несколько машин рядом.

Или вот представим, что оператор БПЛА выслеживает цель, которая движется внизу. Наверное, он выберет момент нанесения удара не только гарантирующий точное попадание, но и чтобы снести как можно меньше мирняка или не сложить в хлам ближайшие дома. А цель уже захвачена и он ее ведет какое-то время. Будет ли так вести цель ИИ?

Но все может измениться очень быстро и тотально. Как это не странно, причина может оказаться идентичной той, которая запустила ИИ в системе "Иджис". Ведь вот такие "страдания" на этические темы не могут длиться вечно. Рано или поздно, противник внедрит это в свое оружие и поскольку противник, типа Китая, Ирана, РФ или чего-то подобного, в принципе не забивает себе голову такой чушью, то такой ответ уже будет вынужденной необходимостью, поскольку ИИ работает быстрее и точнее. А это значит, что искусственное сдерживание внедрения этих технологий – игра в поддавки с противником.

И это не досужие домыслы или фантазия. Такой сценарий развития событий недавно был подтвержден в США. DARPA устроила конкурс AlphaDogfight Trials, который прямо указал на выводы, изложенные выше. Сутью конкурса было моделирование воздушных боев с использованием систем искусственного интеллекта от нескольких ведущих компаний США: Heron Systems, компания, в которой работает всего 30 сотрудников, избили Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Lockheed Martin, Perspecta Labs, PhysicsAI и SoarTech. Целью было проведение виртуальных боев для того, чтобы определить победителя и тем самым получить наиболее продвинутый вариант ИИ для такого рода боевых действий. Условия боев разработала Лаборатория прикладной физики Университета Джонса Хопкинса (APL).

19 августа состоялся первый тур сражений и во второй вышли: Aurora Flight Sciences, Heron Systems, Lockheed Martin и PhysicsAI. Потом состоялись парные поединки уже среди этих команд и Lockheed Martin победила Physics AI, а Heron Systems победила Aurora Flight Sciences. Эти две команды сразились между собой и победила Heron Systems.

А дальше – оказалась финальная и самая показательная часть этого конкурса. Против ИИ Heron Systems выступили пять лучших военных пилотов. Собачьи бои проводились на симуляторах F-16 Viper и в результате, искусственный интеллект вышел победителем.

Заметим, это работал "сырой алгоритм", разработанный маленькой компанией, а что будет, когда все это будет развернуто по-взрослому? Технологии уже пошли намного дальше, чем это можно себе представить и сдерживать их искусственно – становится все более опасно. В любом случае, через несколько лет ИИ станет одним из главных критериев мощи армии, а потому – пора".

Інформація, котра опублікована на цій сторінці не має стосунку до редакції порталу patrioty.org.ua, всі права та відповідальність стосуються фізичних та юридичних осіб, котрі її оприлюднили.

"Він навіть не у Москві": У Путіна лише два шляхи - удар тактичною ядерною зброєю по Україні, який не принесе перемоги, або різко зменшити вимоги та піти на мирні угоди, - Голобуцький

субота, 23 листопад 2024, 9:20

"Заява Путіна – вимушений крок, бо Захід не продемонстрував очікуваної Кремлем реакції. Захід не зрозумів дуже товстого «натяку» - довелось роз’яснювати особисто. Путін пів доби чекав на прояви паніки, на чергу дзвінків з усіх столиць НАТО, може навіть...

Народні прикмети на 23 листопада: Не забудьте посвятити хліб-сіль. Що не можна робити цього дня, щоб не відвернути щастя, а що варто здійснити

субота, 23 листопад 2024, 7:05

Православне свято 23 листопада за новим календарем (6 грудня за старим) - день пам'яті святителя Амфілохія. Також сьогодні поминають усіх, в Україні голодом заморенних. За юліанським календарем - день пам'яті апостолів від 70-ти - Іродіона, Ераста, Олі...