Мнение «аналитика»: О чудовищной новой реальности… Раньше, чем все думали?
Подписаться на Telegram-канал
Подписаться в Google News
Поддержать в Patreon
Ну, здравствуй, новый дивный мир победившего интеллекта!
Как-то иначе мы себе тебя представляли. Более «гуманным» что ли…
Но случилось то, что случилось. И хотя это лишь начало, уже нетрудно понять, что же будет дальше.
Кошмар!
Вы хотите знать, почему израильская спецоперация в секторе Газа оказалась столь убийственной и разрушительной? Почему за полгода там разрушено две трети жилых и общественных зданий, из которых каждое пятое превращено в руины? Почему убито более 33 тыс. палестинцев из примерно 2-миллионного населения, причём каждый третий из них — несовершеннолетний?
Оказывается, дело не только в мести и ярости.
На уходящей неделе израильский журналист и режиссёр Юваль Абрахам опубликовал обширный материал о существовании программы «Лаванда» и её роли в ходе израильской кампании в Газе, последовавшей за кровавым террористическим ударом ХАМАС 7 октября. Он просеял огромный массив данных, поговорил со многими людьми в спецслужбах Израиля и зафиксировал показания шести анонимных офицеров израильской разведки: все они имели «самое непосредственное отношение» к планированию спецоперации.
Оказывается, за мирным названием по-своему красивого растения скрывается милитари-инструмент на основе искусственного интеллекта, обученный израильскими военными и специалистами по BigData. Он просеивал огромные массивы данных наблюдения и другой информации, чтобы помочь ЦАХАЛ найти цели для атак против предполагаемых террористов. И он сыграл важную роль, особенно на ранних этапах войны, когда Израиль наносил по территории Газы беспрерывные авиаудары, сметая с лица земли дома и целые кварталы.
Как утверждает Юваль Абрахам, именно программа «Лаванда» определила для приоритетного уничтожения до 37 тыс. палестинцев, предположительно связанных с ХАМАС, и установила расположение их домов в Газе. «На ранних этапах войны армия давала офицерам разрешение на использование списков «Лаванды», при этом не требовалось тщательно проверять, почему машина сделала такой выбор, или изучать исходные данные разведки, на которых они были основаны», — сообщил журналист. Впрочем, ЦАХАЛ официально отрицает существование некоего «списка убийц» и характеризует программу как базу данных, предназначенную для систематизации перекрёстных ссылок на разрозненные источники разведданных. Но, в принципе, такая узкая трактовка «Лаванды» не опровергает выводов расследователя.
Привлечение ИИ к поиску целей для «ударов возмездия» помогает объяснить тот колоссальный масштаб разрушений, которые Израиль обрушил на Газу, пытаясь «наказать» боевиков, а также большое количество жертв. В предыдущих раундах конфликта между Израилем и ХАМАС Армия обороны Израиля использовала более длительный процесс выбора целей, основанный не только на разведывательных, но и на других данных. «На нас постоянно давили: «Дайте нам больше целей!!!». Они действительно кричали на нас», — сказал Ювалю Абрахаму один из офицеров разведки.
Многие из боеприпасов, которые Израиль сбросил на цели, предположительно выбранные «Лавандой», были «тупыми» бомбами — тяжёлым неуправляемым оружием, которое наносит значительный ущерб и приводит к гибели мирных жителей. Согласно репортажу Юваля Абрахама, израильские чиновники не хотели «тратить» более дорогие боеприпасы с точным наведением на множество боевиков ХАМАС младшего уровня, выявленных в результате работы ИИ. И они также не проявляли особой щепетильности, сбрасывая эти бомбы на здания, где спали семьи людей, определённых как «цели». Это — также часть объяснения.
Как видим, искусственный интеллект стремительно вторгается в ту область, которая прежде была сферой исключительно людей: убивать себе подобных. Он проникает во все военные технологии, начиная от ударных дронов, где служит для выбора и удержания цели, и заканчивая «участием» в планировании военных операций. Причём в обоих случаях человек в конечном итоге подчиняется решению искусственного разума. Поэтому он скоро станет «лишним звеном» в цепочке «выбор мишени — нанесение удара», а управлять умным оружием будет ИИ. Который при этом обладает ещё и способностью к самообучению.
У американского фантаста Роберта Шекли была новелла о страж-птицах — самообучающихся летающих роботах, которые по начальной задумке должны были предотвращать убийства, не причиняя, однако, смертельного вреда потенциальным убийцам. Но в процессе практического применения «птицы» сначала научились отменять ограничение на удары по агрессору, а затем расширили понятие «убийство» настолько, что жизнь людей на Земле стала невозможной. Под их запрет попали не только охота и рыбалка, но даже сельское хозяйство: пахоту и косьбу, а также сбор урожая страж-птицы тоже стали считать вариантом убийства. Чтобы остановить таких «защитников», люди создали создали новый вид самообучающихся летающих машин-ястребов — уже для уничтожения страж-птиц. А заканчивается всё тем, что «ястребы» в процессе аналогичного самообучения открыли, что кроме страж-птиц «есть и другие живые существа, которых тоже надо убивать».
Этой фантастической антиутопии — более 70 лет. И кажется, человечество дозрело, чтобы начать воплощать её в жизнь.
А далее — появятся самообучающиеся роботы-убийцы, возникнет Скайнет и мы все окажемся в мире «Терминатора», только без возможности всё исправить, перемещаясь во времени?
Судный день таки грядёт?
—
Источник: Альманах (прокремлевского) “непредвзятого аналитика”
Смотреть комментарии → Комментариев нет