Международная неправительственная организация Human Rights Watch совместно с Гарвардской школой права опубликовала доклад об опасности использования полностью автономных боевых роботов и роботизированных вооружений и призвала правительства всех стран отказаться от их разработки. Доклад организации представлен на 50 страницах, но его суть можно выразить одной фразой - самостоятельные роботы будут убивать всех без разбора.
Первая категория подразумевает, что некая беспилотная машина может самостоятельно обнаруживать и выбирать цели, однако решение об их уничтожении принимает только человек-оператор. Ко второй категории относятся системы, способные самостоятельно обнаруживать и выбирать цели, а также принимать решения об их уничтожении, но человек-оператор, выполняющий роль наблюдателя, в любой момент может вмешаться в эту цепочку. Наконец, в третью категорию HRW включила роботов, способных обнаруживать, выбирать и уничтожать цели вообще без человеческого вмешательства. С точки зрения международного гуманитарного права, именно последняя категория автономных боевых систем представляет наибольшую опасность.
И, поскольку роботы не могут сострадать, они будут убивать раненых и выбывших из боевых действий (сложивших оружие) противников, хотя это запрещено Женевскими конвенциями.
Наконец, при широком использовании автономного вооружения категории "человек-вне-системы-управления" невозможно будет установить виновного в случае гибели мирного населения.
Между тем, создание автономных роботизированных систем считается правительствами многих стран приоритетным направлением.
Так, современные зенитные ракетные комплексы могут действовать в полностью автоматическом режиме. Например, такими свойствами обладают американские комплексы Patriot, российская С-400 или израильский "Железный купол". В июле 2010 года Южная Корея начала размещать на границе с КНДР патрульных роботов, способных вести наблюдение за приграничными территориями, обнаруживать нарушителей и, с одобрения оператора, открывать по ним огонь.
И доводов в пользу создания полностью автономных систем, по мнению военных, существует больше, чем против. Например, предполагается, что перспективный американский истребитель шестого поколения будет беспилотным гиперзвуковым аппаратом. Учитывая, что на скоростях полета более пяти тысяч километров в час и при большом объеме поступающих данных (а их беспилотники уже сегодня дают больше, чем способен обработать человек) оператор просто не сможет вовремя принимать необходимые ситуационные решения, получается, что эту работу придется переложить на "плечи" искусственного интеллекта.
(с)
-------------------------------------------------------------------------------------------
На память мне приходят слова Фр. Ницше, который многое сумел предсказать. На этот раз: " Чтобы правильно предсказать поступки людей, надобно исходить из предположения, что люди в своём поведении используют минимальное количество ума" (с).