Как программист не могу не заметить, что какая-либо автономная "интеллектуальность" БПЛА на данном этапе это сугубо попилинг и откатинг. Если например взять DARPA Grand Challenge 2007 (это такое соревнование автомобилей-роботов), то у победителя "в черепушке" был кластер из 10 "блэйдов" на Intel Core 2 Duo 2,16 ГГц. Взлететь с таким холодильником и системами обеспечения его электроэнергией мне кажется будет сложновато (скорее всего, пилот будет легче). При этом он оказался способен двигаться только со скоростью 22 км\ч. Нужно заметить, что обзор у БПЛА гораздо больше, и соответственно обрабатывать ему нужно гораздо больше информации, и плюс обработка должна быть гораздо сложнее (тоесть мощности данного кластера заведомо недостаточны)... В принципе технические проблемы, скорее всего, со временем можно будет решить, но есть проблема этического плана. Кто нажимает на курок? При взгляде на комментарии господ вещающих про селекцию целей и автоматическое нанесение нанесение удара с БПЛА я никак не могу отделаться от ощущения, что они хотят воплотить в жизнь "страж-птицу" придуманную Р. Шекли
http://lib.babr.ru/index.php?book=1620(кстати у Шекли продумана
и концепция БПЛА борющихся с БПЛА). Вообще вся эта концепция "безпилотной армии" рождена, ПМСМ, из-за того, что человеки по большому счёту не приспособлены для того, что бы убивать человеков. После этого у них случаются постстрессовые синдромы всякие всякие, и нужно тратить кучу времени, что бы солдат научился видеть перед собой цель вместо человека. Но кто в таком случае несёт ответственность?