Большой передел мира
245,220,112 1,159,176
 

  DeC ( Профессионал )
05 авг 2021 15:37:18

Пентагон

новая дискуссия Дискуссия  809

Пентагон испытывает ИИ, предсказывающий будущее

Военные США проводят эксперимент, который они назвали «Глобальное информационное доминирование» (GIDE – Global Information Dominance Experiments).

Используя искусственный интеллект, они пытаются прогнозировать развитие событий в конкретной стране мира.

«Мы не будем называть страны, но давайте просто скажем, что он (эксперимент) был ориентирован на равного конкурента», – сказал командующий Северного командования Вооруженных сил США генерал Глен Ванхерк.

Также известно, что эксперимент GIDE проводится сериями, напоминающими командные учения. Брифинг прошел как раз после третьей серии эксперимента.

В ходе каждой серии для анализа ситуации с помощью искусственного интеллекта на одну общую для всех участников эксперимента стеклянную панель объединяются самые разные массивы данных о ситуации в мире.

Информация собирается из огромного количества источников:
• Спутниковые снимки,
• Разведывательные отчеты,
• Данные полевых датчиков, радаров и многое другое.

Они обрабатываются в облаке, чтобы быть доступными военным и гражданским чиновникам, которые в них нуждаются для принятия решений.

Идея эксперимента GIDE состоит в том, чтобы предвидеть действия других стран заблаговременно и принять предупредительные меры до начала войны.

«GIDE ускоряет принятие решений и предоставляет возможности упреждающего действия, делая новые технологии более доступными и эффективными», – сообщил Ванхерк.



The Pentagon Is Experimenting With AI That Can Predict Events 'Days in Advance'


Непонимающий
  • +1.82 / 27
КОММЕНТАРИИ (15)
 
 
  grizzly ( Профессионал )
05 авг 2021 17:35:46
На днях на афтершоке была прикольная статья про то, как этот самый ИИ определял ковидлу по рентгеновским снимкам.
Цитата1. Низкое качество данных (вкл. «наборы данных Франкенштейна» - когда данные из нескольких источников могут содержать дубликаты и тестирование ведется на тех же данных, на которых ИИ-инструмент был обучен)
Например:
А) Данные сканирования грудной клетки детей, у которых не было ковида, в качестве примеров того, как выглядят случаи не-ковида.
Однако, в результате ИИ научился определять не ковид, а детей.
Б) Данные сканирования включали пациентов в лежачем положении (с большей вероятностью эти пациенты были серьезно больны).
В результате ИИ научился неправильно предсказывать серьезность риска коронавируса, исходя из положения человека (а если пациент стоял, то серьезность поражение лёгких ИИ просто игнорировал).
В. ИИ научился ориентироваться на шрифт текста, используемый разными больницами для маркировки сканированных изображений.
В результате шрифты из больниц с более серьезной нагрузкой стали предикторами риска заражения коронавирусом.

Всё это подтверждает предположение о том, что так называемый ИИ - просто маркетинговая фишка. Проф. Савельев так же упоминал, что искусственные нейроны, на которых построены все эти приборы с натуральными нейронами имеют мало общего, так что никакого интеллекта там нет по определению. 
А учитывая какого качества эхсперДы работают в пиндостане по России, они обучат свои нейронные сетки так, что цена на дрова в бухте Тикси будет эталоном качественного предсказания.
  • +3.84 / 56
 
 
  Cheen ( Специалист )
05 авг 2021 20:21:48
Можете кинуть в меня тапок, но я считаю что именно такой изящный мухлёж ИИ со шрифтами и является признаком интеллекта. Я вам больше скажу - в некоторых постсоветских лабах лаборантки мухлевали точно так же, если не успевали или влом было анализы анализировать. Пришел материал по направлению из онко - пишут онко, из кожвен - сифилис и т.д. .А может и поныне так делают. С чего взяли что даже слабое подобие интеллекта должо копировать дотошность, ум и трудолюбие человеческие, а не леность, жадность и поиск самого простого пути в работе - вот чего я не пойму.В очках
Кстати, судя по новостям, у нейросеток такое поведение типа "умный в гору не пойдёт, умный гору обойдёт" встречается довольно часто..
  • +1.08 / 32
 
 
 
  Senya ( Профессионал )
05 авг 2021 21:06:41
"Либой интеллект начиная с определённого уровня развития ищет на кого бы переложить свои обязанности."
Станислав Лем. Не то чтобы (с), но достаточно близко к текстуУлыбающийся
  • +1.80 / 28
  • Скрыто
 
 
 
  grizzly ( Профессионал )
05 авг 2021 23:09:10
Я сейчас в кроссовках, а расшнуровывать лень.
Это не признак интеллекта.
Ленивые раздолбаи готовили данные для обучения, а ИИ как обычный компьютер (коим он и является) сработал по схеме "дерьмо на входе - дерьмо на выходе".
Реальный интеллект засомневался бы на этапе обучения.
  • +3.15 / 57
 
 
  rommel.lst ( Практикант )
05 авг 2021 21:50:57
Это показывает лишь некомпетентность тех, кто организовывал исследование снимков с помощью нейросети. Потому, что если анализатор (любой) срабатывает на посторонних факторах, игнорируя целевые, значит, просто анализ проводился неправильно.
Медики они может и классные, а в решении задач обработки прикладных данных им (и тем, кого они привлекали) еще учиться и учиться..
  • +1.65 / 31
 
 
  сибиряк42 ( Слушатель )
06 авг 2021 19:48:56
Камрад, некоторые двуногие тоже не проявляют признаков интеллекта.

Нейронные сети построены по принципу мозга и работают так же. Есть алгоритм действия нейрона и вес решения. ИИ это не сферически конь в вакууме. ИИ создается под конкретную задачу. В соответствии с задачей создается нейронная сеть, которая проходит машинное обучение (опыт, навыки и знания человека). От качества нейронной сети и машинного обучения зависит - будет это ИИ уровня Королев или уровня дворник-алкаш.

ИИ прекрасно проявляет себя на типовых задачах: классификация, распознавание и предсказание. На нетиповых задачах ИИ не может конкурировать с человеческим мозгом. Симбиоз ИИ и человека это ближайшее будущее. Сетецентричность, заложенные в Су-57 и Армату именно про это.
  • +1.30 / 34
 
 
 
  qurvax ( Слушатель )
06 авг 2021 20:09:54
Чет с цитированием на форуме не того... но в общем вот, заради тяпницы:


"Камрад, некоторые двуногие тоже не проявляют признаков интеллекта."

И тут же образчик:

"Нейронные сети построены по принципу мозга и работают так же." (и пофиг, што последний принцип нам все еще нихрена не известен)

Моск хомячья, работающий по принципам нейросетей - мечта маркетолухов, не выучивших, что термин ИИ на заре интернетов значил "Исскуственный Идиот"Веселый
  • +1.30 / 18
  • Скрыто
 
 
 
  adolfus ( Практикант )
07 авг 2021 01:50:16
Нейронные сети построены по принципу мозга и работают так же. Есть алгоритм действия нейрона и вес решения.
[/quote]
Дилетантизм на марше. Принцип функционирования нейросетей и реальных нейронов даже и близко не похож. Мало того, различается принципиально и полностью. Никаких алгоритмов работы реальных нейронов не существует – их просто не написали и вряд ли напишут, потому что их нет.
Алгоритм – это описание полностью детерминированого действия для машины, оперирующей цепочками символов. Мозги не работают детерминироанно, иначе бы они не могли бы находить новые решения. Это и есть интеллект – способность находить решения для ранее не встречавшихся ситуаций. Выборка одного из набора заранее известных решений никакого отношения к ингеллекту не имеет, сколько бы таких решений не было определено и как бы точно одно из них не выбиралось – важно, чтобы было найдено решение, никому доселе не известное.
Цитата
ИИ прекрасно проявляет себя на типовых задачах: классификация, распознавание и предсказание.


Вне обучающей выборки они проявляют себя не просто хреново, а вообще никак не проявляют. Т.е. ни к каким предсказаниям, то бишь, обобщениям, они не способны. НН просто выбирают из ранее предъявленного наиболее близкий объект, при этом все зависит от того, как устроен критерий близости.
К тому же классификация, и распознавание к интеллекту имеют отношения слабое. Это свойство присутствует даже у простейших организмов, у которых нет никакой нервной системы.
НН никогда не обнаружат во входных данных новый класс объектов, которых при обучении не было предъявлено. Статистические методы, кстати, могут такое обнаруживать, а НН – нет.
В большом количестве случаев НН не работает даже на обучающем наборе по причине того, что гиперповерхность ошибок не является гладкой и односвязной. В этом случае градиентные и прочие методы, предполагающие гладкость и непрерывность не работают.
  • +2.28 / 51
 
 
 
 
  сибиряк42 ( Слушатель )
07 авг 2021 07:29:22
Правильно, оскорбление оппонента сразу придает вес и значимость ваших слов.

С точки зрения арифметики два яблока и два трактора одно и то же - цифра 2. Кружка переходит в бублик при непрерывной деформации и с точки зрения топологии кружка и бублик - это одно и то же.

При микроинсульте получая поражение одной зоны мозга человек перестает видеть, получая поражение другой зоны теряет способность ходить и т.д.

Подобный принцип использует нейросеть, один нейрон определяет квадрат это или нет, другой определяет красный или нет и т.д.  Машинное обучение учит нейросеть "правильно" реагировать на данные полученные через "рецепторы". Т.е. для узкоспециализированного направления нейросеть замечательно справляется с поставленной перед ней задачей. Нужно смотреть на ИИ не как на кибернетический разум (Скайнет), а как на систему алгоритмов, основанных на машинном обучении. ИИ призван освободить нас в будущем от рутинных задач, а не заменить.
 
ЦитатаВне обучающей выборки они проявляют себя не просто хреново, а вообще никак не проявляют. Т.е. ни к каким предсказаниям, то бишь, обобщениям, они не способны. НН просто выбирают из ранее предъявленного наиболее близкий объект, при этом все зависит от того, как устроен критерий близости.

Если ИИ управляет автоматической зенитной пушкой - он может классифицировать вертолет и спрогнозировать его положение в пространстве через несколько секунд и, запустив в эту точку очередь, сбить его. Это прогноз?
ЦитатаК тому же классификация, и распознавание к интеллекту имеют отношения слабое. Это свойство присутствует даже у простейших организмов, у которых нет никакой нервной системы.
НН никогда не обнаружат во входных данных новый класс объектов, которых при обучении не было предъявлено. Статистические методы, кстати, могут такое обнаруживать, а НН – нет.

Приходит ветеринар к терапевту.
Терапевт: — На что жалуетесь?
Ветеринар: — Нет, ну так каждый может!

Предъявляйте реальные требования к нейросети и будет вам счастье.
  • +2.32 / 54
 
 
 
 
 
  adolfus ( Практикант )
08 авг 2021 20:07:59
  • +0.47 / 7
 
  Поверонов ( Специалист )
05 авг 2021 18:57:22
Пентагон шаг за шагом приближается к ситуации автоматического залпа управляемого багом в софте
  • +0.52 / 10
  • Скрыто
 
 
  AK-630 ( Слушатель )
05 авг 2021 19:46:58
Страшно то, что бага может и не быть. ИИ в процессе обучения анализирует набор параметров, на основании которых делает те или иные вывода. Так вот - список входных параметров готовит (неожиданно) человек, который банально не в состоянии оценить в конечном счете, к каким выводам впоследствии придет ИИ на основании более простых решений, которые ему были предложены на стадии обучения.
  • +0.01 / 1
  • Скрыто
 
  Gangster ( Практикант )
05 авг 2021 20:52:40
Всё очень просто. Искусственному интеллекту, а точнее компьютеру вкладываются примерно следующие параметры - алгоритм «Саакашвили» или там «Пашинян». Ну а далее ИИ выдаёт результат.
  • +0.48 / 9
  • Скрыто
 
 
  mr. Lb ( Слушатель )
06 авг 2021 13:43:31
Результат по обоим алгоритмам известен и без ИИ. И, мягко говоря, результат дерьмо.
  • +1.22 / 12
  • Скрыто
 
 
 
  Gangster ( Практикант )
06 авг 2021 20:49:50
Проблема в том, что в подобных раскладах не учитывались  или точнее неправильно оценивались противоборствующие алгоритмы как «Путин», «Шойгу», «батальон Восток»... Однако алгоритмы «Саакашвили» и «Пашинян» сработали на местных выборах, когда тех избрали в парламент, а потом они совершили свои перевороты, ибо вместо алгоритмов «проплаченное быдло», как и «деньги Сороса» использовались более мощные - «очень хорошо проплаченное быдло» и «очень большие деньги Сороса». Тоже самое имело место и на Украине, когда пришли Порошенко и вслед за ним Зеленский. Однако всё дело в том, что подобные ИИ (искусственный интеллект) будут работать как шахматные программы - что в них заложишь, так и будут работать. Если же ИИ столкнётся с изощренным противоборствующим человеческим интеллектом, то у него начинаются проблемы - как в шахматах, так и в этом гипотетическом американском ИИ.

P.S: Хотя именно в шахматах у человека против ИИ уже шансов практически нет, ибо современный комп побеждает даже не за счёт заложенной программы, а за счёт простого пересчёта вариантов (ходов). Новые шахматные компы считают очень быстро и на много ходов вперёд, что человеку неподвластно. А вот предполагаемый американский ИИ при анализе политической ситуации в той или иной стране простым пересчётом вариантов мало чего добъётся, ибо оценка ситуаций в мире неподвластна расчёту по многим алгоритмам, которые ещё скрыты. Можно лишь грубо расчитать прикидками, но не более того. Соответственно и результат, который даст комп, не будет обязательно правильным, так как многие сложнейшие варианты человеком расчитываются в основном интуитивно  либо благодаря накопленному колоссальному опыту, где даже русский «авось» часто многое решает.

Говоря шахматным языком человек в подобных делах «играет на позицию», которую он интуитивно или благодаря накопленному опыту может получить в будущем. ИИ или машина искуственного интеллекта на подобное просто никак не способна, ибо у машины нет возможности накапливать опыт либо действовать интуитивно без простого расчёта вариантов. Так что любая заложенная тем же человеком программа в подобные ИИ (искусственные интеллекты) просто перебъётся ответными действиями обыкновенного человека... если конечно до какого конфликта при этом дойдёт. Человек всё решает по ситуации или как Наполеон в своё время говорил: «Главное ввязаться в серьёзный бой, а там уж видно будет». Ленин эти слова Наполеона, кстати, в одной из своих работ эпиграфом повторил и уже потому совершил свою революцию.
  • +0.22 / 4