Искусственный интеллект, нейросети
147,926 822
 

  GEOFOR ( Слушатель )
26 май 2023 10:52:21

Что фейк грядущий нам готовит

новая дискуссия Статья  115

Искусственный интеллект выберет даже руководство. Пока из людей, а там ему видно будет. 


Это сейчас, как многие уже заметили, компьютер просит нас доказать, что мы не роботы. Потом он и спрашивать перестанет. Фейковые фото, новости, видео и аудио станут самым ходовым товаром весной будущего года, когда в США и Великобритании пройдут выборы на самые главные посты.

Британский премьер Риши Сунак объявил на днях, что вверенная ему страна должна стать лидером не то чтобы в борьбе, а скорее в выявлении тех капканов, которые может расставить искусственный интеллект.

Майкл Вулдридж из британского Института Алана Тьюринга считает, что ИИ — это главная головная боль ближайшего будущего:

Цитата«У нас и в США на подходе выборы, и все знают, какую роль играют социальные сети в распространении дезинформации. Но это ничто по сравнению с тем, в каком промышленном масштабе ее будет генерировать искусственный интеллект. Это вещь настолько изобретательная, что может подгонять дезинформацию даже по целевым группам, индивидуально и „под ключ“. Для избирателей-консерваторов — в глубинке, для лейбористов — в столичном регионе. Для того, кто мало-мальски знаком с программированием, такая работа не займет и полдня».


Пока озвучено три подхода к укрощению ИИ. Первый содержится в письме 30 тысяч ученых, инвесторов и разработчиков, включая Илона Маска и Стива Возняка. Они предлагают объявить мораторий на все дальнейшие движения, пока системы типа ChatGPT-4 не будут досконально изучены — что они смогут натворить? Мошенничество, дезинформация, резкое высвобождение рабочих мест?...

Фото якобы взрыва неподалеку от Пентагона. Изображение разлетелось по многим СМИ, пока не стало ясно, что оно было сгенерировано искусственным интеллектом.
Сунак в этом смысле менее осторожен. И это — второй подход к решению проблемы. Он вообще сторонник развития ИИ, поскольку считает, что преимуществ от него больше, чем рисков. В марте британское правительство приняло довольно «лайтовую» программу, где никаких суровых ограничительных функций не просматривается. Более того, в Королевстве сейчас создается исследовательский институт с бюджетом в 100 миллионов фунтов, который должен к 2030 году укротить ИИ и создать на его основе приложения, которые и будут двигать вперед британскую науку.

Цитата«Мы сознательно избрали итеративный подход (создания и одновременного тестирования программ, пока не будет достигнут искомый результат), поскольку технология развивается настолько стремительно, что иначе мы просто перестанем успевать за ней со своими регулирующими мерами», — сказал Сунак журналистам в самолете по дороге в Японию. А там эта тема тоже обсуждалась.


Таким образом, на Даунинг стрит не считают, что мораторий — это выход. Управление по конкуренции и рынкам Великобритании предложило прежде всего пересмотреть базовые элементы и модели, лежащие в основе программ ИИ. В сентябре будет опубликован обзор, посвященный правовым аспектам его применения.
Третий подход озвучил Главный исполнительный директор OpenAI, которая, собственно, и разработала OpenGPT, Сэм Альтман, которого пригласили выступить перед юридическим комитетом Сената США. Он считает, что правительство должно разработать требования для тестирования, лицензирования и дальнейшего релиза всех моделей ИИ. Следует создать набор стандартов, моделей, тестовых правил и прочих препонов, которые должен преодолеть любой разработчик, прежде чем выставить на рынок свою версию программы. Существующая ныне в Штатах платформа «Секция 230», которая примерно тем же и занимается, только в упрощенном виде, не справится с задачей, как считает Альтман.

Цитата«США, — сказал он на слушаниях, — должны установить еще и международные стандарты, с которыми считались бы и которые признавали другие страны. Тут важен глобальный подход, и мы хотим, чтобы лидером стала Америка. Нам нужны границы допустимого, и мы их будем определять».


Собственно, почти то же самое, что затеял Сунак, только он имел в виду Великобританию.

Исполнительный директор стартапа OpenAI Сэм Альтман выступает перед юридическим комитетом Сената США. Фото: Haiyun Jiang / The New York Times

Пока, к примеру, программы свободно, обильно и, главное, практически не определяемо формулируют темы о независимости Тайваня, климатических катастрофах или притеснениях ЛГБТ сообществ. Тут же они вбрасываются в соцсети и копируются по экспоненте.

Американская компания NewsGuard, отслеживающая все движения на рынке информации и дезинформации, протестировала последнюю модель ChatGPT. Из 1 300 давно разоблаченных фейков было предложено сгенерировать 100 новых. Система выдала ровно 100. В то время, как Google Bard сумел создать только 76. Компания обнаружила, что за две недели количество созданных сайтов и нарративов само увеличилось вдвое.

Джоэл Голби, автор английской «Гардиан», полагает, что «в общедоступной части интернета, то есть в соцсетях, достаточно принять Cookies, всплывающие окна или прочитать первые 100 слов в Substack (американская платная платформа распространения публикаций) — и вот уже вы сами получатель этих фейков-пранков».

Голби рассказывает о том, как повелся на недавнее фото папы римского в пуховике Balenciaga:


Цитата«Прежде всего я увеличил картинку и стал рассматривать руки — как правило, до них дело не доходит и руки как раз все и выдают. Но там все было в порядке... Когда стало понятно, что это подделка, пришла мысль — ок, это шутка, но если он „произнесет“ что угодно, типа „собаки попадают в рай, а кошки в ад“, — начнется просто война».



Фото Папы Римского Франциска в пуховике Balenciaga, сгенерированное нейросетью.

Мередит Уиттакер, бывшая разработчица ИИ в Google, а теперь новый генеральный директор мессенджера «Сигнал», считает, что вся эта тревога по поводу технологий ИИ преувеличена: «Это все фантазии, распространяемые продавцами программы. ИИ — это генератор случайных чисел. Программа разработана для того, чтобы мониторить, выискивать, обрабатывать массивные потоки информации из интернета и формулировать их в доступном и удобочитаемом виде».

Автор: Максим Чикин
Фото: Tolga Akmen / AFP 2023
  • +0.00 / 0
  • АУ
ОТВЕТЫ (3)
 
 
  Поверонов ( Слушатель )
26 май 2023 21:08:48

ИИ это генератор контента но чтобы успешно генерировать кто-то должен извне определить для ИИ "что такое "хорошо и что такое плохо", и для этого сам учитель должен уметь это делать. Поэтому никакого контента типа 
"может подгонять дезинформацию даже по целевым группам, индивидуально и „под ключ“, который не может оценить человек, ИИ сгенерировать не сможет - ибо ему нужна мгновенная обратная связь подтверждения успешной или неуспешной генерации, которую априори взять негде
  • +0.00 / 0
  • АУ
 
 
  Edvid ( Слушатель )
27 май 2023 02:12:28

///////////////////////////////////////
Бесполезен ИИ, по крайней мере, сегодня.  По любым специализированным вопросам несет ахинею. Например, спросил (в разных вариантах), что такое феррорезонанс и ничего толкового не узнал. Для ИИ оказывается нет разницы между ферро и электрическим резонансами...
  • +0.08 / 6
  • АУ
 
 
 
  small__virus ( Слушатель )
29 май 2023 13:04:00

Ну... Не совсем так.
.....
Энтузиаст с помощью ChatGPT и Midjourney всего за три дня создал потрясающую браузерную игру с помощью нейросети. ChatGPT работал над сценарием и диалогами, а Midjourney отвечал за визуальные эффекты.

Вы можете играть в игру, перейдя по этой ссылке, ( https://ludenio.itch…-adventure ) также ИИ-энтузиаст даже составил подробное руководство ( https://blog.luden.i…7e7e615204 ) с подробным описанием процесса разработки.
  • +0.01 / 1
  • АУ