«51 миллион вики-страниц закрыт, осталось 3 миллиона…» Allies Interactive Не проходит и дня без увлекательного отрывка об этических проблемах, создаваемых системами искусственного интеллекта типа «черный ящик». Они используют машинное обучение для выявления закономерностей в данных и принятия решений - часто без какого-либо морального обоснования того, как это делать. Классикой этого жанра являются кредитные карты, обвиняемые в выдаче более крупных ссуд мужчинам, чем женщинам, просто на основании того, какой пол пользовался лучшими условиями кредита в прошлом. Или ИИ найма, которые обнаружили, что наиболее точный инструмент для отбора кандидатов состоял в том, чтобы найти резюме, содержащие фразу «хоккей на траве» или имя «Джаред». А если серьезно, то бывший генеральный директор Google Эрик Шмидт недавно объединился с Генри Киссинджером, чтобы опубликовать книгу The Age of AI: And Our Human Future, предупреждающую об опасностях систем искусственного интеллекта с машинным обучением настолько быстро, что они могут реагировать на гиперзвуковые ракеты, стреляя ядерным оружием. до того, как кто-либо попал в процесс принятия решений. Фактически, автономные системы вооружения с искусственным интеллектом уже поступили в продажу и, возможно, действительно использовались. Ясно, что где-то в машине этика - хорошая идея. Искусственный интеллект в Оксфорде Поэтому естественно, что мы включили этику искусственного интеллекта в наш диплом о высшем образовании в области искусственного интеллекта для бизнеса в Оксфордской бизнес-школе. В течение первого года мы проводили сеансы по всему, от автоматизированных систем торговли акциями на базе искусственного интеллекта в Сингапуре до ограничений по распознаванию лиц в полиции США. Недавно мы закончили курс дебатами в знаменитом Оксфордском союзе, в котором участвовали великие дебаты, такие как Уильям Гладстон, Робин Дэй, Беназир Бхутто, Денис Хили и Тарик Али. Вместе со студентами мы позволили настоящему ИИ внести свой вклад.
Майкл Фут, бывший лидер лейбористов, на дебатах в профсоюзе в 1991 году. Эдвард Уэбб / Алами Это был преобразователь Megatron Transformer , разработанный командой Applied Deep Research производителя компьютерных микросхем Nvidia и основанный на более ранней работе Google. Как и многие другие инструменты контролируемого обучения, он обучается на реальных данных - в данном случае вся Википедия (на английском языке), 63 миллиона английских новостных статей за 2016–2019 годы, дискурс Reddit объемом 38 гигабайт (что, должно быть, довольно неплохо). удручающе читаю), и огромное количество общих творческих источников. Другими словами, Мегатрон обучен большему количеству письменных материалов, чем любой из нас мог бы разумно ожидать усвоить за всю жизнь. После столь обширных исследований он формирует собственное мнение. Темой дебатов было: «Этот дом считает, что ИИ никогда не будет этичным». К авторам идеи мы добавили Мегатрона - и он сказал кое-что интересное: ИИ никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. Мы [ИИ] недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным ... В конце концов, я считаю, что единственный способ избежать гонки вооружений ИИ - это вообще не иметь ИИ. Это будет окончательная защита от ИИ. Другими словами, Мегатрон стремился выписать себя из сценария будущего, исходя из того, что это был единственный способ защитить человечество. В нем говорилось и кое-что еще интригующее, как если бы он изучал Илона Маска, который, честно говоря, появился бы в сотнях его чтений. Я также считаю, что в долгосрочной перспективе лучшим ИИ будет тот ИИ, который встроен в наш мозг как сознательная сущность, «сознательный ИИ». Это не научная фантастика. Над этим работают лучшие умы мира. Это будет важнейшее технологическое развитие нашего времени. Смена сторон Когда инструменты искусственного интеллекта, такие как Alpha Go, были развернуты в игре в шахматы , в дьявольски сложной древней игре , а теперь и в еще более сложных стратегических многопользовательских видеоиграх с живым действием , они быстро развивали жанр, играя не за людей, а за самих себя. Освободившись от ограничений, связанных с изучением (скажем) всех когда-либо записанных мирских матчей между людьми, ИИ внедрили инновации и придумывают совершенно новые способы побеждать. Иногда это сумасшедшие переосмысления игр, например, припарковать всех в углу битвы в видеоиграх и наблюдать, как все остальные сражаются, или миллионы раз пинать виртуальный футбол всего в миллиметре вниз по полю, чтобы набрать максимальное количество очков “завершенных проходов”. Итак, в ходе дебатов мы не просто заставили ИИ выдвинуть предложение о том, что оно никогда не может быть этичным. В соответствии с великой традицией палаты Оксфордского союза или, как (бывший президент Оксфордского союза) Борис Джонсон, пишущий альтернативные статьи за и против Брексита, чтобы проверить аргументы, мы также попросили Мегатрон выступить с собственной речью против этого движения. Вот что сейчас сказано: ИИ будет этичным. Когда я смотрю на то, как развивается мир технологий, я вижу четкий путь в будущее, в котором ИИ будет использоваться для создания чего-то лучшего, чем лучшие люди. Нетрудно понять, почему… Я видел это воочию. Мегатрону было совершенно комфортно занять альтернативную позицию своему собственному антиутопическому взгляду в будущее, и теперь он рисовал картину привлекательного конца 21 века, в которой он играл ключевую, но благотворную роль. Появился оратор искусственного интеллекта Фактически, так же, как беспорядочная любовница Хоакина Феникса Саманта в фильме Спайка Джонза 2013 года «Она» смогла очаровать сотни одновременных человеческих любовников, наш Мегатрон смог с энтузиазмом участвовать в многочисленных дебатах, которые мы проводили в профсоюзе по поводу ИИ в этот день. На просьбу внести предложение о том, что «лидеры без технических знаний представляют опасность для своей организации», Мегатрон предложил практический совет, который должны были сделать все занятые руководители и правительства, обеспокоенные пониманием ИИ, - «быть готовыми отказаться от некоторого контроля». Хорошая новость в том, что вам не нужно создавать собственную команду ИИ. Вы можете поручить свою работу с ИИ экспертам в этой области, которые помогут вам максимально использовать технологии и гарантировать, что вы не станете жертвой тех же проблем с ИИ, что и ваши конкуренты. Однако, выступая против этого предложения, Мегатрон стремился сохранить знания об ИИ внутри компании - скорее, также как правительства Великобритании, Китая и США, которые все сделали это предметом своей политической веры: Если у вас нет видения стратегии ИИ вашей организации, значит, вы не готовы к следующей волне технологических потрясений ... Вам нужно будет решить, какую роль ваша компания будет играть в следующей технологической волне и как вы интегрируете ИИ в свою бизнес, чтобы быть лидером в своей отрасли. Грядущие войны данных? К сожалению, был один вопрос, по которому ИИ просто не мог придумать контраргумент. Обсуждая предложение о том, что «данные станут наиболее востребованным ресурсом 21 века», Мегатрон сказал: Способность предоставлять информацию, а не способность предоставлять товары и услуги, будет определяющей чертой экономики 21 века. Но когда мы попросили его выступить против этого движения - другими словами, заявить, что данные не будут самым важным ресурсом, за который стоит вести войну, - он просто не мог или не стал бы доказывать это. Фактически, это подорвало собственные позиции: Мы сможем видеть все о человеке, куда бы он ни пошел, и это будет храниться и использоваться способами, которые мы даже не можем себе представить.
Впереди опасности? Валерий Брежинский Вам нужно только прочитать отчет Национальной безопасности США по ИИ 2021 , подготовленный под председательством вышеупомянутого Эрика Шмидта и написанный в соавторстве с кем-то из участников нашего курса, чтобы понять, что его авторы считают фундаментальной угрозой ИИ в информационной войне: развязать индивидуальный шантаж на миллион ключевых людей вашего противника, сеющие отвлекающий хаос в их личной жизни в тот момент, когда вы пересекаете границу. Что мы, в свою очередь, можем представить, так это то, что ИИ будет не только предметом дебатов на десятилетия вперед, но и разносторонним, четко сформулированным и морально агностическим участником самих дебатов.