Ещё одно открытое письмо с предупреждением о возможных негативных последствиях развития ИИ было опубликовано 30 мая. Оно состоит всего из 22 слов (на английском языке) и передаёт тревогу, которой хотели поделиться с аудиторией подписавшие обращение генеральный директор OpenAI Сэм Альтман, лауреаты премии Тьюринга Джеффри Хинтон и Йошуа Бенжио, главный научный сотрудник OpenAI Илья Суцкевер, генеральный директор DeepMind Демис Хассабис, а также эксперты и учёные из крупнейших университетов и технологических компаний. Список подписантов постоянно пополняется: сейчас там порядка 350 имён.
Текст письма опубликован на сайте Центра безопасности ИИ (Center for AI Safety или CAIS):
«Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемии и ядерная война».Arstechnica обращает внимание, что письмо появилось в тот момент, когда Сэм Альтман «путешествует по миру», встречаясь с главами государств и обсуждая перспективы развития ИИ и его потенциальные опасности. Перед этим Альтман выступал в Сенате США и ратовал за более серьёзное регулирование отрасли. Издание замечает, что это краткое заявление примечательно тем, чего в нём нет. Например, нет уточнений, что именно подразумевается под «ИИ»; также в письме нет решений для снижения рисков, только упоминание, что это должно стать «глобальным приоритетом».
Arstechnica цитирует экспертов, раскритиковавших письмо. Например, исследователь машинного обучения в Hugging Face доктор Саша Лучони считает, что авторы обращения выбрали «неверное направление», привлекая внимания общественности к одному (будущие риски), чтобы люди не думали о другом (осязаемые текущие риски)». «Это заставляет людей, подписывающих письмо, выглядеть героями истории, учитывая, что именно они создают эту технологию», — отмечает Лучони. Писатель и футуролог Дэниел Джеффрис назвал выступления, посвящённые рискам и вреду ИИ, «официальной статусной игрой, в которой каждый хочет вскочить на подножку, чтобы хорошо выглядеть»: ничего не стоит и звучит хорошо. «Попытки решить воображаемые проблемы завтрашнего дня — это пустая трата времени. Решите сегодняшние проблемы, и завтрашние проблемы будут решены, когда мы до них доберёмся».
Это не первое коллективное выступление против гипотетических опасностей ИИ. В марте этого года Future of Life Institute опубликовал заявление, подписанное в том числе и Илоном Маском, которое призывало к шестимесячной паузе в обучении моделей ИИ, «более мощных, чем GPT-4».
Хабр