Интеллектуальный ИИ iPal для роботов для обучения детей демонстрируется на стенде AvatarMind на выставке бытовой электроники CES 2019 в конференц-центре Лас-Вегаса в Лас-Вегасе, штат Невада, 8 января 2019 г. (Робин Бек / AFP через Getty Images) В Объединенных Нациях предупредили, что системы искусственного интеллекта (ИИ) могут представлять «негативную, даже катастрофическую» угрозу для прав человека, и призвали запретить приложения ИИ, которые не используются в соответствии с правами человека. Глава ООН по правам человека Мишель Бачелет 15 сентября призвала государства-члены наложить временный запрет на продажу и использование ИИ до тех пор, пока потенциальные риски, которые он представляет, не будут устранены и пока не будут приняты адекватные меры безопасности для предотвращения злоупотреблений этой технологией. «Мы не можем позволить себе продолжать догонять ИИ, разрешая его использование с ограниченными или без границ или надзора и имея дело с почти неизбежными последствиями для прав человека постфактум», - заявила Бачелет в своем заявлении . «Способность ИИ служить людям неоспорима, как и способность ИИ подпитывать нарушения прав человека в огромных масштабах, практически незаметно. Сейчас необходимо принять меры, чтобы ограничить использование искусственного интеллекта рамками прав человека на благо всех нас », - добавила глава по правам человека. Ее замечание прозвучало вскоре после того, как ее офис опубликовал отчет, в котором анализируется, как ИИ влияет на право людей на неприкосновенность частной жизни, а также ряд других прав, касающихся, в частности, здоровья, образования, свободы передвижения и свободы выражения мнений. Документ включает оценку профилирования, автоматизированного принятия решений и других технологий машинного обучения. Хотя в отчете отмечается, что ИИ можно использовать с пользой и может помочь «обществу преодолеть некоторые из величайших проблем нашего времени», его использование в качестве инструмента прогнозирования и профилирования может существенно повлиять на «права на неприкосновенность частной жизни, на справедливое судебное разбирательство, на свободу от произвольного ареста и задержания и права на жизнь». Согласно отчету, многочисленные штаты и предприятия часто не проводят должную осмотрительность, спеша внедрять приложения ИИ, а в некоторых случаях это приводит к опасным промахам: некоторые люди, как сообщается, подвергаются жестокому обращению и даже арестовываются из-за некорректного программного обеспечения для распознавания лиц. Между тем, распознавание лиц может позволить неограниченное отслеживание людей, что может привести к множеству проблем, связанных с дискриминацией и защитой данных. Робот с искусственным интеллектом (слева) от CloudMinds во время конференции Mobile World Conference в Шанхае 27 июня 2018 г. (- / AFP / Getty Images) Посетители смотрят на систему умного города с искусственным интеллектом от iFLY на Международной выставке интеллектуальной транспортной индустрии 2018 года в Ханчжоу в восточной китайской провинции Чжэцзян в декабре 2018 года (STR / AFP / Getty Images) Поскольку многие системы искусственного интеллекта полагаются на большие наборы данных, дальнейшие проблемы, связанные с тем, как эти данные хранятся в долгосрочной перспективе, также представляют собой риск, и есть потенциал для использования таких данных в будущем, что может создать значительные риски для национальной безопасности. «Сложность среды данных, алгоритмов и моделей, лежащих в основе разработки и эксплуатации систем искусственного интеллекта, а также преднамеренная секретность государственных и частных субъектов являются факторами, подрывающими значимые способы понимания общественностью воздействия систем искусственного интеллекта на права человека и общество», - говорится в сообщении. Тим Энгельхардт, специалист по правам человека в Секции верховенства закона и демократии, предупредил, что ситуация «ужасная» и с годами она только ухудшается, поскольку некоторые страны и предприятия внедряют приложения ИИ, не изучая при этом многочисленные потенциальные риски связанные с этой технологией. Приветствуя согласие ЕС «усилить правила контроля», он отметил, что решение множества проблем, связанных с ИИ, не появится в следующем году и что первые шаги по решению этой проблемы необходимо предпринять сейчас или «многие люди в мире заплатят высокую цену». «Чем выше риск для прав человека, тем строже должны быть юридические требования к использованию технологии искусственного интеллекта», - добавила Бачелет. Отчет и комментарии Бачелет последовали за июльскими откровениями о том, что шпионское ПО, известное как Pegasus, использовалось для взлома смартфонов тысяч людей по всему миру, включая журналистов, правительственных чиновников и правозащитников. Телефон министра финансов Франции Бруно Ле Мера был лишь одним из многих, в отношении которых проводилось расследование взлома с помощью шпионского ПО, разработанного израильской компанией NSO Group. NSO Group выступила с заявлением для нескольких агентств, в котором не были рассмотрены обвинения, но заявила, что компания «продолжит предоставлять разведывательным и правоохранительным органам по всему миру спасательные технологии для борьбы с терроризмом и преступностью». Выступая на слушаниях в Совете Европы о последствиях спора о шпионском ПО Pegasus, Бачелет сказала, что эти разоблачения не стали неожиданностью, учитывая «беспрецедентный уровень слежки по всему миру со стороны государственных и частных субъектов».