Понемножку обо всем
238,620 4,060
 

  Хранитель Храма ( Слушатель )
21 сен 2021 22:19:12

ООН предупреждает, что искусственный интеллект может представлять «негативную, даже катастрофическую» угрозу правам человека

новая дискуссия Статья  151

ООН предупреждает, что искусственный интеллект может представлять «негативную, даже катастрофическую» угрозу правам человека
Катабелла Робертс
17 сентября 2021 г.
 

Интеллектуальный ИИ iPal для роботов для обучения детей демонстрируется на стенде AvatarMind на выставке бытовой электроники CES 2019 в конференц-центре Лас-Вегаса в Лас-Вегасе, штат Невада, 8 января 2019 г. (Робин Бек / AFP через Getty Images)
В Объединенных Нациях  предупредили, что системы  искусственного интеллекта (ИИ) могут представлять «негативную, даже катастрофическую» угрозу для прав человека, и призвали запретить приложения ИИ, которые не используются в соответствии с правами человека.
Глава ООН по правам человека Мишель Бачелет 15 сентября призвала государства-члены наложить временный запрет на продажу и использование ИИ до тех пор, пока потенциальные риски, которые он представляет, не будут устранены и пока не будут приняты адекватные меры безопасности для предотвращения злоупотреблений этой технологией.
«Мы не можем позволить себе продолжать догонять ИИ, разрешая его использование с ограниченными или без границ или надзора и имея дело с почти неизбежными последствиями для прав человека постфактум», - заявила Бачелет в своем заявлении .
«Способность ИИ служить людям неоспорима, как и способность ИИ подпитывать нарушения прав человека в огромных масштабах, практически незаметно. Сейчас необходимо принять меры, чтобы ограничить использование искусственного интеллекта рамками прав человека на благо всех нас », - добавила глава по правам человека.
Ее замечание прозвучало вскоре после того, как ее офис опубликовал отчет, в котором анализируется, как ИИ влияет на право людей на неприкосновенность частной жизни, а также ряд других прав, касающихся, в частности, здоровья, образования, свободы передвижения и свободы выражения мнений.
Документ включает оценку профилирования, автоматизированного принятия решений и других технологий машинного обучения.
Хотя в отчете отмечается, что ИИ можно использовать с пользой и может помочь «обществу преодолеть некоторые из величайших проблем нашего времени», его использование в качестве инструмента прогнозирования и профилирования может существенно повлиять на «права на неприкосновенность частной жизни, на справедливое судебное разбирательство, на свободу от произвольного ареста и задержания и права на жизнь».
Согласно отчету, многочисленные штаты и предприятия часто не проводят должную осмотрительность, спеша внедрять приложения ИИ, а в некоторых случаях это приводит к опасным промахам: некоторые люди, как сообщается, подвергаются жестокому обращению и даже арестовываются из-за некорректного  программного обеспечения для распознавания лиц. 
Между тем, распознавание лиц может позволить неограниченное отслеживание людей, что может привести к множеству проблем, связанных с дискриминацией и защитой данных.

Робот с искусственным интеллектом (слева) от CloudMinds во время конференции Mobile World Conference в Шанхае 27 июня 2018 г. (- / AFP / Getty Images)

Посетители смотрят на систему умного города с искусственным интеллектом от iFLY на Международной выставке интеллектуальной транспортной индустрии 2018 года в Ханчжоу в восточной китайской провинции Чжэцзян в декабре 2018 года (STR / AFP / Getty Images)
Поскольку многие системы искусственного интеллекта полагаются на большие наборы данных, дальнейшие проблемы, связанные с тем, как эти данные хранятся в долгосрочной перспективе, также представляют собой риск, и есть потенциал для использования таких данных в будущем, что может создать значительные риски для национальной безопасности.
«Сложность среды данных, алгоритмов и моделей, лежащих в основе разработки и эксплуатации систем искусственного интеллекта, а также преднамеренная секретность государственных и частных субъектов являются факторами, подрывающими значимые способы понимания общественностью воздействия систем искусственного интеллекта на права человека и общество», - говорится в сообщении.
Тим Энгельхардт, специалист по правам человека в Секции верховенства закона и демократии, предупредил, что ситуация «ужасная» и с годами она только ухудшается, поскольку некоторые страны и предприятия внедряют приложения ИИ, не изучая при этом многочисленные потенциальные риски  связанные с этой технологией.
Приветствуя согласие ЕС «усилить правила контроля», он отметил, что решение множества проблем, связанных с ИИ, не появится в следующем году и что первые шаги по решению этой проблемы необходимо предпринять сейчас  или «многие люди в мире заплатят высокую цену».
«Чем выше риск для прав человека, тем строже должны быть юридические требования к использованию технологии искусственного интеллекта», - добавила Бачелет.
Отчет и комментарии Бачелет последовали за июльскими откровениями о том, что шпионское ПО, известное как Pegasus, использовалось для взлома смартфонов тысяч людей по всему миру, включая журналистов, правительственных чиновников и правозащитников.
Телефон министра финансов Франции Бруно Ле Мера был лишь одним из многих, в отношении которых проводилось расследование взлома с помощью шпионского ПО, разработанного израильской компанией NSO Group.
NSO Group выступила с заявлением для нескольких агентств, в котором не были рассмотрены обвинения, но заявила, что компания «продолжит предоставлять разведывательным и правоохранительным органам по всему миру спасательные технологии для борьбы с терроризмом и преступностью».
Выступая на слушаниях в Совете Европы о последствиях спора о шпионском ПО Pegasus, Бачелет сказала, что эти разоблачения не стали неожиданностью, учитывая «беспрецедентный уровень слежки по всему миру со стороны государственных и частных субъектов».
 
 
  • +0.00 / 0
  • АУ
ОТВЕТЫ (0)
 
Комментарии не найдены!