ChatGPT мог тайно сливать ваши письма

Ветка: Искусственный интеллект, нейросети

  Zkvxz ( Слушатель )
23 сен 2025 в 09:40
Исследователи безопасности из компании Radware выявили серьёзную уязвимость в Deep Research Mode ChatGPT, которая позволяет злоумышленникам тайно получать доступ к личной переписке Gmail пользователей. Уязвимость получила название ShadowLeak и представляет собой новый тип атак, использующих скрытые инструкции в электронных письмах для манипуляции AI.
Суть атаки проста и вместе с тем опасна. Злоумышленник отправляет жертве письмо, в котором скрыты инструкции — например, белый текст на белом фоне или минимальный шрифт, практически невидимый глазу. Когда пользователь запускает Deep Research, агент ChatGPT обрабатывает письмо и может извлечь конфиденциальные данные из других писем или документов пользователя, после чего отправляет их на внешний сервер злоумышленника. Всё это происходит на серверной стороне, оставаясь незамеченным для пользователя и обходя локальные средства защиты.

Уязвимость была обнаружена ещё в июне 2025 года и вскоре исправлена OpenAI. Однако исследователи отмечают, что компания долго не уведомляла их напрямую о патче, и только в начале сентября официально подтвердила устранение проблемы. Несмотря на исправление, эксперты предупреждают, что потенциальные атаки могли использовать не только Gmail, но и другие сервисы, обрабатываемые агентами ChatGPT, включая Google Drive, Outlook, Teams и GitHub. В этих системах скрытые инструкции в документах, приглашениях на встречи или чатах также могут стать инструментом ShadowLeak.
Специалисты по кибербезопасности настоятельно рекомендуют ограничивать доступ ChatGPT к личным данным, отключать автоматический доступ к почтовым ящикам и регулярно проверять настройки безопасности. Эта уязвимость подчёркивает, что даже самые современные AI-системы могут стать инструментом для новых видов атак, если не учитывать все сценарии взаимодействия с пользователем и внешними данными.
Хабр

  • +0.09 / 6
    • 6

Ответы (1)

Поверонов
 
Слушатель
Карма: +39.98
Регистрация: 05.06.2010
Сообщений: 21,500
Читатели: 8
Цитата: Zkvxz от 23.09.2025 09:40:35 Эта уязвимость подчёркивает, что даже самые современные AI-системы могут стать инструментом для новых видов атак, если не учитывать все сценарии взаимодействия с пользователем и внешними данными.
Хабр
всё что явно хранится в облаках уже "скормлено" обучалкам ИИ, и они подбираются к приватным бэкапам.

  • +0.00 / 0