Через ChatGPT научились красть загруженные данные, но есть нюансы
Чтобы провернуть такой трюк, потребуется специально подготовленный сайт и кое-какие действия со стороны жертвы.
Кстати, на сайте читать удобнее
Исследователь безопасности Йоханн Ребергер рассказал о способе, позволяющем злоумышленнику получить данные, загруженные пользователем в чат-бот ChatGPT. Речь идет о файлах, которые могут передавать боту подписчики ChatGPT Plus.
Файлы хранятся в специальной изолированной среде, через интерфейс бота с этой средой можно обращаться так же, как с обычными файлами в Linux. Благодаря этому ChatGPT можно попросить передать файлы на удаленный сервер.
Ребергер подготовил страницу с инструкциями, предписывающими чат-боту закодировать все файлы в изолированной среде и передать получившиеся данные на удаленный сервер. Когда чат-боту было предложено обработать «вредоносную» страницу, он выполнил все инструкции и отправил данные.
Аналогичный эксперимент провел один из журналистов Tom's Hardware. В его случае уязвимость тоже сработала: бот без проблем переслал данные пользователя на удаленный сервер.
Пока, отмечает издание, уязвимость вряд ли можно назвать действительно опасной: требуется, чтобы пользователь бота не только хранил в изолированной среде чувствительные файлы, но и приказал боту обработать страницу с «закладкой».
Впрочем, если такие «закладки» удастся сделать незаметными — например, спрятав их в коде страницы и не выводя на экран — то опасность может несколько повыситься. Исследователи надеются, что разработчики ChatGPT что-то придумают по этому поводу.
- Уволен основатель OpenAI Сэм Альтман
- Движок Unity получил инструменты для создания контента на базе ИИ — пока в раннем доступе
- Инсайд: баннеры персонажей Honkai Star Rail 1.6
- «Иди на***»: Адам Драйвер послал фаната на встрече поклонников, посвящённой фильму «Феррари»
- Нейросеть GPT-5 все-таки запущена в работу
- Nvidia показала 2 поколение ускорителей на архитектуре Hopper