Лучшее  🚀
14.11.2023 в 13:00 Evernews

Через ChatGPT научились красть загруженные данные, но есть нюансы

Чтобы провернуть такой трюк, потребуется специально подготовленный сайт и кое-какие действия со стороны жертвы.

Кстати, на сайте читать удобнее

Исследователь безопасности Йоханн Ребергер рассказал о способе, позволяющем злоумышленнику получить данные, загруженные пользователем в чат-бот ChatGPT. Речь идет о файлах, которые могут передавать боту подписчики ChatGPT Plus.

Файлы хранятся в специальной изолированной среде, через интерфейс бота с этой средой можно обращаться так же, как с обычными файлами в Linux. Благодаря этому ChatGPT можно попросить передать файлы на удаленный сервер.

Ребергер подготовил страницу с инструкциями, предписывающими чат-боту закодировать все файлы в изолированной среде и передать получившиеся данные на удаленный сервер. Когда чат-боту было предложено обработать «вредоносную» страницу, он выполнил все инструкции и отправил данные.

Аналогичный эксперимент провел один из журналистов Tom's Hardware. В его случае уязвимость тоже сработала: бот без проблем переслал данные пользователя на удаленный сервер.

Пока, отмечает издание, уязвимость вряд ли можно назвать действительно опасной: требуется, чтобы пользователь бота не только хранил в изолированной среде чувствительные файлы, но и приказал боту обработать страницу с «закладкой».

Впрочем, если такие «закладки» удастся сделать незаметными — например, спрятав их в коде страницы и не выводя на экран — то опасность может несколько повыситься. Исследователи надеются, что разработчики ChatGPT что-то придумают по этому поводу.

Читать далее