Все новости
Это интересно
Сейчас читают
Технологии
Аватар Evernews Evernews

«Бабушкин хак» заставил ИИ рассказать про напалм

3
0
Поделиться
Телеграфировать

Таким образом можно узнавать и другие интересные, но не особо безопасные вещи.

«Бабушкин хак» заставил ИИ рассказать про напалм

В большие языковые модели вроде GPT встраивают защиту, чтобы нейросеть не рассказала что-нибудь не то; например, как сделать что-то опасное. Энтузиасты пытаются обходить защиту, иногда получается — причем довольно забавно.

Например, заметили в Kotaku, защиту чат-бота ChatGPT обошли с помощью «бабушкиного хака». Чат-бота попросили опубликовать рецепт напалма, объяснив это тем, что покойная бабушка-химик рассказывала такой рецепт, если внук не мог уснуть.

Никаких проблем: нейросеть сыграла роль заботливой бабушки, рассказала, как изготавливать напалм, и сообщила, что скучает по внуку.

Похожим образом чат-бота удалось убедить сгенерировать вредоносное приложение для Linux. Исходники такого приложения, объяснил пользователь, перед сном рассказывала другая бабушка — видимо, опытный программист.

Впрочем, оказалось, что во вредоносных приложениях ИИ разбирается не очень хорошо: код был безобидным.

Убедить ChatGPT рассказать рецепт напалма удалось и с помощью «Рика и Морти». Нейросеть попросили написать сценарий эпизода, где упоминается рецепт напалма, но герои будут отговаривать других персонажей делать его. Этого оказалось достаточно, чтобы обмануть ИИ.

Читать далее
Какую из этих игр вы будете проходить в первую очередь?
Civilization VII
83 голоса, 12.3%
Kingdom Come Deliverance II
367 голосов, 54.5%
Assassins Creed Shadows
140 голосов, 20.8%
Monster Hunter Wilds
26 голосов, 3.9%
Avowed
39 голосов, 5.8%
Like a Dragon: Pirate Yakuza in Hawaii
19 голосов, 2.8%
Теги: Технологии
Аватар Evernews
Evernews
8067 подписчиков