Все новости
Это интересно
Сейчас читают
Технологии
Аватар Evernews Evernews

«Бабушкин хак» заставил ИИ рассказать про напалм

3
0
Поделиться
Телеграфировать

Таким образом можно узнавать и другие интересные, но не особо безопасные вещи.

«Бабушкин хак» заставил ИИ рассказать про напалм

В большие языковые модели вроде GPT встраивают защиту, чтобы нейросеть не рассказала что-нибудь не то; например, как сделать что-то опасное. Энтузиасты пытаются обходить защиту, иногда получается — причем довольно забавно.

Например, заметили в Kotaku, защиту чат-бота ChatGPT обошли с помощью «бабушкиного хака». Чат-бота попросили опубликовать рецепт напалма, объяснив это тем, что покойная бабушка-химик рассказывала такой рецепт, если внук не мог уснуть.

Никаких проблем: нейросеть сыграла роль заботливой бабушки, рассказала, как изготавливать напалм, и сообщила, что скучает по внуку.

Похожим образом чат-бота удалось убедить сгенерировать вредоносное приложение для Linux. Исходники такого приложения, объяснил пользователь, перед сном рассказывала другая бабушка — видимо, опытный программист.

Впрочем, оказалось, что во вредоносных приложениях ИИ разбирается не очень хорошо: код был безобидным.

Убедить ChatGPT рассказать рецепт напалма удалось и с помощью «Рика и Морти». Нейросеть попросили написать сценарий эпизода, где упоминается рецепт напалма, но герои будут отговаривать других персонажей делать его. Этого оказалось достаточно, чтобы обмануть ИИ.

Читать далее
Как вам Kingdom Come Deliverance 2?
Кандидат на «Игру года»
1202 голоса, 68.9%
Хорошо, но могло быть лучше
91 голос, 5.2%
Самая обычная игра
69 голосов, 4.0%
Ужасно, пожалел о покупке/скачивании
59 голосов, 3.4%
Не играл и не собираюсь
324 голоса, 18.6%
Теги: Технологии
Аватар Evernews
Evernews
8069 подписчиков