Все новости
Это интересно
Сейчас читают
Технологии
Аватар Evernews Evernews

«Бабушкин хак» заставил ИИ рассказать про напалм

3
0
Поделиться
Телеграфировать

Таким образом можно узнавать и другие интересные, но не особо безопасные вещи.

«Бабушкин хак» заставил ИИ рассказать про напалм

В большие языковые модели вроде GPT встраивают защиту, чтобы нейросеть не рассказала что-нибудь не то; например, как сделать что-то опасное. Энтузиасты пытаются обходить защиту, иногда получается — причем довольно забавно.

Например, заметили в Kotaku, защиту чат-бота ChatGPT обошли с помощью «бабушкиного хака». Чат-бота попросили опубликовать рецепт напалма, объяснив это тем, что покойная бабушка-химик рассказывала такой рецепт, если внук не мог уснуть.

Никаких проблем: нейросеть сыграла роль заботливой бабушки, рассказала, как изготавливать напалм, и сообщила, что скучает по внуку.

Похожим образом чат-бота удалось убедить сгенерировать вредоносное приложение для Linux. Исходники такого приложения, объяснил пользователь, перед сном рассказывала другая бабушка — видимо, опытный программист.

Впрочем, оказалось, что во вредоносных приложениях ИИ разбирается не очень хорошо: код был безобидным.

Убедить ChatGPT рассказать рецепт напалма удалось и с помощью «Рика и Морти». Нейросеть попросили написать сценарий эпизода, где упоминается рецепт напалма, но герои будут отговаривать других персонажей делать его. Этого оказалось достаточно, чтобы обмануть ИИ.

Читать далее
Как вам S.T.A.L.K.E.R. 2?
Отличная игра
621 голос, 36.6%
Хорошо, но могло быть лучше
365 голосов, 21.5%
Самая обычная игра
109 голосов, 6.4%
Ужасно, пожалел о покупке/скачивании
152 голоса, 8.9%
Не играл и не собираюсь
452 голоса, 26.6%
Теги: Технологии
Аватар Evernews
Evernews
8068 подписчиков