Все новости
Это интересно
Сейчас читают
OpenAI
Аватар Evernews Evernews

Исследование: ролики Sora от OpenAI могут обманывать людей

2
1
Поделиться
Телеграфировать

Но некоторые видео все-таки распознаются лучше других.

Исследование: ролики Sora от OpenAI могут обманывать людей

Видеоролики, создаваемые нейросетью Sora от стартапа OpenAI, способны вводить зрителей в заблуждение. К такому выводу пришли в Variety и HarrisX: компании провели исследование, в котором поучаствовало больше 1000 взрослых жителей США.

OpenAI показала Sora — генератор видео по описанию, работающий очень хорошо

Участникам исследования показывали серию видеороликов, среди которых были как реальные видеозаписи, так и видео, созданные нейросетью. Людям предлагалось определить, где реальное видео, а где сгенерированный ролик.

Сразу несколько роликов Sora поставили участников исследования в тупик: люди считали, что они скорее реальные, чем сгенерированные. Из 8 ИИ-роликов половина признавалась реальной в 50% случаев или чаще.

Интересный момент: среди роликов Sora есть как очень удачные (признан реальным в 60% случаев), так и явно неудачные (признан нереальным в 64% случаев).

«Всё отложено»: после появления Sora от OpenAI Тайлер Перри решил не расширять кинобизнес

Участники исследования сочли, что необходимо законодательно регулировать создание контента с помощью ИИ. Активнее всего (74%) выступали за регулирование ИИ-роликов, лояльнее всего (61%) опрошенные отнеслись к генерации звуков.

Нейросеть Sora пока не выпущена в открытый доступ. Сейчас с ИИ могут работать только специально отобранные ученые и исследователи.

Читать далее
За сколько вы готовы купить GTA VI?
До 8000 рублей
1599 голосов, 7.1%
До 7000 рублей
551 голос, 2.5%
До 6000 рублей
709 голосов, 3.2%
До 5000 рублей
2014 голосов, 9.0%
До 4000 рублей
756 голосов, 3.4%
До 3000 рублей
1056 голосов, 4.7%
До 2000 рублей
2544 голоса, 11.3%
За любые деньги
1224 голоса, 5.5%
Ни за сколько, я пират
11983 голоса, 53.4%
Теги: OpenAI, Технологии
Аватар Evernews
Evernews
8086 подписчиков