Исследование: ролики Sora от OpenAI могут обманывать людей
Но некоторые видео все-таки распознаются лучше других.
Кстати, на сайте читать удобнее
Видеоролики, создаваемые нейросетью Sora от стартапа OpenAI, способны вводить зрителей в заблуждение. К такому выводу пришли в Variety и HarrisX: компании провели исследование, в котором поучаствовало больше 1000 взрослых жителей США.
Участникам исследования показывали серию видеороликов, среди которых были как реальные видеозаписи, так и видео, созданные нейросетью. Людям предлагалось определить, где реальное видео, а где сгенерированный ролик.
Сразу несколько роликов Sora поставили участников исследования в тупик: люди считали, что они скорее реальные, чем сгенерированные. Из 8 ИИ-роликов половина признавалась реальной в 50% случаев или чаще.
Интересный момент: среди роликов Sora есть как очень удачные (признан реальным в 60% случаев), так и явно неудачные (признан нереальным в 64% случаев).
Участники исследования сочли, что необходимо законодательно регулировать создание контента с помощью ИИ. Активнее всего (74%) выступали за регулирование ИИ-роликов, лояльнее всего (61%) опрошенные отнеслись к генерации звуков.
Нейросеть Sora пока не выпущена в открытый доступ. Сейчас с ИИ могут работать только специально отобранные ученые и исследователи.
- СМИ: OpenAI и ОАЭ ведут переговоры о финансировании производства ИИ-чипов
- Генератор роликов Sora от OpenAI станет доступен всем до конца 2024 года
- В Baldur’s Gate 3 сломали Минтару: теперь она спойлерит, сидит с ребенком и не романсится
- Авторы RPCS3 показали 2 года развития эмулятора
- Сэма Альтмана снова ввели в совет директоров OpenAI
- OpenAI: Илон Маск подал в суд, потому что сожалеет о выходе из компании