СМИ: наращивание размеров нейросетей работает хуже, чем ожидалось
Прирост все еще есть, но исследователи рассчитывали, что он будет более значительным.
Кстати, на сайте читать удобнее
Современные большие языковые модели прогрессируют во многом благодаря увеличению количества параметров и наращиванию мощностей, которые тратятся на обучение. Как пишет The Verge, прогнозируемый прирост «сообразительности» моделей начал расходиться с реальным.
Наращивание числа параметров модели все еще позволяет расширить ее возможности, но новые модели не показывают ожидавшегося роста производительности. С такой проблемой, утверждают источники, столкнулась команда Google DeepMind под руководством нобелевского лауреата Демиса Хассабиса.
Впрочем, пишет издание, проблему нельзя назвать уникальной. В том или ином виде, отмечает The Verge, расхождение реальной и прогнозируемой производительности новых моделей наблюдается у всех компаний, работающих над передовыми моделями.
Предполагается, что исследователи попытаются решить эту проблему с помощью моделей, способных рассуждать; первой такой моделью считается o1 от OpenAI. Модели такого типа работают медленнее, но выдают более качественные ответы.
Сама OpenAI сейчас якобы готовит к релизу модель под кодовым именем Orion — она может стать условной GPT-5. Некоторые источники считают, что модель выпустят до конца 2024 года, в самой компании это опровергают.
- Universal Music поможет создать «этичный» генератор музыки на базе ИИ
- В Китае сообщили об испытании прототипа сверхзвукового пассажирского самолета
- «Веном 3» собрал на старте $175 миллионов — в США сборы ниже ожиданий
- Утек вступительный ролик ремастера Horizon Zero Dawn
- OpenAI не выпустит модель Orion до конца 2024 года
- Tesla тестирует роботакси в реальном городе на протяжении нескольких месяцев