Аналитики: для работы ChatGPT требуются десятки тысяч ускорителей
Вероятно, в обозримом будущем количество GPU увеличится до 30 тысяч.
Кстати, на сайте читать удобнее
Аналитики TrendForce полагают, что для обучения и работы чат-бота ChatGPT потребовалось порядка 20 тысяч ускорителях. Речь идет об ускорителях, используемых в серверах Nvidia DGX A100.
По оценке аналитиков, в обозримом будущем количество ускорителей может быть увеличено до 30 тысяч. Значительный рост вычислительной мощности потребуется из-за коммерциализации чат-бота.
Такое количество ускорителей обойдется в очень серьезные деньги. Например, сервер DGX A100, несущий на борту восемь ускорителей A100, стоит $199000; чтобы собрать 20 тысяч ускорителей, потребуется 2500 серверов стоимостью почти в $500 миллионов.
Как отмечает Tom's Hardware, Nvidia уже выпустила более продвинутый ускоритель H100, построенный на новой архитектуре. Но он стоит заметно дороже: такой ускоритель обойдется более чем в $32000.
Предполагается, что интерес к ChatGPT и другим решениям на базе ИИ заметно увеличит продажи ускорителей Nvidia и позволит нарастить прибыль компании. С начала 2023 года стоимость акции Nvidia подорожала примерно в полтора раза.
- Электрическое аэротакси пролетело 250 километров — это новый рекорд
- ИИ Microsoft научился решать визуальные головоломки и проходить тесты IQ
- Социальная MMO-песочница, где можно построить дом: анонсирована Pax Dei
- На киберспортивной Олимпиаде сразятся в Just Dance и Gran Turismo 7
- Хакеры 2 года имели доступ к сети владельцев The Wall Street Journal
- Машины Ford могут научиться уезжать от владельцев-должников и блокировать часть функций