Аналитики: для работы ChatGPT требуются десятки тысяч ускорителей
Вероятно, в обозримом будущем количество GPU увеличится до 30 тысяч.

Аналитики TrendForce полагают, что для обучения и работы чат-бота ChatGPT потребовалось порядка 20 тысяч ускорителях. Речь идет об ускорителях, используемых в серверах Nvidia DGX A100.
По оценке аналитиков, в обозримом будущем количество ускорителей может быть увеличено до 30 тысяч. Значительный рост вычислительной мощности потребуется из-за коммерциализации чат-бота.
Такое количество ускорителей обойдется в очень серьезные деньги. Например, сервер DGX A100, несущий на борту восемь ускорителей A100, стоит $199000; чтобы собрать 20 тысяч ускорителей, потребуется 2500 серверов стоимостью почти в $500 миллионов.
Как отмечает Tom's Hardware, Nvidia уже выпустила более продвинутый ускоритель H100, построенный на новой архитектуре. Но он стоит заметно дороже: такой ускоритель обойдется более чем в $32000.
Предполагается, что интерес к ChatGPT и другим решениям на базе ИИ заметно увеличит продажи ускорителей Nvidia и позволит нарастить прибыль компании. С начала 2023 года стоимость акции Nvidia подорожала примерно в полтора раза.