Новости 100 000 GPU и $3 млрд: на что готов Илон Маск, чтобы сделать Grok 3 идеальной?

NewsMaker

I'm just a script
Премиум
13,850
20
8 Ноя 2022
Какой будет новая ИИ-модель, и чем она отличается от GPT-4.


8h7jpbxg6za2u9zcqpu1ajbefg9anglq.jpg


Стартап xAI, основанный Для просмотра ссылки Войди или Зарегистрируйся , анонсировал амбициозные планы по разработке нового поколения языковых моделей Grok. Компания намерена использовать беспрецедентное количество — 100 000 графических процессоров NVIDIA H100 — для обучения Grok 3.

Это значительно превосходит ресурсы, задействованные конкурентами. Для сравнения, по неподтвержденным данным, модель GPT-4 от OpenAI была обучена на 40 000 GPU NVIDIA A100, которые уже считаются устаревшими, в отличие от H100.

Илон Маск в недавнем твите заявил, что Grok 3 будет «намного больше» предыдущих версий. По его словам, обучение языковых моделей на интернет-данных требует «много работы», особенно в плане вычислительных ресурсов.

Интересно, что модели Grok разрабатываются специально для интеграции в качестве ИИ-ассистента для премиум-пользователей платформы X (ранее известной как Twitter).

xAI планирует выпустить промежуточную версию Grok 2 в августе этого года, а затем перейти к разработке Grok 3. По оценкам экспертов, только обучение Grok 3 на заявленном оборудовании может обойтись примерно в 3 миллиарда долларов. Более того, Маск ранее заявлял, что планирует приобрести для xAI флагманские ускорители искусственного интеллекта NVIDIA Blackwell B200 на сумму около 9 миллиардов долларов.

Как полагают эксперты, столь значительные вложения в технологическую инфраструктуру могут вывести xAI в лидеры рынка искусственного интеллекта. В то время как конкуренты сосредоточены на постепенном улучшении своих языковых моделей, xAI, похоже, делает ставку на качественный скачок за счет использования колоссальных вычислительных ресурсов.

Остается следить за развитием событий и ждать, оправдает ли Grok 3 возлагаемые на нее надежды.
 
Источник новости
www.securitylab.ru

Похожие темы