Какой будет новая ИИ-модель, и чем она отличается от GPT-4.
Стартап xAI, основанный Для просмотра ссылки Войдиили Зарегистрируйся , анонсировал амбициозные планы по разработке нового поколения языковых моделей Grok. Компания намерена использовать беспрецедентное количество — 100 000 графических процессоров NVIDIA H100 — для обучения Grok 3.
Это значительно превосходит ресурсы, задействованные конкурентами. Для сравнения, по неподтвержденным данным, модель GPT-4 от OpenAI была обучена на 40 000 GPU NVIDIA A100, которые уже считаются устаревшими, в отличие от H100.
Илон Маск в недавнем твите заявил, что Grok 3 будет «намного больше» предыдущих версий. По его словам, обучение языковых моделей на интернет-данных требует «много работы», особенно в плане вычислительных ресурсов.
Интересно, что модели Grok разрабатываются специально для интеграции в качестве ИИ-ассистента для премиум-пользователей платформы X (ранее известной как Twitter).
xAI планирует выпустить промежуточную версию Grok 2 в августе этого года, а затем перейти к разработке Grok 3. По оценкам экспертов, только обучение Grok 3 на заявленном оборудовании может обойтись примерно в 3 миллиарда долларов. Более того, Маск ранее заявлял, что планирует приобрести для xAI флагманские ускорители искусственного интеллекта NVIDIA Blackwell B200 на сумму около 9 миллиардов долларов.
Как полагают эксперты, столь значительные вложения в технологическую инфраструктуру могут вывести xAI в лидеры рынка искусственного интеллекта. В то время как конкуренты сосредоточены на постепенном улучшении своих языковых моделей, xAI, похоже, делает ставку на качественный скачок за счет использования колоссальных вычислительных ресурсов.
Остается следить за развитием событий и ждать, оправдает ли Grok 3 возлагаемые на нее надежды.
Стартап xAI, основанный Для просмотра ссылки Войди
Это значительно превосходит ресурсы, задействованные конкурентами. Для сравнения, по неподтвержденным данным, модель GPT-4 от OpenAI была обучена на 40 000 GPU NVIDIA A100, которые уже считаются устаревшими, в отличие от H100.
Илон Маск в недавнем твите заявил, что Grok 3 будет «намного больше» предыдущих версий. По его словам, обучение языковых моделей на интернет-данных требует «много работы», особенно в плане вычислительных ресурсов.
Интересно, что модели Grok разрабатываются специально для интеграции в качестве ИИ-ассистента для премиум-пользователей платформы X (ранее известной как Twitter).
xAI планирует выпустить промежуточную версию Grok 2 в августе этого года, а затем перейти к разработке Grok 3. По оценкам экспертов, только обучение Grok 3 на заявленном оборудовании может обойтись примерно в 3 миллиарда долларов. Более того, Маск ранее заявлял, что планирует приобрести для xAI флагманские ускорители искусственного интеллекта NVIDIA Blackwell B200 на сумму около 9 миллиардов долларов.
Как полагают эксперты, столь значительные вложения в технологическую инфраструктуру могут вывести xAI в лидеры рынка искусственного интеллекта. В то время как конкуренты сосредоточены на постепенном улучшении своих языковых моделей, xAI, похоже, делает ставку на качественный скачок за счет использования колоссальных вычислительных ресурсов.
Остается следить за развитием событий и ждать, оправдает ли Grok 3 возлагаемые на нее надежды.
- Источник новости
- www.securitylab.ru