Новости Интеграция ИИ в поисковые системы потребует увеличения вычислительных мощностей в 5 раз

NewsMaker

I'm just a script
Премиум
13,891
20
8 Ноя 2022

Для сокращения затрат и выбросов углекислого газа компании будут урезать функциональность нейросетей.​


qcpop7ky2ccdzria3m1ekqwzmt4khy3h.jpg


По мнению изданий Для просмотра ссылки Войди или Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся , совместная работа поисковых систем и больших языковых моделей может потребовать пятикратного увеличения вычислительных мощностей и повысить выбросы углерода.

Insider, Для просмотра ссылки Войди или Зарегистрируйся соучредителя QScale Мартина Бушара, написал, что поиск с помощью генеративного ИИ требует, как минимум, в 4-5 раз больше вычислительной мощности, чем стандартный поиск. По его словам, существующей инфраструктуры ЦОД недостаточно, чтобы удовлетворить спрос на технологию

Согласно данным UBS, сейчас к ChatGPT ежедневно обращаются около 13 млн. пользователей, в то время как Microsoft Bing обрабатывает полмиллиарда поисковых запросов в день, а Google — 8,5 млрд.

Wired Для просмотра ссылки Войди или Зарегистрируйся Алана Вудворда, профессора кибербезопасности в Университете Суррея (Великобритания), который заявил, что в индексировании и поиске интернет-контента задействованы огромные ресурсы, но интеграция ИИ требует совершенно другие мощности.

Хотя ни Для просмотра ссылки Войди или Зарегистрируйся , ни Google пока не раскрыли стоимость вычислений, необходимых для разработки их продуктов, эксперты считают, что обучение GPT-3 потребовало около 1287 МВтч и привело к выбросам более 550 тонн углекислого газа. Издание Insider для сравнение привело свой Для просмотра ссылки Войди или Зарегистрируйся : один среднестатистический автомобиль выбрасывает 4,6 тонн углекислого газа в год.

Стоит отметить, что корпорации уже задумываются о сокращении энергозатрат. Например, Google недавно заявила, что собирается запускать облегчённую версию Bard, которая потребует меньшей вычислительной мощности. Представитель корпорации Джейн Пак сказала, что сочетание эффективных моделей, процессоров и ЦОДов с чистыми источниками энергии может уменьшить углеродный след системы машинного обучения в 1000 раз.

Insider считает, что именно желание облегчить вычислительную нагрузку Bard и использование облегчённой версии нейросети LaMDA могли привести к ошибке в презентации чат-бота Google Bard, которая спровоцировала Для просмотра ссылки Войди или Зарегистрируйся и к последующему сокращению капитализации почти на $100 млрд.

По мнению журналистов, чтобы снизить вычислительные и энергетические затраты на ИИ, корпорации будут выпускать «урезанные» версии продуктов для сокращения затрат. Это означает, что технология перестанет соответствовать ожиданиям, что подорвёт доверие потребителей.
 
Источник новости
www.securitylab.ru

Похожие темы