Интеграция ИИ в поисковые системы потребует увеличения вычислительных мощностей в 5 раз

Интеграция ИИ в поисковые системы потребует увеличения вычислительных мощностей в 5 раз

Для сокращения затрат и выбросов углекислого газа компании будут урезать функциональность нейросетей.

image

По мнению изданий Insider и Wired , совместная работа поисковых систем и больших языковых моделей может потребовать пятикратного увеличения вычислительных мощностей и повысить выбросы углерода.

Insider, ссылаясь на мнение соучредителя QScale Мартина Бушара, написал, что поиск с помощью генеративного ИИ требует, как минимум, в 4-5 раз больше вычислительной мощности, чем стандартный поиск. По его словам, существующей инфраструктуры ЦОД недостаточно, чтобы удовлетворить спрос на технологию

Согласно данным UBS, сейчас к ChatGPT ежедневно обращаются около 13 млн. пользователей, в то время как Microsoft Bing обрабатывает полмиллиарда поисковых запросов в день, а Google — 8,5 млрд.

Wired процитировал мнение Алана Вудворда, профессора кибербезопасности в Университете Суррея (Великобритания), который заявил, что в индексировании и поиске интернет-контента задействованы огромные ресурсы, но интеграция ИИ требует совершенно другие мощности.

Хотя ни OpenAI, ни Google пока не раскрыли стоимость вычислений, необходимых для разработки их продуктов, эксперты считают, что обучение GPT-3 потребовало около 1287 МВтч и привело к выбросам более 550 тонн углекислого газа. Издание Insider для сравнение привело свой пример : один среднестатистический автомобиль выбрасывает 4,6 тонн углекислого газа в год.

Стоит отметить, что корпорации уже задумываются о сокращении энергозатрат. Например, Google недавно заявила, что собирается запускать облегчённую версию Bard, которая потребует меньшей вычислительной мощности. Представитель корпорации Джейн Пак сказала, что сочетание эффективных моделей, процессоров и ЦОДов с чистыми источниками энергии может уменьшить углеродный след системы машинного обучения в 1000 раз.

Insider считает, что именно желание облегчить вычислительную нагрузку Bard и использование облегчённой версии нейросети LaMDA могли привести к ошибке в презентации чат-бота Google Bard, которая спровоцировала падение акций компании и к последующему сокращению капитализации почти на $100 млрд.

По мнению журналистов, чтобы снизить вычислительные и энергетические затраты на ИИ, корпорации будут выпускать «урезанные» версии продуктов для сокращения затрат. Это означает, что технология перестанет соответствовать ожиданиям, что подорвёт доверие потребителей.

Наш канал защищен лучше, чем ваш компьютер!

Но доступ к знаниям открыт для всех

Получите root-права на безопасность — подпишитесь