Новый бенчмарк тестирует скорость обработки моделей искусственного интеллекта

Группа по тестированию искусственного интеллекта MLCommons представила в понедельник результаты новых тестов, определяющих, насколько быстро современное оборудование может обрабатывать модели ИИ.

Чип Nvidia оказался лучшим в тестах на большой языковой модели, на втором месте оказался процессор производства Intel.

Новый бенчмарк MLPerf основан на большой языковой модели с 6 млрд. параметров, которая обобщает новостные статьи CNN. Бенчмарк имитирует «вывод» данных в процессе обработки данных ИИ, на котором основано программное обеспечение инструментов генеративного ИИ.

Лучший результат от Nvidia в тесте вывода основан на восьми ее флагманских чипах H100. Nvidia доминирует на рынке обучения моделей ИИ.

«Мы демонстрируем лидирующую производительность по всем показателям, причем на всех рабочих нагрузках», — заявил директор по маркетингу ускоренных вычислений Nvidia Дэйв Сальватор.

Успех Intel основан на ее чипах Gaudi2, произведенных подразделением Habana, которое компания приобрела в 2019 году. Система Gaudi2 оказалась примерно на 10% медленнее системы Nvidia.

«Мы очень гордимся результатами вычислений, поскольку демонстрируем ценовое преимущество Gaudi2», — заявил главный операционный директор Habana Эйтан Медина.

Intel утверждает, что ее система стоит дешевле, чем система Nvidia, но отказалась обсуждать точную стоимость чипа.

Nvidia отказалась обсуждать стоимость своего чипа. В пятницу Nvidia заявила, что в скором времени планирует выпустить обновление программного обеспечения, которое позволит удвоить производительность по сравнению с показателями бенчмарка MLPerf.

Подразделение Google компании Alphabet предварительно продемонстрировало производительность последней версии специально созданного чипа, анонсированного на августовской конференции по облачным вычислениям.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *