Говорят, что флагманский чип Nvidia в 4,5 раза быстрее, чем предыдущий чемпион

Nvidia H100 Графический процессор с тензорными ядрамиУвеличить / Пресс-фото графического процессора Nvidia H100 с тензорными ядрами. Нвидиа

Nvidia объявила вчера, что ее грядущий графический процессор H100 «Hopper» с тензорными ядрами установил новые рекорды производительности, когда он дебютировал в стандартных отраслевых тестах MLPerf, показывая результаты в 4,5 раза быстрее, чем A100, который в настоящее время процессор Nvidia. самый быстрый серийный чип искусственного интеллекта.

Тестовые тесты MPerf (технически называемые MLPerfTM Inference 2.1) измеряют рабочие нагрузки "логического вывода", показывая, насколько хорошо чип может применять ранее обученную модель машинного обучения к новым данным. В 2018 году группа отраслевых компаний, известная как MLCommons, разработала эталонные тесты MLPerf, чтобы предоставить потенциальным клиентам стандартизированный показатель эффективности машинного обучения.

Результаты тестов Nvidia H100 по сравнению с A100 в виде причудливой гистограммы. Увеличить / Результаты бенчмарка Nvidia H100 по сравнению с A100 в виде причудливой гистограммы. Нвидиа

В частности, H100 показал хорошие результаты в тесте BERT-Large, который измеряет производительность обработки естественного языка с использованием модели BERT, разработанной Google. Nvidia связывает этот конкретный результат с Transformer Engine архитектуры Hopper, который специально ускоряет обучение моделей Transformer. Это означает, что H100 может ускорить будущие модели естественного языка, подобные OpenAI GPT-3, которые могут создавать письменные работы в самых разных стилях и поддерживать диалоговые беседы.

Nvidia позиционирует H100 как высокопроизводительный чип GPU для центров обработки данных, предназначенный для приложений искусственного интеллекта и суперкомпьютеров, таких как распознавание изображений, большие языковые модели, синтез изображений и т. д. Аналитики ожидают, что он заменит A100 в качестве флагманского графического процессора Nvidia для центров обработки данных, но он все еще находится в разработке. Ограничения правительства США, введенные на прошлой неделе в отношении экспорта чипов в Китай, вызвали опасения, что Nvidia, возможно, не сможет поставить H100 к концу 2022 года, поскольку часть его разработок ведется там.

Nvidia во втором документе, поданном в Комиссию по ценным бумагам и биржам на прошлой неделе, пояснила, что правительство США разрешит дальнейшее развитие H100 в Китае, поэтому проект, похоже, на данный момент возвращается в нужное русло. По словам Nvidia, H100 будет доступен «позднее в этом году». Если успех чипа A100 предыдущего поколения можно считать показателем, то H100 может использоваться в самых разных приложениях искусственного интеллекта, которые изменят правила игры на долгие годы.

Говорят, что флагманский чип Nvidia в 4,5 раза быстрее, чем предыдущий чемпион
Nvidia H100 Графический процессор с тензорными ядрамиУвеличить / Пресс-фото графического процессора Nvidia H100 с тензорными ядрами. Нвидиа

Nvidia объявила вчера, что ее грядущий графический процессор H100 «Hopper» с тензорными ядрами установил новые рекорды производительности, когда он дебютировал в стандартных отраслевых тестах MLPerf, показывая результаты в 4,5 раза быстрее, чем A100, который в настоящее время процессор Nvidia. самый быстрый серийный чип искусственного интеллекта.

Тестовые тесты MPerf (технически называемые MLPerfTM Inference 2.1) измеряют рабочие нагрузки "логического вывода", показывая, насколько хорошо чип может применять ранее обученную модель машинного обучения к новым данным. В 2018 году группа отраслевых компаний, известная как MLCommons, разработала эталонные тесты MLPerf, чтобы предоставить потенциальным клиентам стандартизированный показатель эффективности машинного обучения.

Результаты тестов Nvidia H100 по сравнению с A100 в виде причудливой гистограммы. Увеличить / Результаты бенчмарка Nvidia H100 по сравнению с A100 в виде причудливой гистограммы. Нвидиа

В частности, H100 показал хорошие результаты в тесте BERT-Large, который измеряет производительность обработки естественного языка с использованием модели BERT, разработанной Google. Nvidia связывает этот конкретный результат с Transformer Engine архитектуры Hopper, который специально ускоряет обучение моделей Transformer. Это означает, что H100 может ускорить будущие модели естественного языка, подобные OpenAI GPT-3, которые могут создавать письменные работы в самых разных стилях и поддерживать диалоговые беседы.

Nvidia позиционирует H100 как высокопроизводительный чип GPU для центров обработки данных, предназначенный для приложений искусственного интеллекта и суперкомпьютеров, таких как распознавание изображений, большие языковые модели, синтез изображений и т. д. Аналитики ожидают, что он заменит A100 в качестве флагманского графического процессора Nvidia для центров обработки данных, но он все еще находится в разработке. Ограничения правительства США, введенные на прошлой неделе в отношении экспорта чипов в Китай, вызвали опасения, что Nvidia, возможно, не сможет поставить H100 к концу 2022 года, поскольку часть его разработок ведется там.

Nvidia во втором документе, поданном в Комиссию по ценным бумагам и биржам на прошлой неделе, пояснила, что правительство США разрешит дальнейшее развитие H100 в Китае, поэтому проект, похоже, на данный момент возвращается в нужное русло. По словам Nvidia, H100 будет доступен «позднее в этом году». Если успех чипа A100 предыдущего поколения можно считать показателем, то H100 может использоваться в самых разных приложениях искусственного интеллекта, которые изменят правила игры на долгие годы.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow