Qué significan realmente los nuevos resultados de Nvidia MLPerf AI Benchmark

¿No pudiste asistir a Transform 2022? ¡Vea todas las sesiones de la cumbre en nuestra biblioteca a pedido ahora! Mira aquí.

Nvidia publicó hoy los resultados contra los nuevos puntos de referencia de inteligencia artificial (IA) estándar de la industria MLPerf para sus procesadores enfocados en IA. Si bien los resultados parecían impresionantes, es importante tener en cuenta que algunas de las comparaciones que hacen con otros sistemas realmente no son manzanas con manzanas. Por ejemplo, los sistemas Qualcomm funcionan con una huella de energía mucho menor que el H100 y se dirigen a segmentos de mercado similares al A100, donde las comparaciones de prueba son mucho más justas.

Nvidia ha probado su sistema H100 de gama alta basado en su última arquitectura Hopper; su ahora sistema A100 de rango medio para computación perimetral; y su sistema Jetson más pequeño dirigido a tipos de carga de trabajo periféricos y/o individuales más pequeños. Es la primera presentación de H100 y cuenta con un rendimiento hasta 4,5 veces mejor que el A100. Según el gráfico a continuación, Nvidia tiene resultados impresionantes para la plataforma H100 de gama alta.

Fuente de la imagen: Nvidia.
Inferencia de cargas de trabajo para inferencia de IA

Nvidia usó el benchmark MLPerf Inference V2.1 para evaluar sus capacidades en varios escenarios de carga de trabajo para la inferencia de IA. La inferencia es diferente del aprendizaje automático (ML), donde se crean modelos de entrenamiento y los sistemas "aprenden".

La inferencia se usa para ejecutar modelos aprendidos en una serie de puntos de datos y obtener resultados. En base a conversaciones con empresas y proveedores, en J. Gold Associates, LLC creemos que el mercado de inferencia de IA tiene un volumen mucho mayor que el mercado de capacitación de ML, por lo que es fundamental mostrar buenas señales de inferencia para el éxito.

Evento

MetaBeat 2022

MetaBeat reunirá a líderes de opinión para asesorar sobre cómo la tecnología del metaverso transformará la forma en que todas las industrias se comunican y hacen negocios el 4 de octubre en San Francisco, CA.

registrarse aquí Por qué Nvidia ejecutaría MLPerf

MLPerf es un conjunto de pruebas comparativas estándar de la industria que incorpora una gran cantidad de información de una variedad de empresas y modela una variedad de cargas de trabajo. Se incluyen cosas como el procesamiento del lenguaje natural, el reconocimiento de voz, la clasificación de imágenes, las imágenes médicas y la detección de objetos.

El punto de referencia es útil porque puede ejecutarse en varias máquinas a partir de datos de gama alta...

Qué significan realmente los nuevos resultados de Nvidia MLPerf AI Benchmark

¿No pudiste asistir a Transform 2022? ¡Vea todas las sesiones de la cumbre en nuestra biblioteca a pedido ahora! Mira aquí.

Nvidia publicó hoy los resultados contra los nuevos puntos de referencia de inteligencia artificial (IA) estándar de la industria MLPerf para sus procesadores enfocados en IA. Si bien los resultados parecían impresionantes, es importante tener en cuenta que algunas de las comparaciones que hacen con otros sistemas realmente no son manzanas con manzanas. Por ejemplo, los sistemas Qualcomm funcionan con una huella de energía mucho menor que el H100 y se dirigen a segmentos de mercado similares al A100, donde las comparaciones de prueba son mucho más justas.

Nvidia ha probado su sistema H100 de gama alta basado en su última arquitectura Hopper; su ahora sistema A100 de rango medio para computación perimetral; y su sistema Jetson más pequeño dirigido a tipos de carga de trabajo periféricos y/o individuales más pequeños. Es la primera presentación de H100 y cuenta con un rendimiento hasta 4,5 veces mejor que el A100. Según el gráfico a continuación, Nvidia tiene resultados impresionantes para la plataforma H100 de gama alta.

Fuente de la imagen: Nvidia.
Inferencia de cargas de trabajo para inferencia de IA

Nvidia usó el benchmark MLPerf Inference V2.1 para evaluar sus capacidades en varios escenarios de carga de trabajo para la inferencia de IA. La inferencia es diferente del aprendizaje automático (ML), donde se crean modelos de entrenamiento y los sistemas "aprenden".

La inferencia se usa para ejecutar modelos aprendidos en una serie de puntos de datos y obtener resultados. En base a conversaciones con empresas y proveedores, en J. Gold Associates, LLC creemos que el mercado de inferencia de IA tiene un volumen mucho mayor que el mercado de capacitación de ML, por lo que es fundamental mostrar buenas señales de inferencia para el éxito.

Evento

MetaBeat 2022

MetaBeat reunirá a líderes de opinión para asesorar sobre cómo la tecnología del metaverso transformará la forma en que todas las industrias se comunican y hacen negocios el 4 de octubre en San Francisco, CA.

registrarse aquí Por qué Nvidia ejecutaría MLPerf

MLPerf es un conjunto de pruebas comparativas estándar de la industria que incorpora una gran cantidad de información de una variedad de empresas y modela una variedad de cargas de trabajo. Se incluyen cosas como el procesamiento del lenguaje natural, el reconocimiento de voz, la clasificación de imágenes, las imágenes médicas y la detección de objetos.

El punto de referencia es útil porque puede ejecutarse en varias máquinas a partir de datos de gama alta...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow