Les résultats de MLPerf Inference 3.0 montrent un gain de performances de 30 % sur plusieurs fournisseurs
Rejoignez des cadres supérieurs à San Francisco les 11 et 12 juillet pour découvrir comment les dirigeants intègrent et optimisent les investissements dans l'IA pour réussir. En savoir plus
Alors que les demandes d'intelligence artificielle (IA) et d'apprentissage automatique (ML) continuent de croître, il existe un besoin correspondant de niveaux de performances encore plus élevés pour la formation et l'inférence.
L'un des meilleurs moyens dont dispose aujourd'hui l'industrie de l'IA/ML pour mesurer les performances consiste à utiliser l'ensemble de tests de référence MLPerf, qui a été développé par l'organisation multipartite MLCommons. Aujourd'hui, MLCommons a publié ses benchmarks exhaustifs MLPerf Inference 3.0, marquant la première mise à jour majeure des scores depuis la mise à jour MLPerf Inference 2.1 en septembre 2022.
Sur plus de 5 000 résultats de performances différents, les nouveaux résultats montrent des gains d'amélioration marqués pour presque toutes les capacités matérielles d'inférence, à travers une variété de modèles et d'approches pour mesurer les performances.
Parmi les fournisseurs qui ont participé à l'effort MLPerf Inference 3.0 figurent Alibaba, ASUS, Azure, cTuning, Deci, Dell, GIGABYTE, H3C, HPE, Inspur, Intel, Krai, Lenovo, Moffett, Nettrix, Neuchips, Neural Magic, Nvidia, Qualcomm, Quanta Cloud Technology, rebellions, SiMa, Supermicro, VMware et xFusion.
ÉvénementTransformez 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs expliqueront comment ils ont intégré et optimisé les investissements dans l'IA pour réussir et éviter les pièges courants.
S'inscrire maintenantRejoignez des cadres supérieurs à San Francisco les 11 et 12 juillet pour découvrir comment les dirigeants intègrent et optimisent les investissements dans l'IA pour réussir. En savoir plus
Alors que les demandes d'intelligence artificielle (IA) et d'apprentissage automatique (ML) continuent de croître, il existe un besoin correspondant de niveaux de performances encore plus élevés pour la formation et l'inférence.
L'un des meilleurs moyens dont dispose aujourd'hui l'industrie de l'IA/ML pour mesurer les performances consiste à utiliser l'ensemble de tests de référence MLPerf, qui a été développé par l'organisation multipartite MLCommons. Aujourd'hui, MLCommons a publié ses benchmarks exhaustifs MLPerf Inference 3.0, marquant la première mise à jour majeure des scores depuis la mise à jour MLPerf Inference 2.1 en septembre 2022.
Sur plus de 5 000 résultats de performances différents, les nouveaux résultats montrent des gains d'amélioration marqués pour presque toutes les capacités matérielles d'inférence, à travers une variété de modèles et d'approches pour mesurer les performances.
Parmi les fournisseurs qui ont participé à l'effort MLPerf Inference 3.0 figurent Alibaba, ASUS, Azure, cTuning, Deci, Dell, GIGABYTE, H3C, HPE, Inspur, Intel, Krai, Lenovo, Moffett, Nettrix, Neuchips, Neural Magic, Nvidia, Qualcomm, Quanta Cloud Technology, rebellions, SiMa, Supermicro, VMware et xFusion.
ÉvénementTransformez 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs expliqueront comment ils ont intégré et optimisé les investissements dans l'IA pour réussir et éviter les pièges courants.
S'inscrire maintenantWhat's Your Reaction?