يقال إن شريحة الذكاء الاصطناعي الرائدة من Nvidia أسرع 4.5 مرة من البطل السابق

Nvidia H100 Tensor Core GPU تكبير / صورة صحفية لوحدة معالجة الرسومات Nvidia H100 Tensor Core. نفيديا

أعلنت Nvidia أمس أن وحدة معالجة الرسومات H100 "Hopper" Tensor Core قد سجلت أرقامًا قياسية جديدة للأداء عندما ظهرت لأول مرة في معايير MLPerf القياسية في الصناعة ، مما أدى إلى تحقيق نتائج تصل إلى 4 ، 5 مرات أسرع من A100 ، وهو حاليًا معالج Nvidia. أسرع شريحة ذكاء اصطناعي إنتاج.

تقيس معايير MPerf (المسماة تقنيًا "MLPerfTM Inference 2.1") أعباء العمل "الاستدلال" ، والتي توضح مدى جودة تطبيق الرقاقة لنموذج التعلم الآلي الذي تم تدريبه مسبقًا على البيانات الجديدة. قامت مجموعة من الشركات الصناعية المعروفة باسم MLCommons بتطوير معايير MLPerf في عام 2018 لتوفير مقياس موحد لنقل أداء التعلم الآلي للعملاء المحتملين.

نتائج معيار H100 من Nvidia مقابل A100 ، كرسم بياني شريطي رائع. تكبير / نتائج معيار H100 من Nvidia مقابل A100 ، في شكل رسم بياني شريطي فاخر. نفيديا

على وجه الخصوص ، كان أداء H100 جيدًا في معيار BERT-Large ، والذي يقيس أداء معالجة اللغة الطبيعية باستخدام نموذج BERT الذي طورته Google. تنسب Nvidia هذه النتيجة بالذات إلى محرك Transformer الخاص بهندسة هوبر ، والذي يسرع على وجه التحديد تدريب نماذج المحولات. وهذا يعني أن H100 يمكنها تسريع نماذج اللغة الطبيعية المستقبلية المشابهة لـ GPT-3 الخاصة بـ OpenAI ، والتي يمكنها تأليف أعمال مكتوبة بالعديد من الأساليب المختلفة وإجراء محادثات محادثة.

تضع Nvidia مكانة H100 كشريحة GPU متطورة لمركز البيانات مصممة للذكاء الاصطناعي وتطبيقات الحوسبة الفائقة مثل التعرف على الصور ونماذج اللغات الكبيرة وتوليف الصور وما إلى ذلك. يتوقع المحللون أنه سيحل محل A100 باعتباره وحدة معالجة الرسومات الرئيسية لمركز البيانات Nvidia ، لكنه لا يزال قيد التطوير. أثارت القيود التي فرضتها الحكومة الأمريكية الأسبوع الماضي على صادرات الرقائق إلى الصين مخاوف من أن Nvidia قد لا تكون قادرة على تسليم H100 بحلول نهاية عام 2022 لأن بعض تطويرها يجري هناك.

أوضحت Nvidia في ملف ثانٍ لدى لجنة الأوراق المالية والبورصات الأسبوع الماضي أن الحكومة الأمريكية ستسمح بمزيد من التطوير لـ H100 في الصين ، لذلك يبدو أن المشروع قد عاد إلى المسار الصحيح في الوقت الحالي. وفقًا لـ Nvidia ، ستتوفر H100 "في وقت لاحق من هذا العام". إذا كان نجاح الجيل السابق من شريحة A100 يشير إلى أي مؤشر ، فيمكن أن تدعم H100 مجموعة متنوعة من تطبيقات الذكاء الاصطناعي التي تغير قواعد اللعبة لسنوات قادمة.

يقال إن شريحة الذكاء الاصطناعي الرائدة من Nvidia أسرع 4.5 مرة من البطل السابق
Nvidia H100 Tensor Core GPU تكبير / صورة صحفية لوحدة معالجة الرسومات Nvidia H100 Tensor Core. نفيديا

أعلنت Nvidia أمس أن وحدة معالجة الرسومات H100 "Hopper" Tensor Core قد سجلت أرقامًا قياسية جديدة للأداء عندما ظهرت لأول مرة في معايير MLPerf القياسية في الصناعة ، مما أدى إلى تحقيق نتائج تصل إلى 4 ، 5 مرات أسرع من A100 ، وهو حاليًا معالج Nvidia. أسرع شريحة ذكاء اصطناعي إنتاج.

تقيس معايير MPerf (المسماة تقنيًا "MLPerfTM Inference 2.1") أعباء العمل "الاستدلال" ، والتي توضح مدى جودة تطبيق الرقاقة لنموذج التعلم الآلي الذي تم تدريبه مسبقًا على البيانات الجديدة. قامت مجموعة من الشركات الصناعية المعروفة باسم MLCommons بتطوير معايير MLPerf في عام 2018 لتوفير مقياس موحد لنقل أداء التعلم الآلي للعملاء المحتملين.

نتائج معيار H100 من Nvidia مقابل A100 ، كرسم بياني شريطي رائع. تكبير / نتائج معيار H100 من Nvidia مقابل A100 ، في شكل رسم بياني شريطي فاخر. نفيديا

على وجه الخصوص ، كان أداء H100 جيدًا في معيار BERT-Large ، والذي يقيس أداء معالجة اللغة الطبيعية باستخدام نموذج BERT الذي طورته Google. تنسب Nvidia هذه النتيجة بالذات إلى محرك Transformer الخاص بهندسة هوبر ، والذي يسرع على وجه التحديد تدريب نماذج المحولات. وهذا يعني أن H100 يمكنها تسريع نماذج اللغة الطبيعية المستقبلية المشابهة لـ GPT-3 الخاصة بـ OpenAI ، والتي يمكنها تأليف أعمال مكتوبة بالعديد من الأساليب المختلفة وإجراء محادثات محادثة.

تضع Nvidia مكانة H100 كشريحة GPU متطورة لمركز البيانات مصممة للذكاء الاصطناعي وتطبيقات الحوسبة الفائقة مثل التعرف على الصور ونماذج اللغات الكبيرة وتوليف الصور وما إلى ذلك. يتوقع المحللون أنه سيحل محل A100 باعتباره وحدة معالجة الرسومات الرئيسية لمركز البيانات Nvidia ، لكنه لا يزال قيد التطوير. أثارت القيود التي فرضتها الحكومة الأمريكية الأسبوع الماضي على صادرات الرقائق إلى الصين مخاوف من أن Nvidia قد لا تكون قادرة على تسليم H100 بحلول نهاية عام 2022 لأن بعض تطويرها يجري هناك.

أوضحت Nvidia في ملف ثانٍ لدى لجنة الأوراق المالية والبورصات الأسبوع الماضي أن الحكومة الأمريكية ستسمح بمزيد من التطوير لـ H100 في الصين ، لذلك يبدو أن المشروع قد عاد إلى المسار الصحيح في الوقت الحالي. وفقًا لـ Nvidia ، ستتوفر H100 "في وقت لاحق من هذا العام". إذا كان نجاح الجيل السابق من شريحة A100 يشير إلى أي مؤشر ، فيمكن أن تدعم H100 مجموعة متنوعة من تطبيقات الذكاء الاصطناعي التي تغير قواعد اللعبة لسنوات قادمة.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow