تمرر Nvidia وحدات معالجة الرسومات Hopper لـ AI في الإنتاج الكامل

ألا تستطيع حضور Transform 2022؟ تحقق من جميع جلسات القمة في مكتبتنا عند الطلب الآن! انظر هنا.

أعلنت Nvidia اليوم أن وحدة معالجة الرسومات (GPU) Nvidia H100 Tensor في مرحلة الإنتاج الكامل ، حيث يخطط شركاء التكنولوجيا العالميون لطرح الموجة الأولى من المنتجات والخدمات القائمة على وحدة معالجة الرسومات في أكتوبر. بنية Nvidia Hopper. < / ص>

أعلن الرئيس التنفيذي لشركة Nvidia Jensen Huang في حدث خريف GTC عبر الإنترنت لشركة Nvidia.

تم كشف النقاب عن H100 في أبريل ، وقد تم تصنيعها باستخدام 80 مليار ترانزستور وتتميز بمجموعة من التطورات التكنولوجية. من بينها محرك Transformer الجديد القوي ووصلة Nvidia NVLink لتسريع نماذج الذكاء الاصطناعي (AI) الأكبر ، مثل أنظمة الاقتراحات المتقدمة ونماذج اللغة الكبيرة ، ودفع الابتكارات في مجالات مثل الذكاء الاصطناعي للمحادثة واكتشاف الأدوية.

"هوبر هو المحرك الجديد لمصانع الذكاء الاصطناعي ، حيث يقوم بمعالجة وتنقية تلال من البيانات لتدريب النماذج التي تحتوي على تريليونات من المعلمات التي تُستخدم لتطوير الذكاء الاصطناعي المستند إلى اللغة ، والروبوتات ، وعلوم الصحة والحياة ،" جنسن هوانغ ، المؤسس والرئيس التنفيذي من Nvidia ، في بيان. "يعمل محرك تحويل Hopper على تحسين الأداء بترتيب من حيث الحجم ، مما يجعل الذكاء الاصطناعي على نطاق واسع و HPC في متناول المؤسسات والباحثين." حدث

MetaBeat 2022

ستجمع MetaBeat قادة الفكر لتقديم المشورة بشأن الطريقة التي ستغير بها التكنولوجيا metaverse الطريقة التي تتواصل بها جميع الصناعات وتؤدي أعمالها في 4 أكتوبر في سان فرانسيسكو ، كاليفورنيا. سجل هنا

[متابعة تغطية Nvidia GTC 2022 المستمرة لـ VB "]

بالإضافة إلى بنية Hopper و Transformer Engine ، تمكّن العديد من الابتكارات الرئيسية الأخرى وحدة معالجة الرسومات H100 من تحقيق القفزة التالية إلى الأمام في النظام الأساسي لمركز بيانات الحوسبة المتسارعة من Nvidia ، بما في ذلك الجيل الثاني من GPU متعدد المثيلات والحوسبة السرية والجيل الرابع من Nvidia تعليمات NVLink و DPX.

"يسعدنا أن نعلن أن Nvidia H100 هو الآن في مرحلة الإنتاج الكامل ،" قال إيان باك ، المدير العام للحوسبة المتسارعة في Nvidia ، خلال مؤتمر صحفي. "نحن على استعداد لقبول طلبات الشحن في الربع الأول (بدءًا من السنة المالية لشركة Nvidia في أكتوبر). وبدءًا من الشهر المقبل ، سيبدأ شركاء النظام لدينا من Asus إلى Supermicro في شحن أنظمتهم H100. ، بدءًا من منتجات PCIe والتوسع لاحقًا هذا العام لمنصات NVLink HDX. "

يتم الآن تضمين ترخيص لمدة خمس سنوات لمجموعة برامج Nvidia AI Enterprise مع H100 لخوادم المستهلكين. يعمل هذا على تحسين تطوير ونشر مهام سير عمل الذكاء الاصطناعي ويضمن للمؤسسات الوصول إلى أطر عمل الذكاء الاصطناعي والأدوات اللازمة لإنشاء روبوتات محادثة للذكاء الاصطناعي ومحركات التوصية والذكاء الاصطناعي المرئي والمزيد.

تمرر Nvidia وحدات معالجة الرسومات Hopper لـ AI في الإنتاج الكامل

ألا تستطيع حضور Transform 2022؟ تحقق من جميع جلسات القمة في مكتبتنا عند الطلب الآن! انظر هنا.

أعلنت Nvidia اليوم أن وحدة معالجة الرسومات (GPU) Nvidia H100 Tensor في مرحلة الإنتاج الكامل ، حيث يخطط شركاء التكنولوجيا العالميون لطرح الموجة الأولى من المنتجات والخدمات القائمة على وحدة معالجة الرسومات في أكتوبر. بنية Nvidia Hopper. < / ص>

أعلن الرئيس التنفيذي لشركة Nvidia Jensen Huang في حدث خريف GTC عبر الإنترنت لشركة Nvidia.

تم كشف النقاب عن H100 في أبريل ، وقد تم تصنيعها باستخدام 80 مليار ترانزستور وتتميز بمجموعة من التطورات التكنولوجية. من بينها محرك Transformer الجديد القوي ووصلة Nvidia NVLink لتسريع نماذج الذكاء الاصطناعي (AI) الأكبر ، مثل أنظمة الاقتراحات المتقدمة ونماذج اللغة الكبيرة ، ودفع الابتكارات في مجالات مثل الذكاء الاصطناعي للمحادثة واكتشاف الأدوية.

"هوبر هو المحرك الجديد لمصانع الذكاء الاصطناعي ، حيث يقوم بمعالجة وتنقية تلال من البيانات لتدريب النماذج التي تحتوي على تريليونات من المعلمات التي تُستخدم لتطوير الذكاء الاصطناعي المستند إلى اللغة ، والروبوتات ، وعلوم الصحة والحياة ،" جنسن هوانغ ، المؤسس والرئيس التنفيذي من Nvidia ، في بيان. "يعمل محرك تحويل Hopper على تحسين الأداء بترتيب من حيث الحجم ، مما يجعل الذكاء الاصطناعي على نطاق واسع و HPC في متناول المؤسسات والباحثين." حدث

MetaBeat 2022

ستجمع MetaBeat قادة الفكر لتقديم المشورة بشأن الطريقة التي ستغير بها التكنولوجيا metaverse الطريقة التي تتواصل بها جميع الصناعات وتؤدي أعمالها في 4 أكتوبر في سان فرانسيسكو ، كاليفورنيا. سجل هنا

[متابعة تغطية Nvidia GTC 2022 المستمرة لـ VB "]

بالإضافة إلى بنية Hopper و Transformer Engine ، تمكّن العديد من الابتكارات الرئيسية الأخرى وحدة معالجة الرسومات H100 من تحقيق القفزة التالية إلى الأمام في النظام الأساسي لمركز بيانات الحوسبة المتسارعة من Nvidia ، بما في ذلك الجيل الثاني من GPU متعدد المثيلات والحوسبة السرية والجيل الرابع من Nvidia تعليمات NVLink و DPX.

"يسعدنا أن نعلن أن Nvidia H100 هو الآن في مرحلة الإنتاج الكامل ،" قال إيان باك ، المدير العام للحوسبة المتسارعة في Nvidia ، خلال مؤتمر صحفي. "نحن على استعداد لقبول طلبات الشحن في الربع الأول (بدءًا من السنة المالية لشركة Nvidia في أكتوبر). وبدءًا من الشهر المقبل ، سيبدأ شركاء النظام لدينا من Asus إلى Supermicro في شحن أنظمتهم H100. ، بدءًا من منتجات PCIe والتوسع لاحقًا هذا العام لمنصات NVLink HDX. "

يتم الآن تضمين ترخيص لمدة خمس سنوات لمجموعة برامج Nvidia AI Enterprise مع H100 لخوادم المستهلكين. يعمل هذا على تحسين تطوير ونشر مهام سير عمل الذكاء الاصطناعي ويضمن للمؤسسات الوصول إلى أطر عمل الذكاء الاصطناعي والأدوات اللازمة لإنشاء روبوتات محادثة للذكاء الاصطناعي ومحركات التوصية والذكاء الاصطناعي المرئي والمزيد.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow