كيف أ. من التزامات البيت الأبيض تتراكم؟

سبعة AIs رئيسية. قدمت الشركات ثمانية وعود حول ما ستفعله بتقنيتها. يقيس كاتب العمود لدينا تأثيرها المحتمل.

أعلن البيت الأبيض هذا الأسبوع أنه حصل على "تعهدات طوعية" من سبعة من قادة الذكاء الاصطناعي. الشركات لإدارة المخاطر التي يشكلها الذكاء الاصطناعي.

الحصول على الشركات - Amazon و Anthropic و Google و Inflection و Meta و Microsoft و OpenAI - لقبول أي شيء هو خطوة إلى الأمام. وهي تشمل منافسين لدودين مع اختلافات طفيفة ولكنها مهمة في الطريقة التي يتعاملون بها مع البحث والتطوير في الذكاء الاصطناعي.

Meta ، على سبيل المثال ، حريصة جدًا على وضع نماذج الذكاء الاصطناعي في أيدي المطورين ، مما أدى إلى فتح العديد منهم ، مما جعل الكود الخاص بهم متاحًا للجميع. اتخذت مختبرات أخرى ، مثل Anthropic ، نهجًا أكثر حذرًا ، حيث أطلقت تقنيتها بطريقة محدودة.

ولكن ماذا تعني هذه الالتزامات في الواقع؟ وهل من المحتمل أن يغيروا كثيرًا في الطريقة التي تعمل بها شركات الذكاء الاصطناعي ، نظرًا لأنها غير مدعومة بقوة القانون؟

نظرًا للتحديات المحتملة للذكاء الاصطناعي. اللوائح ، التفاصيل مهمة. لذلك دعونا نلقي نظرة فاحصة على ما تم الاتفاق عليه هنا ونقيم التأثير المحتمل.

الالتزام 1: تلتزم الشركات بإجراء اختبار الأمان الداخلي والخارجي لأنظمتها الذكاء الاصطناعي قبل الإصدار.

غالبًا ما يُطلق على كل شركة من هذه الشركات اسم "فريق اختبار الأمان" الخاص بها قبل إصدارها.

على مستوى واحد ، إنه ليس التزامًا جديدًا حقًا. وهذا وعد غامض. وقال البيت الأبيض إنه لا يحتوي على الكثير من التفاصيل حول نوع الاختبار المطلوب أو من سيجري الاختبار.

في بيان مصاحب للتعهدات ، قال A.I. النماذج "سوف يصنعها خبراء مستقلون جزئيًا" وستركز على الذكاء الاصطناعي. مخاطر "مثل الأمن البيولوجي والأمن السيبراني ، فضلاً عن آثارهما المجتمعية الأوسع".

إنها فكرة جيدة أن تجعل شركات الذكاء الاصطناعي تلتزم علنًا بمواصلة إجراء هذا النوع من الاختبارات والتشجيع على مزيد من الشفافية في عملية الاختبار. وهناك أنواع معينة من الذكاء الاصطناعي. خطر - مثل خطر استخدام نماذج الذكاء الاصطناعي لتطوير أسلحة بيولوجية - والتي من المحتمل أن يكون المسؤولون الحكوميون والعسكريون في وضع أفضل من الشركات لتقييمها.

أود أن أرى A.I. توافق الصناعة على مجموعة قياسية من اختبارات الأمان ، مثل اختبارات "النسخ المستقل" التي يقوم بها مركز أبحاث المحاذاة على النماذج التي تم إصدارها مسبقًا بواسطة OpenAI و Anthropic. أود أيضًا أن أرى الحكومة الفيدرالية تمول هذه الأنواع من الاختبارات ، والتي قد تكون باهظة الثمن وتتطلب مهندسين ذوي خبرة فنية كبيرة. في الوقت الحالي ، يتم تمويل العديد من اختبارات الأمان والإشراف عليها من قبل الشركات ، مما يثير مشكلات واضحة لتضارب المصالح.

الالتزام 2: تلتزم الشركات بمشاركة المعلومات عبر الصناعة ومع الحكومات والمجتمع المدني والأوساط الأكاديمية بشأن إدارة الذكاء الاصطناعي. المخاطر.

هذا الالتزام غامض بعض الشيء أيضًا. تنشر العديد من هذه الشركات بالفعل معلومات حول نماذج الذكاء الاصطناعي الخاصة بها - عادةً في الأوراق الأكاديمية أو منشورات مدونة الشركة. ينشر عدد قليل منهم ، بما في ذلك OpenAI و Anthropic ، مستندات تسمى "خرائط النظام" ، والتي تصف الخطوات التي اتخذوها لجعل هذه النماذج أكثر أمانًا.

لكنهم قاموا أيضًا بحجب المعلومات في بعض الأحيان ، مشيرين إلى مخاوف أمنية. عندما أصدرت OpenAI أحدث إصدار من الذكاء الاصطناعي ...

كيف أ. من التزامات البيت الأبيض تتراكم؟

سبعة AIs رئيسية. قدمت الشركات ثمانية وعود حول ما ستفعله بتقنيتها. يقيس كاتب العمود لدينا تأثيرها المحتمل.

أعلن البيت الأبيض هذا الأسبوع أنه حصل على "تعهدات طوعية" من سبعة من قادة الذكاء الاصطناعي. الشركات لإدارة المخاطر التي يشكلها الذكاء الاصطناعي.

الحصول على الشركات - Amazon و Anthropic و Google و Inflection و Meta و Microsoft و OpenAI - لقبول أي شيء هو خطوة إلى الأمام. وهي تشمل منافسين لدودين مع اختلافات طفيفة ولكنها مهمة في الطريقة التي يتعاملون بها مع البحث والتطوير في الذكاء الاصطناعي.

Meta ، على سبيل المثال ، حريصة جدًا على وضع نماذج الذكاء الاصطناعي في أيدي المطورين ، مما أدى إلى فتح العديد منهم ، مما جعل الكود الخاص بهم متاحًا للجميع. اتخذت مختبرات أخرى ، مثل Anthropic ، نهجًا أكثر حذرًا ، حيث أطلقت تقنيتها بطريقة محدودة.

ولكن ماذا تعني هذه الالتزامات في الواقع؟ وهل من المحتمل أن يغيروا كثيرًا في الطريقة التي تعمل بها شركات الذكاء الاصطناعي ، نظرًا لأنها غير مدعومة بقوة القانون؟

نظرًا للتحديات المحتملة للذكاء الاصطناعي. اللوائح ، التفاصيل مهمة. لذلك دعونا نلقي نظرة فاحصة على ما تم الاتفاق عليه هنا ونقيم التأثير المحتمل.

الالتزام 1: تلتزم الشركات بإجراء اختبار الأمان الداخلي والخارجي لأنظمتها الذكاء الاصطناعي قبل الإصدار.

غالبًا ما يُطلق على كل شركة من هذه الشركات اسم "فريق اختبار الأمان" الخاص بها قبل إصدارها.

على مستوى واحد ، إنه ليس التزامًا جديدًا حقًا. وهذا وعد غامض. وقال البيت الأبيض إنه لا يحتوي على الكثير من التفاصيل حول نوع الاختبار المطلوب أو من سيجري الاختبار.

في بيان مصاحب للتعهدات ، قال A.I. النماذج "سوف يصنعها خبراء مستقلون جزئيًا" وستركز على الذكاء الاصطناعي. مخاطر "مثل الأمن البيولوجي والأمن السيبراني ، فضلاً عن آثارهما المجتمعية الأوسع".

إنها فكرة جيدة أن تجعل شركات الذكاء الاصطناعي تلتزم علنًا بمواصلة إجراء هذا النوع من الاختبارات والتشجيع على مزيد من الشفافية في عملية الاختبار. وهناك أنواع معينة من الذكاء الاصطناعي. خطر - مثل خطر استخدام نماذج الذكاء الاصطناعي لتطوير أسلحة بيولوجية - والتي من المحتمل أن يكون المسؤولون الحكوميون والعسكريون في وضع أفضل من الشركات لتقييمها.

أود أن أرى A.I. توافق الصناعة على مجموعة قياسية من اختبارات الأمان ، مثل اختبارات "النسخ المستقل" التي يقوم بها مركز أبحاث المحاذاة على النماذج التي تم إصدارها مسبقًا بواسطة OpenAI و Anthropic. أود أيضًا أن أرى الحكومة الفيدرالية تمول هذه الأنواع من الاختبارات ، والتي قد تكون باهظة الثمن وتتطلب مهندسين ذوي خبرة فنية كبيرة. في الوقت الحالي ، يتم تمويل العديد من اختبارات الأمان والإشراف عليها من قبل الشركات ، مما يثير مشكلات واضحة لتضارب المصالح.

الالتزام 2: تلتزم الشركات بمشاركة المعلومات عبر الصناعة ومع الحكومات والمجتمع المدني والأوساط الأكاديمية بشأن إدارة الذكاء الاصطناعي. المخاطر.

هذا الالتزام غامض بعض الشيء أيضًا. تنشر العديد من هذه الشركات بالفعل معلومات حول نماذج الذكاء الاصطناعي الخاصة بها - عادةً في الأوراق الأكاديمية أو منشورات مدونة الشركة. ينشر عدد قليل منهم ، بما في ذلك OpenAI و Anthropic ، مستندات تسمى "خرائط النظام" ، والتي تصف الخطوات التي اتخذوها لجعل هذه النماذج أكثر أمانًا.

لكنهم قاموا أيضًا بحجب المعلومات في بعض الأحيان ، مشيرين إلى مخاوف أمنية. عندما أصدرت OpenAI أحدث إصدار من الذكاء الاصطناعي ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow