5 نصائح لأصحاب الأعمال من قانون حقوق الذكاء الاصطناعي للرئيس بايدن

يتخذ الرئيس بايدن مزيدًا من الخطوات لضمان إدارة التطورات السريعة في تكنولوجيا الذكاء الاصطناعي بشكل جيد. أصدرت إدارة بايدن مؤخرًا مخططًا لـ "قانون حقوق الذكاء الاصطناعي" ، وهي مجموعة من خمس توصيات تهدف إلى ضمان أن أنظمة الذكاء الاصطناعي آمنة وعادلة واختيارية وقبل كل شيء أخلاقية.

بخلاف وثيقة الحقوق الحالية ، هذه الوثيقة ليست ملزمة قانونًا. على العكس من ذلك ، يوجد المخطط لإضفاء الطابع الرسمي على أفضل ممارسات اللاعبين الرئيسيين في الذكاء الاصطناعي. ومساحة تعلم الآلة. تشمل هذه الإجراءات ضمان عدم تحيز الذكاء الاصطناعي بسبب البيانات السيئة ، وتقديم الآراء حول وقت استخدام الأتمتة ، وتوفير بدائل بشرية للخدمات المؤتمتة ، وفقًا لفينكات رانجابورام ، الرئيس التنفيذي لمزود حلول بيانات Pactera Edge.

إليك "الحقوق" الخمسة التي حددها مخطط البيت الأبيض ، وكيف يجب على الشركات استخدامها عند تطوير الأنظمة الآلية واستخدامها.

1. تأكد من أن الأنظمة الآلية آمنة وفعالة.

يجب أن تكون سلامة المستخدم وأمنه دائمًا في غاية الأهمية في تطوير الذكاء الاصطناعي. الأنظمة وفقًا للخطة الرئيسية. تجادل الإدارة بأن الأنظمة الآلية يجب تطويرها بمشاركة عامة ، مما يسمح بالتشاور مع مجموعات متنوعة من الأشخاص الذين يمكنهم تحديد المخاطر والمخاوف المحتملة ، وأن الأنظمة يجب أن تخضع لاختبارات ومراقبة صارمة قبل النشر لإثبات سلامتها.

مثال على الذكاء الاصطناعي الضار. المذكورة في الوثيقة تستشهد أمازون ، التي قامت بتركيب كاميرات تعمل بالذكاء الاصطناعي في شاحنات التوصيل الخاصة بها لتقييم عادات السلامة لسائقيها. يعاقب النظام السائقين بشكل غير صحيح عندما تقوم سيارات أخرى بقطعهم أو عند وقوع أحداث أخرى خارجة عن إرادتهم على الطريق. نتيجة لذلك ، لم يكن بعض السائقين مؤهلين للحصول على مكافأة.

2. حماية المستخدمين من التمييز الخوارزمي.

يتعامل الجانب الأيمن الثاني مع ميل الأنظمة الآلية إلى "إنتاج نتائج غير عادلة" باستخدام البيانات التي تفشل في تفسير التحيزات النظامية الموجودة في المجتمع الأمريكي ، مثل برامج التعرف على الوجه التي تخطئ في التعرف على الأشخاص الملونين في كثير من الأحيان من الأشخاص البيض ، أو أداة توظيف آلية ترفض طلبات النساء.

لمكافحة هذا ، تقترح الخطة استخدام إجراءات الحماية الخوارزمية للانحياز للقوى العاملة ، وهي وثيقة تحتوي على أفضل الممارسات التي طورها اتحاد من رواد الصناعة ، بما في ذلك IBM و Meta و Deloitte. يوضح المستند خطوات لتثقيف الموظفين حول التحيز الخوارزمي ، بالإضافة إلى تعليمات لتنفيذ تدابير الحماية في مكان العمل.

3. حماية المستخدمين من سياسات البيانات المسيئة.

وفقًا للحق الثالث ، يجب أن يكون كل شخص قادرًا على تحديد كيفية استخدام بياناته. يشير الاقتراح إلى أن مصممي ومطوري الأنظمة الآلية يسعون للحصول على إذن المستخدمين ويحترمون قرارات المستخدمين فيما يتعلق بجمع البيانات الشخصية واستخدامها والوصول إليها ونقلها وتسليمها. تضيف الخطة أن أي طلب للموافقة يجب أن يكون موجزًا ​​ومفهومًا بلغة واضحة.

يقول رانجابورام إن تصميم أنظمتك الآلية للتعلم باستمرار دون الظهور بمظهر متعجرف هو "توازن صعب" لتحقيقه ، لكنه يضيف أن السماح للمستخدمين الفرديين بتحديد مستوى الراحة والسرية الخاصة بهم هو أمر جيد الخطوة الأولى.

4. تزويد المستخدمين بالإشعارات والتوضيحات.

يجب أن يعرف المستهلكون دائمًا متى يتم استخدام نظام آلي وأن يتلقوا معلومات كافية لفهم كيف ولماذا يساهم في النتائج التي تؤثر عليهم ، وفقًا للحق الرابع.

بشكل عام ، يرى رانجابورام أن المشاعر الاجتماعية السلبية تجاه الشركات التي تجمع البيانات يمكن أن تؤثر سلبًا على تقدم التقنيات الجديدة. لم يكن توضيح كيفية استخدام البيانات ولماذا أكثر أهمية من أي وقت مضى. من خلال تثقيف الأشخاص حول بياناتهم ، يمكن للشركات كسب ثقة ...

5 نصائح لأصحاب الأعمال من قانون حقوق الذكاء الاصطناعي للرئيس بايدن

يتخذ الرئيس بايدن مزيدًا من الخطوات لضمان إدارة التطورات السريعة في تكنولوجيا الذكاء الاصطناعي بشكل جيد. أصدرت إدارة بايدن مؤخرًا مخططًا لـ "قانون حقوق الذكاء الاصطناعي" ، وهي مجموعة من خمس توصيات تهدف إلى ضمان أن أنظمة الذكاء الاصطناعي آمنة وعادلة واختيارية وقبل كل شيء أخلاقية.

بخلاف وثيقة الحقوق الحالية ، هذه الوثيقة ليست ملزمة قانونًا. على العكس من ذلك ، يوجد المخطط لإضفاء الطابع الرسمي على أفضل ممارسات اللاعبين الرئيسيين في الذكاء الاصطناعي. ومساحة تعلم الآلة. تشمل هذه الإجراءات ضمان عدم تحيز الذكاء الاصطناعي بسبب البيانات السيئة ، وتقديم الآراء حول وقت استخدام الأتمتة ، وتوفير بدائل بشرية للخدمات المؤتمتة ، وفقًا لفينكات رانجابورام ، الرئيس التنفيذي لمزود حلول بيانات Pactera Edge.

إليك "الحقوق" الخمسة التي حددها مخطط البيت الأبيض ، وكيف يجب على الشركات استخدامها عند تطوير الأنظمة الآلية واستخدامها.

1. تأكد من أن الأنظمة الآلية آمنة وفعالة.

يجب أن تكون سلامة المستخدم وأمنه دائمًا في غاية الأهمية في تطوير الذكاء الاصطناعي. الأنظمة وفقًا للخطة الرئيسية. تجادل الإدارة بأن الأنظمة الآلية يجب تطويرها بمشاركة عامة ، مما يسمح بالتشاور مع مجموعات متنوعة من الأشخاص الذين يمكنهم تحديد المخاطر والمخاوف المحتملة ، وأن الأنظمة يجب أن تخضع لاختبارات ومراقبة صارمة قبل النشر لإثبات سلامتها.

مثال على الذكاء الاصطناعي الضار. المذكورة في الوثيقة تستشهد أمازون ، التي قامت بتركيب كاميرات تعمل بالذكاء الاصطناعي في شاحنات التوصيل الخاصة بها لتقييم عادات السلامة لسائقيها. يعاقب النظام السائقين بشكل غير صحيح عندما تقوم سيارات أخرى بقطعهم أو عند وقوع أحداث أخرى خارجة عن إرادتهم على الطريق. نتيجة لذلك ، لم يكن بعض السائقين مؤهلين للحصول على مكافأة.

2. حماية المستخدمين من التمييز الخوارزمي.

يتعامل الجانب الأيمن الثاني مع ميل الأنظمة الآلية إلى "إنتاج نتائج غير عادلة" باستخدام البيانات التي تفشل في تفسير التحيزات النظامية الموجودة في المجتمع الأمريكي ، مثل برامج التعرف على الوجه التي تخطئ في التعرف على الأشخاص الملونين في كثير من الأحيان من الأشخاص البيض ، أو أداة توظيف آلية ترفض طلبات النساء.

لمكافحة هذا ، تقترح الخطة استخدام إجراءات الحماية الخوارزمية للانحياز للقوى العاملة ، وهي وثيقة تحتوي على أفضل الممارسات التي طورها اتحاد من رواد الصناعة ، بما في ذلك IBM و Meta و Deloitte. يوضح المستند خطوات لتثقيف الموظفين حول التحيز الخوارزمي ، بالإضافة إلى تعليمات لتنفيذ تدابير الحماية في مكان العمل.

3. حماية المستخدمين من سياسات البيانات المسيئة.

وفقًا للحق الثالث ، يجب أن يكون كل شخص قادرًا على تحديد كيفية استخدام بياناته. يشير الاقتراح إلى أن مصممي ومطوري الأنظمة الآلية يسعون للحصول على إذن المستخدمين ويحترمون قرارات المستخدمين فيما يتعلق بجمع البيانات الشخصية واستخدامها والوصول إليها ونقلها وتسليمها. تضيف الخطة أن أي طلب للموافقة يجب أن يكون موجزًا ​​ومفهومًا بلغة واضحة.

يقول رانجابورام إن تصميم أنظمتك الآلية للتعلم باستمرار دون الظهور بمظهر متعجرف هو "توازن صعب" لتحقيقه ، لكنه يضيف أن السماح للمستخدمين الفرديين بتحديد مستوى الراحة والسرية الخاصة بهم هو أمر جيد الخطوة الأولى.

4. تزويد المستخدمين بالإشعارات والتوضيحات.

يجب أن يعرف المستهلكون دائمًا متى يتم استخدام نظام آلي وأن يتلقوا معلومات كافية لفهم كيف ولماذا يساهم في النتائج التي تؤثر عليهم ، وفقًا للحق الرابع.

بشكل عام ، يرى رانجابورام أن المشاعر الاجتماعية السلبية تجاه الشركات التي تجمع البيانات يمكن أن تؤثر سلبًا على تقدم التقنيات الجديدة. لم يكن توضيح كيفية استخدام البيانات ولماذا أكثر أهمية من أي وقت مضى. من خلال تثقيف الأشخاص حول بياناتهم ، يمكن للشركات كسب ثقة ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow