بناء ذكاء اصطناعي مسؤول: 5 ركائز لمستقبل أخلاقي

يسعدنا إعادة Transform 2022 شخصيًا في 19 تموز (يوليو) ومن 20 إلى 28 تموز (يوليو) تقريبًا. انضم إلى القادة في مجال الذكاء الاصطناعي والبيانات لإجراء مناقشات متعمقة وفرص التواصل المثيرة. اشترك اليوم!

طالما كان هناك تقدم في التكنولوجيا ، كان هناك قلق بشأن تداعياتها. مشروع مانهاتن ، عندما تصارع العلماء مع دورهم في إطلاق مثل هذه الطاقة النووية المبتكرة ، ولكن المدمرة ، هو مثال ساطع. كان اللورد سولومون "سولي" زوكرمان مستشارًا علميًا للحلفاء خلال الحرب العالمية الثانية ، وفيما بعد كان من أبرز المدافعين عن عدم انتشار الأسلحة النووية. تم اقتباسه في الستينيات من القرن الماضي بفكرة نبوية لا تزال سارية حتى اليوم: "العلم يخلق المستقبل دون معرفة ما سيكون عليه المستقبل".

إن الذكاء الاصطناعي (AI) ، الذي أصبح الآن مصطلحًا شاملاً لأي برنامج للتعلم الآلي (ML) مصمم لأداء المهام المعقدة التي تتطلب عادةً ذكاءً بشريًا ، مقدر له أن يلعب دورًا كبيرًا في مجتمعنا المستقبلي. أدى انتشاره مؤخرًا إلى انفجار الاهتمام ، فضلاً عن زيادة التدقيق في كيفية تطوير الذكاء الاصطناعي ومن يقوم بالتطوير ، مما يبرز تأثير التحيزات على التصميم والتشغيل. يخطط الاتحاد الأوروبي لتشريع جديد للتخفيف من الضرر المحتمل الذي يمكن أن يسببه الذكاء الاصطناعي وسيتطلب القانون الذكاء الاصطناعي المسؤول.

من السهل معرفة سبب أهمية هذه الإجراءات الوقائية. يبني البشر أنظمة ذكاء اصطناعي ، لذا فإنهم لا محالة يجلبون وجهة نظرهم الخاصة حول الأخلاقيات في التصميم ، غالبًا إلى الأسوأ. ظهرت بعض الأمثلة المقلقة بالفعل - خضع كل من خوارزمية Apple Card وتوظيف الوظائف في أمازون إلى تحقيق حول التحيز الجنساني ، وكان على Google [الاشتراك المطلوب] تجديد خدمة الصور بعد العلامة التجارية العنصرية. تمكنت كل شركة من حل المشكلات منذ ذلك الحين ، ولكن التكنولوجيا تتغير بسرعة ، مما يؤكد الدرس القائل بأن إنشاء تقنية فائقة دون مراعاة المخاطر يشبه الجري معصوب العينين. بناء ذكاء اصطناعي مسؤول

أشار ملفين جرير ، كبير علماء البيانات في Intel ، في VentureBeat إلى أن "... الخبراء في مجال الذكاء الاصطناعي المسؤول يريدون حقًا التركيز على الإدارة الناجحة لمخاطر التحيز في الذكاء الاصطناعي ، حتى لا نقوم فقط بإنشاء نظام يعمل شيئًا يُدعى ، ولكن يفعل شيئًا في سياق منظور أكبر يعترف بالمعايير والأخلاق المجتمعية ". حدث

تحويل 2022

انضم إلينا في حدث الذكاء الاصطناعي التطبيقي الرائد لصناع القرار في مجال الأعمال والتكنولوجيا في المؤسسات في 19 يوليو ويوم 20-28 يوليو تقريبًا. سجل هنا

بمعنى آخر ، يجب أن يكون أولئك الذين يصممون أنظمة الذكاء الاصطناعي مسؤولين عن ...

بناء ذكاء اصطناعي مسؤول: 5 ركائز لمستقبل أخلاقي

يسعدنا إعادة Transform 2022 شخصيًا في 19 تموز (يوليو) ومن 20 إلى 28 تموز (يوليو) تقريبًا. انضم إلى القادة في مجال الذكاء الاصطناعي والبيانات لإجراء مناقشات متعمقة وفرص التواصل المثيرة. اشترك اليوم!

طالما كان هناك تقدم في التكنولوجيا ، كان هناك قلق بشأن تداعياتها. مشروع مانهاتن ، عندما تصارع العلماء مع دورهم في إطلاق مثل هذه الطاقة النووية المبتكرة ، ولكن المدمرة ، هو مثال ساطع. كان اللورد سولومون "سولي" زوكرمان مستشارًا علميًا للحلفاء خلال الحرب العالمية الثانية ، وفيما بعد كان من أبرز المدافعين عن عدم انتشار الأسلحة النووية. تم اقتباسه في الستينيات من القرن الماضي بفكرة نبوية لا تزال سارية حتى اليوم: "العلم يخلق المستقبل دون معرفة ما سيكون عليه المستقبل".

إن الذكاء الاصطناعي (AI) ، الذي أصبح الآن مصطلحًا شاملاً لأي برنامج للتعلم الآلي (ML) مصمم لأداء المهام المعقدة التي تتطلب عادةً ذكاءً بشريًا ، مقدر له أن يلعب دورًا كبيرًا في مجتمعنا المستقبلي. أدى انتشاره مؤخرًا إلى انفجار الاهتمام ، فضلاً عن زيادة التدقيق في كيفية تطوير الذكاء الاصطناعي ومن يقوم بالتطوير ، مما يبرز تأثير التحيزات على التصميم والتشغيل. يخطط الاتحاد الأوروبي لتشريع جديد للتخفيف من الضرر المحتمل الذي يمكن أن يسببه الذكاء الاصطناعي وسيتطلب القانون الذكاء الاصطناعي المسؤول.

من السهل معرفة سبب أهمية هذه الإجراءات الوقائية. يبني البشر أنظمة ذكاء اصطناعي ، لذا فإنهم لا محالة يجلبون وجهة نظرهم الخاصة حول الأخلاقيات في التصميم ، غالبًا إلى الأسوأ. ظهرت بعض الأمثلة المقلقة بالفعل - خضع كل من خوارزمية Apple Card وتوظيف الوظائف في أمازون إلى تحقيق حول التحيز الجنساني ، وكان على Google [الاشتراك المطلوب] تجديد خدمة الصور بعد العلامة التجارية العنصرية. تمكنت كل شركة من حل المشكلات منذ ذلك الحين ، ولكن التكنولوجيا تتغير بسرعة ، مما يؤكد الدرس القائل بأن إنشاء تقنية فائقة دون مراعاة المخاطر يشبه الجري معصوب العينين. بناء ذكاء اصطناعي مسؤول

أشار ملفين جرير ، كبير علماء البيانات في Intel ، في VentureBeat إلى أن "... الخبراء في مجال الذكاء الاصطناعي المسؤول يريدون حقًا التركيز على الإدارة الناجحة لمخاطر التحيز في الذكاء الاصطناعي ، حتى لا نقوم فقط بإنشاء نظام يعمل شيئًا يُدعى ، ولكن يفعل شيئًا في سياق منظور أكبر يعترف بالمعايير والأخلاق المجتمعية ". حدث

تحويل 2022

انضم إلينا في حدث الذكاء الاصطناعي التطبيقي الرائد لصناع القرار في مجال الأعمال والتكنولوجيا في المؤسسات في 19 يوليو ويوم 20-28 يوليو تقريبًا. سجل هنا

بمعنى آخر ، يجب أن يكون أولئك الذين يصممون أنظمة الذكاء الاصطناعي مسؤولين عن ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow