يجب أن يكون الذكاء الاصطناعي المسؤول أولوية - الآن

ألا تستطيع حضور Transform 2022؟ تحقق من جميع جلسات القمة في مكتبتنا عند الطلب الآن! انظر هنا.

يجب تضمين الذكاء الاصطناعي المسؤول في الحمض النووي للشركة.

"لماذا يعتبر التحيز في الذكاء الاصطناعي شيئًا نحتاج جميعًا إلى التفكير فيه اليوم؟ ذلك لأن الذكاء الاصطناعي يدعم كل ما نقوم به اليوم ،" قالت ميريام فوجل ، الرئيس والمدير التنفيذي لشركة EqualAI ، أمام جمهور مباشر في حدث Transform 2022 هذا الأسبوع. < / ص>

تعمقت Vogel في موضوعات انحياز الذكاء الاصطناعي والذكاء الاصطناعي المسؤول في محادثة مباشرة بقيادة فيكتوريا إسبينيل من مجموعة Software Alliance التجارية.

تتمتع Vogel بخبرة واسعة في مجال التكنولوجيا والسياسات ، بما في ذلك في البيت الأبيض ووزارة العدل الأمريكية (DOJ) ومنظمة EqualAI غير الربحية ، والتي تكرس جهودها للحد من التحيزات اللاواعية في تطوير واستخدام الذكاء الاصطناعي. كما تترأس اللجنة الاستشارية الوطنية للذكاء الاصطناعي (NAIAC) التي تم إطلاقها مؤخرًا ، والتي فوضها الكونغرس لتقديم المشورة للرئيس والبيت الأبيض بشأن سياسة الذكاء الاصطناعي.

كما لاحظت ، أصبح الذكاء الاصطناعي أكثر أهمية في حياتنا اليومية وتحسينها بشكل كبير ، ولكن في الوقت نفسه ، نحتاج إلى فهم المخاطر العديدة الكامنة في الذكاء الاصطناعي. يجب على الجميع - البنائين والمبدعين والمستخدمين - أن يجعلوا الذكاء الاصطناعي "شريكًا لنا" ، بالإضافة إلى الكفاءة والفعالية والجدارة بالثقة.

قال Vogel: "لا يمكنك بناء الثقة مع تطبيقك إذا لم تكن متأكدًا من أنه آمن لك ، وأنه مصمم لك".

قال فوغل إننا بحاجة إلى معالجة الذكاء الاصطناعي المسؤول الآن ، لأننا ما زلنا نضع "قواعد الطريق". ما يشكل الذكاء الاصطناعي يظل نوعًا من "المنطقة الرمادية".

ماذا لو لم يتم حلها؟ قد تكون العواقب وخيمة. وحذر فوغل من أن الناس قد لا يحصلون على الرعاية الصحية المناسبة أو فرص العمل بسبب انحياز الذكاء الاصطناعي ، و "ستأتي الدعاوى ، وستأتي اللوائح".

عندما يحدث هذا ، "لا يمكننا فك أنظمة الذكاء الاصطناعي التي أصبحنا نعتمد عليها كثيرًا والتي أصبحت متشابكة" ، قالت. "الآن ، اليوم ، حان الوقت لأن نكون حذرين للغاية بشأن ما نبنيه وننشره ، مع التأكد من أننا نقوم بتقييم المخاطر ، والتأكد من أننا نخفف من تلك المخاطر." جيد "AI Hygiene"

تحتاج الشركات إلى معالجة الذكاء الاصطناعي المسؤول الآن من خلال إنشاء ممارسات وسياسات حوكمة قوية وإنشاء ثقافة آمنة وتعاونية ومرئية. وقال فوغل إن الأمر يحتاج إلى أن "يمر عبر الرافعات" وأن يُدار بحكمة وعن قصد.

على سبيل المثال ، عند التوظيف ، يمكن للشركات أن تبدأ ببساطة بالسؤال عما إذا كانت الأنظمة الأساسية قد تم اختبارها من أجل التمييز.

قال فوغل: "هذا السؤال الأساسي قوي للغاية".

يجب أن يكون فريق الموارد البشرية في المؤسسة مدعومًا بالذكاء الاصطناعي الذي يكون شاملاً ولا يحرم أفضل المرشحين من التوظيف أو التقدم.

قال فوغل إنها مسألة "نظافة جيدة للذكاء الاصطناعي" ، وتبدأ بمجموعة سي.

"لماذا C-suite؟ لأنه في نهاية اليوم ، إذا لم تحصل على اشتراك بأعلى المستويات ، فلن تتمكن من وضع إطار عمل الحوكمة ، ولا يمكنك الحصول على استثمار في إطار الحوكمة ولا يمكنك الموافقة عليه للتأكد من أنك تقوم بذلك بالطريقة الصحيحة "، قال فوغل.

علاوة على ذلك ، يعد اكتشاف التحيز عملية مستمرة: بمجرد إنشاء إطار عمل ، يجب وضع عملية طويلة الأجل للتقييم المستمر لما إذا كان التحيز يعيق الأنظمة أم لا.

قال فوغل: "يمكن للتحيز أن يدمج نفسه في كل نقطة اتصال بشرية" ، من جمع البيانات إلى الاختبار والتصميم والتطوير والنشر.

الذكاء الاصطناعي المسؤول: مشكلة المستوى البشري

أشار Vogel إلى أن المحادثة حول التحيز والمسؤولية في الذكاء الاصطناعي كانت في البداية مقصورة على المبرمجين ، لكن Vogel تعتقد أن هذا "غير عادل".

"لا يمكننا أن نتوقع منهم أن يحلوا مشاكل البشرية بأنفسهم" ، قالت.

إنها طبيعة بشرية: غالبًا ما يتخيل الناس فقط بالقدر الذي تسمح به تجربتهم أو إبداعهم. لذلك كلما زاد عدد الأصوات التي يمكن سماعها ، كان من الأفضل تحديد أفضل الممارسات ...

يجب أن يكون الذكاء الاصطناعي المسؤول أولوية - الآن

ألا تستطيع حضور Transform 2022؟ تحقق من جميع جلسات القمة في مكتبتنا عند الطلب الآن! انظر هنا.

يجب تضمين الذكاء الاصطناعي المسؤول في الحمض النووي للشركة.

"لماذا يعتبر التحيز في الذكاء الاصطناعي شيئًا نحتاج جميعًا إلى التفكير فيه اليوم؟ ذلك لأن الذكاء الاصطناعي يدعم كل ما نقوم به اليوم ،" قالت ميريام فوجل ، الرئيس والمدير التنفيذي لشركة EqualAI ، أمام جمهور مباشر في حدث Transform 2022 هذا الأسبوع. < / ص>

تعمقت Vogel في موضوعات انحياز الذكاء الاصطناعي والذكاء الاصطناعي المسؤول في محادثة مباشرة بقيادة فيكتوريا إسبينيل من مجموعة Software Alliance التجارية.

تتمتع Vogel بخبرة واسعة في مجال التكنولوجيا والسياسات ، بما في ذلك في البيت الأبيض ووزارة العدل الأمريكية (DOJ) ومنظمة EqualAI غير الربحية ، والتي تكرس جهودها للحد من التحيزات اللاواعية في تطوير واستخدام الذكاء الاصطناعي. كما تترأس اللجنة الاستشارية الوطنية للذكاء الاصطناعي (NAIAC) التي تم إطلاقها مؤخرًا ، والتي فوضها الكونغرس لتقديم المشورة للرئيس والبيت الأبيض بشأن سياسة الذكاء الاصطناعي.

كما لاحظت ، أصبح الذكاء الاصطناعي أكثر أهمية في حياتنا اليومية وتحسينها بشكل كبير ، ولكن في الوقت نفسه ، نحتاج إلى فهم المخاطر العديدة الكامنة في الذكاء الاصطناعي. يجب على الجميع - البنائين والمبدعين والمستخدمين - أن يجعلوا الذكاء الاصطناعي "شريكًا لنا" ، بالإضافة إلى الكفاءة والفعالية والجدارة بالثقة.

قال Vogel: "لا يمكنك بناء الثقة مع تطبيقك إذا لم تكن متأكدًا من أنه آمن لك ، وأنه مصمم لك".

قال فوغل إننا بحاجة إلى معالجة الذكاء الاصطناعي المسؤول الآن ، لأننا ما زلنا نضع "قواعد الطريق". ما يشكل الذكاء الاصطناعي يظل نوعًا من "المنطقة الرمادية".

ماذا لو لم يتم حلها؟ قد تكون العواقب وخيمة. وحذر فوغل من أن الناس قد لا يحصلون على الرعاية الصحية المناسبة أو فرص العمل بسبب انحياز الذكاء الاصطناعي ، و "ستأتي الدعاوى ، وستأتي اللوائح".

عندما يحدث هذا ، "لا يمكننا فك أنظمة الذكاء الاصطناعي التي أصبحنا نعتمد عليها كثيرًا والتي أصبحت متشابكة" ، قالت. "الآن ، اليوم ، حان الوقت لأن نكون حذرين للغاية بشأن ما نبنيه وننشره ، مع التأكد من أننا نقوم بتقييم المخاطر ، والتأكد من أننا نخفف من تلك المخاطر." جيد "AI Hygiene"

تحتاج الشركات إلى معالجة الذكاء الاصطناعي المسؤول الآن من خلال إنشاء ممارسات وسياسات حوكمة قوية وإنشاء ثقافة آمنة وتعاونية ومرئية. وقال فوغل إن الأمر يحتاج إلى أن "يمر عبر الرافعات" وأن يُدار بحكمة وعن قصد.

على سبيل المثال ، عند التوظيف ، يمكن للشركات أن تبدأ ببساطة بالسؤال عما إذا كانت الأنظمة الأساسية قد تم اختبارها من أجل التمييز.

قال فوغل: "هذا السؤال الأساسي قوي للغاية".

يجب أن يكون فريق الموارد البشرية في المؤسسة مدعومًا بالذكاء الاصطناعي الذي يكون شاملاً ولا يحرم أفضل المرشحين من التوظيف أو التقدم.

قال فوغل إنها مسألة "نظافة جيدة للذكاء الاصطناعي" ، وتبدأ بمجموعة سي.

"لماذا C-suite؟ لأنه في نهاية اليوم ، إذا لم تحصل على اشتراك بأعلى المستويات ، فلن تتمكن من وضع إطار عمل الحوكمة ، ولا يمكنك الحصول على استثمار في إطار الحوكمة ولا يمكنك الموافقة عليه للتأكد من أنك تقوم بذلك بالطريقة الصحيحة "، قال فوغل.

علاوة على ذلك ، يعد اكتشاف التحيز عملية مستمرة: بمجرد إنشاء إطار عمل ، يجب وضع عملية طويلة الأجل للتقييم المستمر لما إذا كان التحيز يعيق الأنظمة أم لا.

قال فوغل: "يمكن للتحيز أن يدمج نفسه في كل نقطة اتصال بشرية" ، من جمع البيانات إلى الاختبار والتصميم والتطوير والنشر.

الذكاء الاصطناعي المسؤول: مشكلة المستوى البشري

أشار Vogel إلى أن المحادثة حول التحيز والمسؤولية في الذكاء الاصطناعي كانت في البداية مقصورة على المبرمجين ، لكن Vogel تعتقد أن هذا "غير عادل".

"لا يمكننا أن نتوقع منهم أن يحلوا مشاكل البشرية بأنفسهم" ، قالت.

إنها طبيعة بشرية: غالبًا ما يتخيل الناس فقط بالقدر الذي تسمح به تجربتهم أو إبداعهم. لذلك كلما زاد عدد الأصوات التي يمكن سماعها ، كان من الأفضل تحديد أفضل الممارسات ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow