كيفية إنشاء ذكاء اصطناعي أخلاقي ، وفقًا لمصمم IBM

يرتبط عمل الذكاء الاصطناعي بعدد لا يحصى من المخاوف بشأن التحيز والتمييز وأشكال أخرى من التحيز. لذا ، إذا كنت تدير شركة تعمل على تطوير الذكاء الاصطناعي ، فكيف تصمم نظامًا أخلاقيًا؟

استضافت Women in A.I. Ethics مؤخرًا محادثة مع Milena Pribic ، كبير مصممي IBM للذكاء الاصطناعي ، وإليك نصائحها حول كيفية القيام بذلك بشكل صحيح.

1. تعمق في ممارسات الفريق.

في فريق Pribic ، تبدأ الجهود المبذولة لبناء الذكاء الاصطناعي باستخدام نهج أخلاقي بفهم كيفية بناء الفريق للذكاء الاصطناعي. يعمل المنتج. وهذا يشمل الجهد العام ، والسلوكيات المستمرة لأعضاء الفريق ، والممارسات المعمول بها للتأكد من أن شيئًا مثل الإنصاف "لا يتم فحصه من القائمة" ، كما قالت أثناء الدردشة.

Pour s'assurer qu'une équipe ne se contente pas de suivre les étapes, Pribic a déclaré qu'il était important que les membres de l'équipe "comprennent vraiment le contexte" et "les répercussions" de ce qu' يبنون. وأشارت إلى أن إحدى الطرق التي يمكن أن تفشل بها الفرق في النمو هي عندما لا يكون لديهم تفاعل كافٍ مع المستخدم النهائي. يحل Pribic هذه المشكلة من خلال الجمع بين علماء البيانات والمصممين للتأكد من أن الفريق بأكمله يفهم المشكلات والمفاهيم بنفس الطريقة.

2. انظر إلى تكوين الفريق.

"من الواضح أن التأكد من أن فريقك نفسه شامل" ، قالت ، أمر بالغ الأهمية في بناء الأنظمة الأخلاقية. "التمثيل الشامل شيء واحد ، ولكن لكي نكون شاملين حقًا ، نحتاج إلى مشاركة شاملة." يمكن أن يعني هذا التأكد من تواجد المزيج المناسب من الأشخاص في الغرفة بالفعل لاجتماعات وقرارات معينة.

بعد كل شيء ، تساءل بريبيك ، "ما هي فرصتنا للتأكد من أننا ننظر إلى الإنصاف ومكافحة التحيز إذا لم نفعل ذلك في نفس الغرفة؟"

3. فهم النتائج.

فيما يتعلق بالأعمال الداخلية للذكاء الاصطناعي الأخلاقي قال بريبيك إن فريقه يجري سلسلة من تمارين التصميم. على سبيل المثال ، كما تقول ، "يمكن أن يكون تمرينًا أو تمرينين يفضح التأثيرات الثلاثية لما تصممه وما تقوم بإنشائه أو خرائط أصحاب المصلحة والتي من المحتمل أن تستدعي شخصًا تأثر بشكل غير مباشر بالذكاء الاصطناعي الذي لم أقم به. لا أفكر في ذلك في البداية. "

بالإضافة إلى ذلك ، يمكنهم إدارة ورش عمل كاملة تركز على الأسهم أو مناقشة أوسع حول تأثيرات منتجات معينة.

كيفية إنشاء ذكاء اصطناعي أخلاقي ، وفقًا لمصمم IBM

يرتبط عمل الذكاء الاصطناعي بعدد لا يحصى من المخاوف بشأن التحيز والتمييز وأشكال أخرى من التحيز. لذا ، إذا كنت تدير شركة تعمل على تطوير الذكاء الاصطناعي ، فكيف تصمم نظامًا أخلاقيًا؟

استضافت Women in A.I. Ethics مؤخرًا محادثة مع Milena Pribic ، كبير مصممي IBM للذكاء الاصطناعي ، وإليك نصائحها حول كيفية القيام بذلك بشكل صحيح.

1. تعمق في ممارسات الفريق.

في فريق Pribic ، تبدأ الجهود المبذولة لبناء الذكاء الاصطناعي باستخدام نهج أخلاقي بفهم كيفية بناء الفريق للذكاء الاصطناعي. يعمل المنتج. وهذا يشمل الجهد العام ، والسلوكيات المستمرة لأعضاء الفريق ، والممارسات المعمول بها للتأكد من أن شيئًا مثل الإنصاف "لا يتم فحصه من القائمة" ، كما قالت أثناء الدردشة.

Pour s'assurer qu'une équipe ne se contente pas de suivre les étapes, Pribic a déclaré qu'il était important que les membres de l'équipe "comprennent vraiment le contexte" et "les répercussions" de ce qu' يبنون. وأشارت إلى أن إحدى الطرق التي يمكن أن تفشل بها الفرق في النمو هي عندما لا يكون لديهم تفاعل كافٍ مع المستخدم النهائي. يحل Pribic هذه المشكلة من خلال الجمع بين علماء البيانات والمصممين للتأكد من أن الفريق بأكمله يفهم المشكلات والمفاهيم بنفس الطريقة.

2. انظر إلى تكوين الفريق.

"من الواضح أن التأكد من أن فريقك نفسه شامل" ، قالت ، أمر بالغ الأهمية في بناء الأنظمة الأخلاقية. "التمثيل الشامل شيء واحد ، ولكن لكي نكون شاملين حقًا ، نحتاج إلى مشاركة شاملة." يمكن أن يعني هذا التأكد من تواجد المزيج المناسب من الأشخاص في الغرفة بالفعل لاجتماعات وقرارات معينة.

بعد كل شيء ، تساءل بريبيك ، "ما هي فرصتنا للتأكد من أننا ننظر إلى الإنصاف ومكافحة التحيز إذا لم نفعل ذلك في نفس الغرفة؟"

3. فهم النتائج.

فيما يتعلق بالأعمال الداخلية للذكاء الاصطناعي الأخلاقي قال بريبيك إن فريقه يجري سلسلة من تمارين التصميم. على سبيل المثال ، كما تقول ، "يمكن أن يكون تمرينًا أو تمرينين يفضح التأثيرات الثلاثية لما تصممه وما تقوم بإنشائه أو خرائط أصحاب المصلحة والتي من المحتمل أن تستدعي شخصًا تأثر بشكل غير مباشر بالذكاء الاصطناعي الذي لم أقم به. لا أفكر في ذلك في البداية. "

بالإضافة إلى ذلك ، يمكنهم إدارة ورش عمل كاملة تركز على الأسهم أو مناقشة أوسع حول تأثيرات منتجات معينة.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow