كيف يخلق الذكاء الاصطناعي المسؤول عائد استثمار قابل للقياس

انضم إلينا في 9 تشرين الثاني (نوفمبر) لتتعلم كيفية الابتكار واكتساب الكفاءات بنجاح من خلال تحسين وتوسيع نطاق المطورين المواطنين في مؤتمر Low-Code / No-Code Summit. سجل هنا.

حتى في خضم الركود الاقتصادي ، يستمر اعتماد الذكاء الاصطناعي (AI) في الشركات حول العالم في الازدياد. على سبيل المثال ، يُظهر مؤشر اعتماد الذكاء الاصطناعي لعام 2022 الذي أصدرته شركة IBM مؤخرًا أن معدل اعتماد الذكاء الاصطناعي يبلغ حوالي 35٪ ، بزيادة أربع نقاط مئوية عن العام الماضي. ووجدت أيضًا أنه على الرغم من معدلات التبني المتزايدة ، تعترف 74٪ من الشركات بأنها لم تتخذ أي خطوات لضمان أن يكون الذكاء الاصطناعي لديها خاضعًا للمساءلة وغير متحيز.

السؤال هو ، لماذا لا؟

تقول نافرينا سينغ ، الرئيس التنفيذي ومؤسس شركة Credo AI ومقرها بالو ألتو ، والتي أعلنت ما تدعي أنها أول منصة حوكمة مسؤولة للذكاء الاصطناعي في أكتوبر 2021 ، إن السبب هو أن الشركات منهكة بسبب الكيفية التي تجري بها المحادثات حول موضوع المسؤولية الذكاء الاصطناعي - وإشراك المزيد من الأشخاص يبدأ بتغيير المحادثة حوله. في حين أن تعريفات الذكاء الاصطناعي المسؤول تختلف ، تصفها Accenture بأنها "ممارسة تصميم وتطوير ونشر الذكاء الاصطناعي بنية حسنة لتمكين الموظفين والشركات ، والتأثير على العملاء والمجتمع بشكل عادل. المجتمع - تمكين الشركات من بناء الثقة وتوسيع نطاق الذكاء الاصطناعي بثقة. . "

"أعتقد أن الأمر يتعلق حقًا بـ [عائد الاستثمار] لعائد الاستثمار في منظمة العفو الدولية المسؤولة - عائد استثمار RAI" ، قالت. "لا تركز الشركات على الإيجابيات - أو عائد الاستثمار لذلك. أعتقد أننا بحاجة إلى تحويل المحادثة من أحد المقاييس الناعمة إلى عائد الاستثمار الحقيقي للثقة وعائد الاستثمار للاستثمار الحقيقي في الذكاء الاصطناعي المسؤول. ثانيًا ، أضافت ، تحتاج المنظمات إلى إظهار مسار [تنفيذ] الذكاء الاصطناعي المسؤول. حدث

رأس منخفض / لا يوجد كود

تعرف على كيفية إنشاء البرامج ذات التعليمات البرمجية المنخفضة وقياسها وإدارتها بطريقة سهلة تحقق النجاح للجميع في التاسع من تشرين الثاني (نوفمبر). اشترك للحصول على بطاقتك المجانية اليوم. سجل هنا الموازنة بين المخاطر والثقة والحوكمة

كما أن البشر لديهم غريزة نفسية للقتال أو الهروب ، أوضحت سينغ أنها لاحظت ظاهرة مماثلة تحدث مع تبني الشركات للذكاء الاصطناعي: التوازن بين المخاطرة والثقة.

"عندما أفكر في الذكاء الاصطناعي ، فهو حرفياً مخاطرة أو ثقة" ، قالت ، مضيفة أن قادة الأعمال اليوم يشددون على الامتثال حتى لا يكونوا على رادار مخاطر أي شخص.

"أعتقد أن هذه عقلية خطيرة جدًا للشركات ، لا سيما أنها تدمج التعلم الآلي بشكل متزايد في عملياتها ،" قالت. "ما أطلبه من هذا المجتمع هو نوع من الرهان على أنفسهم وعلى الذكاء الاصطناعي حتى يتمكنوا من فهم ما يمكن أن تجلبه الثقة من خلال التصميم لمنظماتهم."

يعمل سينغ في اللجنة الاستشارية الوطنية للذكاء الاصطناعي (NAIAC) التي تقدم المشورة للرئيس بايدن بشأن اللوائح والسياسات القادمة. أسست Credo AI في أوائل عام 2020 عندما لاحظت أثناء عملها على منتجات الذكاء الاصطناعي لشركة Qualcomm و Microsoft أن محادثات الحوكمة غالبًا ما تحدث بعد فوات الأوان في اللعبة.

"أعتقد أن هناك فكرة خاطئة مفادها أنه إذا أضفت فحوصات مخاطر الامتثال للحوكمة هذه في وقت سابق من اللعبة ، فسيؤدي ذلك فقط إلى إبطاء تقنيتنا" ، قالت. "ما بدأنا نراه هو أن هناك بالفعل فائدة إضافية - ميزة لم تكن الأنظمة تعمل فيها بشكل أفضل فحسب ، بل كانت تلك الأنظمة تبني الثقة على نطاق واسع."

تحت الغطاء

لدى Credo AI عرضان: الأول هو أداة البرمجيات كخدمة (SaaS) للسحابة التي تعمل مع AWS و Azure. أخرى...

كيف يخلق الذكاء الاصطناعي المسؤول عائد استثمار قابل للقياس

انضم إلينا في 9 تشرين الثاني (نوفمبر) لتتعلم كيفية الابتكار واكتساب الكفاءات بنجاح من خلال تحسين وتوسيع نطاق المطورين المواطنين في مؤتمر Low-Code / No-Code Summit. سجل هنا.

حتى في خضم الركود الاقتصادي ، يستمر اعتماد الذكاء الاصطناعي (AI) في الشركات حول العالم في الازدياد. على سبيل المثال ، يُظهر مؤشر اعتماد الذكاء الاصطناعي لعام 2022 الذي أصدرته شركة IBM مؤخرًا أن معدل اعتماد الذكاء الاصطناعي يبلغ حوالي 35٪ ، بزيادة أربع نقاط مئوية عن العام الماضي. ووجدت أيضًا أنه على الرغم من معدلات التبني المتزايدة ، تعترف 74٪ من الشركات بأنها لم تتخذ أي خطوات لضمان أن يكون الذكاء الاصطناعي لديها خاضعًا للمساءلة وغير متحيز.

السؤال هو ، لماذا لا؟

تقول نافرينا سينغ ، الرئيس التنفيذي ومؤسس شركة Credo AI ومقرها بالو ألتو ، والتي أعلنت ما تدعي أنها أول منصة حوكمة مسؤولة للذكاء الاصطناعي في أكتوبر 2021 ، إن السبب هو أن الشركات منهكة بسبب الكيفية التي تجري بها المحادثات حول موضوع المسؤولية الذكاء الاصطناعي - وإشراك المزيد من الأشخاص يبدأ بتغيير المحادثة حوله. في حين أن تعريفات الذكاء الاصطناعي المسؤول تختلف ، تصفها Accenture بأنها "ممارسة تصميم وتطوير ونشر الذكاء الاصطناعي بنية حسنة لتمكين الموظفين والشركات ، والتأثير على العملاء والمجتمع بشكل عادل. المجتمع - تمكين الشركات من بناء الثقة وتوسيع نطاق الذكاء الاصطناعي بثقة. . "

"أعتقد أن الأمر يتعلق حقًا بـ [عائد الاستثمار] لعائد الاستثمار في منظمة العفو الدولية المسؤولة - عائد استثمار RAI" ، قالت. "لا تركز الشركات على الإيجابيات - أو عائد الاستثمار لذلك. أعتقد أننا بحاجة إلى تحويل المحادثة من أحد المقاييس الناعمة إلى عائد الاستثمار الحقيقي للثقة وعائد الاستثمار للاستثمار الحقيقي في الذكاء الاصطناعي المسؤول. ثانيًا ، أضافت ، تحتاج المنظمات إلى إظهار مسار [تنفيذ] الذكاء الاصطناعي المسؤول. حدث

رأس منخفض / لا يوجد كود

تعرف على كيفية إنشاء البرامج ذات التعليمات البرمجية المنخفضة وقياسها وإدارتها بطريقة سهلة تحقق النجاح للجميع في التاسع من تشرين الثاني (نوفمبر). اشترك للحصول على بطاقتك المجانية اليوم. سجل هنا الموازنة بين المخاطر والثقة والحوكمة

كما أن البشر لديهم غريزة نفسية للقتال أو الهروب ، أوضحت سينغ أنها لاحظت ظاهرة مماثلة تحدث مع تبني الشركات للذكاء الاصطناعي: التوازن بين المخاطرة والثقة.

"عندما أفكر في الذكاء الاصطناعي ، فهو حرفياً مخاطرة أو ثقة" ، قالت ، مضيفة أن قادة الأعمال اليوم يشددون على الامتثال حتى لا يكونوا على رادار مخاطر أي شخص.

"أعتقد أن هذه عقلية خطيرة جدًا للشركات ، لا سيما أنها تدمج التعلم الآلي بشكل متزايد في عملياتها ،" قالت. "ما أطلبه من هذا المجتمع هو نوع من الرهان على أنفسهم وعلى الذكاء الاصطناعي حتى يتمكنوا من فهم ما يمكن أن تجلبه الثقة من خلال التصميم لمنظماتهم."

يعمل سينغ في اللجنة الاستشارية الوطنية للذكاء الاصطناعي (NAIAC) التي تقدم المشورة للرئيس بايدن بشأن اللوائح والسياسات القادمة. أسست Credo AI في أوائل عام 2020 عندما لاحظت أثناء عملها على منتجات الذكاء الاصطناعي لشركة Qualcomm و Microsoft أن محادثات الحوكمة غالبًا ما تحدث بعد فوات الأوان في اللعبة.

"أعتقد أن هناك فكرة خاطئة مفادها أنه إذا أضفت فحوصات مخاطر الامتثال للحوكمة هذه في وقت سابق من اللعبة ، فسيؤدي ذلك فقط إلى إبطاء تقنيتنا" ، قالت. "ما بدأنا نراه هو أن هناك بالفعل فائدة إضافية - ميزة لم تكن الأنظمة تعمل فيها بشكل أفضل فحسب ، بل كانت تلك الأنظمة تبني الثقة على نطاق واسع."

تحت الغطاء

لدى Credo AI عرضان: الأول هو أداة البرمجيات كخدمة (SaaS) للسحابة التي تعمل مع AWS و Azure. أخرى...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow