لا توجد مربعات سوداء: حافظ على مشاركة البشر في الذكاء الاصطناعي

خلال الخمسينيات من القرن الماضي ، ابتكر آلان تورينج تجربة تسمى لعبة التقليد (تسمى الآن اختبار تورينج). في ذلك ، افترض حالة يكون فيها شخص ما - المحقق - في غرفة منفصلة عن غرفة أخرى بها كمبيوتر وشخص آخر. كان الغرض من الاختبار هو أن يطرح المحقق أسئلة على كل من الشخص والكمبيوتر ؛ كان الغرض من الكمبيوتر هو خداع المحقق ليعتقد أنه إنسان. توقع تورينج أن أجهزة الكمبيوتر ستتمكن في النهاية من محاكاة السلوك البشري بنجاح وخداع المحققين بنسبة عالية من الوقت.

لم تتحقق توقعات تورينج بعد ، ويبقى أن نرى ما إذا كانت أجهزة الكمبيوتر ستكون قادرة على اجتياز الاختبار حقًا. ومع ذلك ، فمن العدسة المفيدة أن ترى ديناميكيات كيفية رؤية الناس للقدرات المحتملة للذكاء الاصطناعي ومصدر للسخرية. على الرغم من أن الذكاء الاصطناعي يتمتع بإمكانات مذهلة ، إلا أن له أيضًا قيودًا. اليوم ، من الواضح أنه لا أحد يعرف الأعمال الكاملة للذكاء الاصطناعي الذي نبتكره ، كما أن الافتقار إلى "القابلية للتفسير" ووجود البشر في الحلقة يسبب المشاكل والفرص الضائعة.

مهما كان ما يخبئه المستقبل ، هناك شيء واحد واضح: يجب تضمين عملية صنع القرار البشري في حلقة تشغيل الذكاء الاصطناعي. تؤدي حقيقة أنه "صندوق أسود" إلى قرارات متحيزة تستند إلى خوارزميات منحازة بطبيعتها ، والتي يمكن أن تؤدي بعد ذلك إلى عواقب وخيمة.

لماذا غالبًا ما يكون الذكاء الاصطناعي صندوقًا أسود

هناك تصور عام بأن الناس يعرفون أكثر وأن لديهم سيطرة أكبر على الذكاء الاصطناعي أكثر مما يعرفونه في الواقع. يعتقد الناس أنه نظرًا لأن علماء الكمبيوتر كتبوا الكود وقاموا بتجميعه ، فإن الكود يمكن معرفته والتحكم فيه. ومع ذلك ، ليس هذا هو الحال بالضرورة.

يمكن أن يكون الذكاء الاصطناعي غالبًا صندوقًا أسود ، حيث لا نعرف بالضبط كيف تم بناء النتائج النهائية أو ماذا ستصبح. هذا لأن الكود قد بدأ في الحركة ، وبعد ذلك ، تقريبًا مثل عجلة تتدحرج أسفل التل بزخمها الخاص ، تستمر في التقدم للأمام ، واستيعاب المعلومات ، والتكيف والنمو. النتائج ليست دائمًا متوقعة أو إيجابية بالضرورة.

بالرغم من قوتها ، يمكن أن يكون الذكاء الاصطناعي غير دقيق ولا يمكن التنبؤ به. هناك العديد من حالات فشل الذكاء الاصطناعي ، بما في ذلك حوادث السيارات الخطيرة ، الناتجة عن عدم قدرة الذكاء الاصطناعي على تفسير العالم كما نتوقع. تنشأ العديد من العيوب لأن أصل الكود بشري ، لكن تقدم الكود موجه ذاتيًا ولا يتم إرساءه. بعبارة أخرى ، نعلم من أين بدأت الشفرة ، لكننا لا نعرف بالضبط كيف نمت أو كيف تتقدم. هناك أسئلة جدية حول ما يدور في ذهن الآلة.

الأسئلة تستحق السؤال. حوادث مثل حوادث السيارات لها جوانب سلبية كبيرة ، ولكن الحوادث الأكثر دقة مثل التداول باستخدام فلاش الكمبيوتر تثير تساؤلات حول الخوارزميات. ماذا يعني تشغيل هذه البرامج؟ ما هي تحديات استخدام هذه الآلات وما هي الاحتياطات الواجب اتخاذها؟

يجب أن يكون الذكاء الاصطناعي مفهومًا ويمكن التلاعب به ومعالجته بطريقة تمنح المستخدمين النهائيين التحكم. تبدأ بداية هذه الديناميكية بجعل الذكاء الاصطناعي مفهومًا.

عندما يلزم الضغط على الذكاء الاصطناعي للحصول على مزيد من الإجابات

ليست كل احتياجات الذكاء الاصطناعي متشابهة. على سبيل المثال ، في المواقف منخفضة المخاطر ، مثل التعرف على الصور للاحتياجات غير الحرجة ، قد لا يكون فهم كيفية عمل البرامج ضروريًا. ومع ذلك ، فإن فهم كيفية عمل الكود واستمرار تطويره أمر ضروري في المواقف ذات النتائج المهمة ، بما في ذلك القرارات الطبية أو قرارات التوظيف أو قرارات سلامة السيارات. من المهم معرفة المكان الذي يحتاج فيه التدخل البشري ومتى يكون ضروريًا للدخول والتدخل. أيضًا ، نظرًا لأن الرجال المتعلمين يكتبون في الغالب رمز AI ، وفقًا لمعهد آلان تورينج (بشكل صحيح) ، فهناك ...

لا توجد مربعات سوداء: حافظ على مشاركة البشر في الذكاء الاصطناعي

خلال الخمسينيات من القرن الماضي ، ابتكر آلان تورينج تجربة تسمى لعبة التقليد (تسمى الآن اختبار تورينج). في ذلك ، افترض حالة يكون فيها شخص ما - المحقق - في غرفة منفصلة عن غرفة أخرى بها كمبيوتر وشخص آخر. كان الغرض من الاختبار هو أن يطرح المحقق أسئلة على كل من الشخص والكمبيوتر ؛ كان الغرض من الكمبيوتر هو خداع المحقق ليعتقد أنه إنسان. توقع تورينج أن أجهزة الكمبيوتر ستتمكن في النهاية من محاكاة السلوك البشري بنجاح وخداع المحققين بنسبة عالية من الوقت.

لم تتحقق توقعات تورينج بعد ، ويبقى أن نرى ما إذا كانت أجهزة الكمبيوتر ستكون قادرة على اجتياز الاختبار حقًا. ومع ذلك ، فمن العدسة المفيدة أن ترى ديناميكيات كيفية رؤية الناس للقدرات المحتملة للذكاء الاصطناعي ومصدر للسخرية. على الرغم من أن الذكاء الاصطناعي يتمتع بإمكانات مذهلة ، إلا أن له أيضًا قيودًا. اليوم ، من الواضح أنه لا أحد يعرف الأعمال الكاملة للذكاء الاصطناعي الذي نبتكره ، كما أن الافتقار إلى "القابلية للتفسير" ووجود البشر في الحلقة يسبب المشاكل والفرص الضائعة.

مهما كان ما يخبئه المستقبل ، هناك شيء واحد واضح: يجب تضمين عملية صنع القرار البشري في حلقة تشغيل الذكاء الاصطناعي. تؤدي حقيقة أنه "صندوق أسود" إلى قرارات متحيزة تستند إلى خوارزميات منحازة بطبيعتها ، والتي يمكن أن تؤدي بعد ذلك إلى عواقب وخيمة.

لماذا غالبًا ما يكون الذكاء الاصطناعي صندوقًا أسود

هناك تصور عام بأن الناس يعرفون أكثر وأن لديهم سيطرة أكبر على الذكاء الاصطناعي أكثر مما يعرفونه في الواقع. يعتقد الناس أنه نظرًا لأن علماء الكمبيوتر كتبوا الكود وقاموا بتجميعه ، فإن الكود يمكن معرفته والتحكم فيه. ومع ذلك ، ليس هذا هو الحال بالضرورة.

يمكن أن يكون الذكاء الاصطناعي غالبًا صندوقًا أسود ، حيث لا نعرف بالضبط كيف تم بناء النتائج النهائية أو ماذا ستصبح. هذا لأن الكود قد بدأ في الحركة ، وبعد ذلك ، تقريبًا مثل عجلة تتدحرج أسفل التل بزخمها الخاص ، تستمر في التقدم للأمام ، واستيعاب المعلومات ، والتكيف والنمو. النتائج ليست دائمًا متوقعة أو إيجابية بالضرورة.

بالرغم من قوتها ، يمكن أن يكون الذكاء الاصطناعي غير دقيق ولا يمكن التنبؤ به. هناك العديد من حالات فشل الذكاء الاصطناعي ، بما في ذلك حوادث السيارات الخطيرة ، الناتجة عن عدم قدرة الذكاء الاصطناعي على تفسير العالم كما نتوقع. تنشأ العديد من العيوب لأن أصل الكود بشري ، لكن تقدم الكود موجه ذاتيًا ولا يتم إرساءه. بعبارة أخرى ، نعلم من أين بدأت الشفرة ، لكننا لا نعرف بالضبط كيف نمت أو كيف تتقدم. هناك أسئلة جدية حول ما يدور في ذهن الآلة.

الأسئلة تستحق السؤال. حوادث مثل حوادث السيارات لها جوانب سلبية كبيرة ، ولكن الحوادث الأكثر دقة مثل التداول باستخدام فلاش الكمبيوتر تثير تساؤلات حول الخوارزميات. ماذا يعني تشغيل هذه البرامج؟ ما هي تحديات استخدام هذه الآلات وما هي الاحتياطات الواجب اتخاذها؟

يجب أن يكون الذكاء الاصطناعي مفهومًا ويمكن التلاعب به ومعالجته بطريقة تمنح المستخدمين النهائيين التحكم. تبدأ بداية هذه الديناميكية بجعل الذكاء الاصطناعي مفهومًا.

عندما يلزم الضغط على الذكاء الاصطناعي للحصول على مزيد من الإجابات

ليست كل احتياجات الذكاء الاصطناعي متشابهة. على سبيل المثال ، في المواقف منخفضة المخاطر ، مثل التعرف على الصور للاحتياجات غير الحرجة ، قد لا يكون فهم كيفية عمل البرامج ضروريًا. ومع ذلك ، فإن فهم كيفية عمل الكود واستمرار تطويره أمر ضروري في المواقف ذات النتائج المهمة ، بما في ذلك القرارات الطبية أو قرارات التوظيف أو قرارات سلامة السيارات. من المهم معرفة المكان الذي يحتاج فيه التدخل البشري ومتى يكون ضروريًا للدخول والتدخل. أيضًا ، نظرًا لأن الرجال المتعلمين يكتبون في الغالب رمز AI ، وفقًا لمعهد آلان تورينج (بشكل صحيح) ، فهناك ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow