لا توجد مربعات سوداء: حافظ على مشاركة البشر في الذكاء الاصطناعي
خلال الخمسينيات من القرن الماضي ، ابتكر آلان تورينج تجربة تسمى لعبة التقليد (تسمى الآن اختبار تورينج). في ذلك ، افترض حالة يكون فيها شخص ما - المحقق - في غرفة منفصلة عن غرفة أخرى بها كمبيوتر وشخص آخر. كان الغرض من الاختبار هو أن يطرح المحقق أسئلة على كل من الشخص والكمبيوتر ؛ كان الغرض من الكمبيوتر هو خداع المحقق ليعتقد أنه إنسان. توقع تورينج أن أجهزة الكمبيوتر ستتمكن في النهاية من محاكاة السلوك البشري بنجاح وخداع المحققين بنسبة عالية من الوقت. p>
لم تتحقق توقعات تورينج بعد ، ويبقى أن نرى ما إذا كانت أجهزة الكمبيوتر ستكون قادرة على اجتياز الاختبار حقًا. ومع ذلك ، فمن العدسة المفيدة أن ترى ديناميكيات كيفية رؤية الناس للقدرات المحتملة للذكاء الاصطناعي ومصدر للسخرية. على الرغم من أن الذكاء الاصطناعي يتمتع بإمكانات مذهلة ، إلا أن له أيضًا قيودًا. اليوم ، من الواضح أنه لا أحد يعرف الأعمال الكاملة للذكاء الاصطناعي الذي نبتكره ، كما أن الافتقار إلى "القابلية للتفسير" ووجود البشر في الحلقة يسبب المشاكل والفرص الضائعة. p>
مهما كان ما يخبئه المستقبل ، هناك شيء واحد واضح: يجب تضمين عملية صنع القرار البشري في حلقة تشغيل الذكاء الاصطناعي. تؤدي حقيقة أنه "صندوق أسود" إلى قرارات متحيزة تستند إلى خوارزميات منحازة بطبيعتها ، والتي يمكن أن تؤدي بعد ذلك إلى عواقب وخيمة. p>
لماذا غالبًا ما يكون الذكاء الاصطناعي صندوقًا أسود p>
هناك تصور عام بأن الناس يعرفون أكثر وأن لديهم سيطرة أكبر على الذكاء الاصطناعي أكثر مما يعرفونه في الواقع. يعتقد الناس أنه نظرًا لأن علماء الكمبيوتر كتبوا الكود وقاموا بتجميعه ، فإن الكود يمكن معرفته والتحكم فيه. ومع ذلك ، ليس هذا هو الحال بالضرورة. p>
يمكن أن يكون الذكاء الاصطناعي غالبًا صندوقًا أسود ، حيث لا نعرف بالضبط كيف تم بناء النتائج النهائية أو ماذا ستصبح. هذا لأن الكود قد بدأ في الحركة ، وبعد ذلك ، تقريبًا مثل عجلة تتدحرج أسفل التل بزخمها الخاص ، تستمر في التقدم للأمام ، واستيعاب المعلومات ، والتكيف والنمو. النتائج ليست دائمًا متوقعة أو إيجابية بالضرورة. p>
بالرغم من قوتها ، يمكن أن يكون الذكاء الاصطناعي غير دقيق ولا يمكن التنبؤ به. هناك العديد من حالات فشل الذكاء الاصطناعي ، بما في ذلك حوادث السيارات الخطيرة ، الناتجة عن عدم قدرة الذكاء الاصطناعي على تفسير العالم كما نتوقع. تنشأ العديد من العيوب لأن أصل الكود بشري ، لكن تقدم الكود موجه ذاتيًا ولا يتم إرساءه. بعبارة أخرى ، نعلم من أين بدأت الشفرة ، لكننا لا نعرف بالضبط كيف نمت أو كيف تتقدم. هناك أسئلة جدية حول ما يدور في ذهن الآلة. p>
الأسئلة تستحق السؤال. حوادث مثل حوادث السيارات لها جوانب سلبية كبيرة ، ولكن الحوادث الأكثر دقة مثل التداول باستخدام فلاش الكمبيوتر تثير تساؤلات حول الخوارزميات. ماذا يعني تشغيل هذه البرامج؟ ما هي تحديات استخدام هذه الآلات وما هي الاحتياطات الواجب اتخاذها؟ p>
يجب أن يكون الذكاء الاصطناعي مفهومًا ويمكن التلاعب به ومعالجته بطريقة تمنح المستخدمين النهائيين التحكم. تبدأ بداية هذه الديناميكية بجعل الذكاء الاصطناعي مفهومًا. p>
عندما يلزم الضغط على الذكاء الاصطناعي للحصول على مزيد من الإجابات p>
ليست كل احتياجات الذكاء الاصطناعي متشابهة. على سبيل المثال ، في المواقف منخفضة المخاطر ، مثل التعرف على الصور للاحتياجات غير الحرجة ، قد لا يكون فهم كيفية عمل البرامج ضروريًا. ومع ذلك ، فإن فهم كيفية عمل الكود واستمرار تطويره أمر ضروري في المواقف ذات النتائج المهمة ، بما في ذلك القرارات الطبية أو قرارات التوظيف أو قرارات سلامة السيارات. من المهم معرفة المكان الذي يحتاج فيه التدخل البشري ومتى يكون ضروريًا للدخول والتدخل. أيضًا ، نظرًا لأن الرجال المتعلمين يكتبون في الغالب رمز AI ، وفقًا لمعهد آلان تورينج (بشكل صحيح) ، فهناك ...
![لا توجد مربعات سوداء: حافظ على مشاركة البشر في الذكاء الاصطناعي](https://imageio.forbes.com/specials-images/imageserve/63c0866fb9ef9d46c4964a41/0x0.jpg?width=960#)
خلال الخمسينيات من القرن الماضي ، ابتكر آلان تورينج تجربة تسمى لعبة التقليد (تسمى الآن اختبار تورينج). في ذلك ، افترض حالة يكون فيها شخص ما - المحقق - في غرفة منفصلة عن غرفة أخرى بها كمبيوتر وشخص آخر. كان الغرض من الاختبار هو أن يطرح المحقق أسئلة على كل من الشخص والكمبيوتر ؛ كان الغرض من الكمبيوتر هو خداع المحقق ليعتقد أنه إنسان. توقع تورينج أن أجهزة الكمبيوتر ستتمكن في النهاية من محاكاة السلوك البشري بنجاح وخداع المحققين بنسبة عالية من الوقت. p>
لم تتحقق توقعات تورينج بعد ، ويبقى أن نرى ما إذا كانت أجهزة الكمبيوتر ستكون قادرة على اجتياز الاختبار حقًا. ومع ذلك ، فمن العدسة المفيدة أن ترى ديناميكيات كيفية رؤية الناس للقدرات المحتملة للذكاء الاصطناعي ومصدر للسخرية. على الرغم من أن الذكاء الاصطناعي يتمتع بإمكانات مذهلة ، إلا أن له أيضًا قيودًا. اليوم ، من الواضح أنه لا أحد يعرف الأعمال الكاملة للذكاء الاصطناعي الذي نبتكره ، كما أن الافتقار إلى "القابلية للتفسير" ووجود البشر في الحلقة يسبب المشاكل والفرص الضائعة. p>
مهما كان ما يخبئه المستقبل ، هناك شيء واحد واضح: يجب تضمين عملية صنع القرار البشري في حلقة تشغيل الذكاء الاصطناعي. تؤدي حقيقة أنه "صندوق أسود" إلى قرارات متحيزة تستند إلى خوارزميات منحازة بطبيعتها ، والتي يمكن أن تؤدي بعد ذلك إلى عواقب وخيمة. p>
لماذا غالبًا ما يكون الذكاء الاصطناعي صندوقًا أسود p>
هناك تصور عام بأن الناس يعرفون أكثر وأن لديهم سيطرة أكبر على الذكاء الاصطناعي أكثر مما يعرفونه في الواقع. يعتقد الناس أنه نظرًا لأن علماء الكمبيوتر كتبوا الكود وقاموا بتجميعه ، فإن الكود يمكن معرفته والتحكم فيه. ومع ذلك ، ليس هذا هو الحال بالضرورة. p>
يمكن أن يكون الذكاء الاصطناعي غالبًا صندوقًا أسود ، حيث لا نعرف بالضبط كيف تم بناء النتائج النهائية أو ماذا ستصبح. هذا لأن الكود قد بدأ في الحركة ، وبعد ذلك ، تقريبًا مثل عجلة تتدحرج أسفل التل بزخمها الخاص ، تستمر في التقدم للأمام ، واستيعاب المعلومات ، والتكيف والنمو. النتائج ليست دائمًا متوقعة أو إيجابية بالضرورة. p>
بالرغم من قوتها ، يمكن أن يكون الذكاء الاصطناعي غير دقيق ولا يمكن التنبؤ به. هناك العديد من حالات فشل الذكاء الاصطناعي ، بما في ذلك حوادث السيارات الخطيرة ، الناتجة عن عدم قدرة الذكاء الاصطناعي على تفسير العالم كما نتوقع. تنشأ العديد من العيوب لأن أصل الكود بشري ، لكن تقدم الكود موجه ذاتيًا ولا يتم إرساءه. بعبارة أخرى ، نعلم من أين بدأت الشفرة ، لكننا لا نعرف بالضبط كيف نمت أو كيف تتقدم. هناك أسئلة جدية حول ما يدور في ذهن الآلة. p>
الأسئلة تستحق السؤال. حوادث مثل حوادث السيارات لها جوانب سلبية كبيرة ، ولكن الحوادث الأكثر دقة مثل التداول باستخدام فلاش الكمبيوتر تثير تساؤلات حول الخوارزميات. ماذا يعني تشغيل هذه البرامج؟ ما هي تحديات استخدام هذه الآلات وما هي الاحتياطات الواجب اتخاذها؟ p>
يجب أن يكون الذكاء الاصطناعي مفهومًا ويمكن التلاعب به ومعالجته بطريقة تمنح المستخدمين النهائيين التحكم. تبدأ بداية هذه الديناميكية بجعل الذكاء الاصطناعي مفهومًا. p>
عندما يلزم الضغط على الذكاء الاصطناعي للحصول على مزيد من الإجابات p>
ليست كل احتياجات الذكاء الاصطناعي متشابهة. على سبيل المثال ، في المواقف منخفضة المخاطر ، مثل التعرف على الصور للاحتياجات غير الحرجة ، قد لا يكون فهم كيفية عمل البرامج ضروريًا. ومع ذلك ، فإن فهم كيفية عمل الكود واستمرار تطويره أمر ضروري في المواقف ذات النتائج المهمة ، بما في ذلك القرارات الطبية أو قرارات التوظيف أو قرارات سلامة السيارات. من المهم معرفة المكان الذي يحتاج فيه التدخل البشري ومتى يكون ضروريًا للدخول والتدخل. أيضًا ، نظرًا لأن الرجال المتعلمين يكتبون في الغالب رمز AI ، وفقًا لمعهد آلان تورينج (بشكل صحيح) ، فهناك ...
What's Your Reaction?
![like](https://vidianews.com/assets/img/reactions/like.png)
![dislike](https://vidianews.com/assets/img/reactions/dislike.png)
![love](https://vidianews.com/assets/img/reactions/love.png)
![funny](https://vidianews.com/assets/img/reactions/funny.png)
![angry](https://vidianews.com/assets/img/reactions/angry.png)
![sad](https://vidianews.com/assets/img/reactions/sad.png)
![wow](https://vidianews.com/assets/img/reactions/wow.png)