الفروق الدقيقة في أخلاقيات الذكاء الاصطناعي الصوتي وما يجب على الشركات فعله

تعرف على كيفية قيام مؤسستك بإنشاء تطبيقات لأتمتة المهام واكتساب الكفاءات باستخدام أدوات التعليمات البرمجية المنخفضة / بدون تعليمات برمجية يوم 9 نوفمبر في مؤتمر Virtual Low-Code / No-Code Summit. سجل هنا.

في أوائل عام 2016 ، أعلنت Microsoft عن Tay ، وهو روبوت محادثة يعمل بالذكاء الاصطناعي يمكنه التحدث والتعلم من مستخدمين عشوائيين على الإنترنت. في غضون 24 ساعة ، بدأ الروبوت في إطلاق تصريحات عنصرية وكارهة للنساء ، على ما يبدو دون استفزاز. قام الفريق بفصل Tay ، مدركًا أن أخلاقيات إطلاق العنان لبرنامج chatbot على الإنترنت لم يتم استكشافها في أحسن الأحوال.

الأسئلة الحقيقية هي ما إذا كان الذكاء الاصطناعي المصمم للتفاعل البشري العشوائي أمرًا أخلاقيًا وما إذا كان يمكن ترميز الذكاء الاصطناعي للبقاء ضمن الحدود. يصبح هذا الأمر أكثر أهمية مع الذكاء الاصطناعي الصوتي ، الذي تستخدمه الشركات للتواصل تلقائيًا وبشكل مباشر مع العملاء.

لنأخذ لحظة لمناقشة ما الذي يجعل الذكاء الاصطناعي أخلاقيًا أو غير أخلاقي وكيف يمكن للشركات دمج الذكاء الاصطناعي في أدوارها التي تواجه العملاء بطريقة أخلاقية.

ما الذي يجعل الذكاء الاصطناعي غير أخلاقي؟

من المفترض أن يكون الذكاء الاصطناعي محايدًا. تدخل المعلومات في الصندوق الأسود - نمط - وتعود بدرجة معينة من المعالجة. في مثال تاي ، أنشأ الباحثون نموذجهم عن طريق تغذية الذكاء الاصطناعي بكمية هائلة من معلومات المحادثة المتأثرة بالتفاعل البشري. النتيجة؟ نموذج غير أخلاقي يؤذي ولا يساعد.

حدث

رأس منخفض / لا يوجد كود

انضم إلى كبار القادة اليوم في قمة Code Low / No-Code تقريبًا في 9 نوفمبر. اشترك للحصول على بطاقتك المجانية اليوم. سجل هنا

ماذا يحدث عندما يتلقى الذكاء الاصطناعي بيانات الدوائر التلفزيونية المغلقة؟ معلومات شخصية؟ الصور والفن؟ ماذا يخرج الجانب الآخر؟

تتمثل العوامل الثلاثة الرئيسية المساهمة في المعضلات الأخلاقية في الذكاء الاصطناعي في الاستخدام غير الأخلاقي ومخاوف خصوصية البيانات وتحيزات النظام.

مع تقدم التكنولوجيا ، تظهر نماذج وأساليب جديدة للذكاء الاصطناعي يوميًا ويتزايد استخدامها. ينشر الباحثون والشركات النماذج والأساليب بشكل عشوائي تقريبًا ؛ كثير منها غير مفهومة أو منظمة بشكل جيد. يؤدي هذا غالبًا إلى نتائج غير أخلاقية ، حتى عندما تكون الأنظمة الأساسية قد قللت من التحيز.

تنشأ مشكلات خصوصية البيانات لأن نماذج الذكاء الاصطناعي يتم إنشاؤها وتدريبها على البيانات الواردة مباشرة من المستخدمين. في كثير من الحالات ، يصبح العملاء عن غير قصد موضوع اختبار في واحدة من أكبر تجارب الذكاء الاصطناعي غير المنظمة في التاريخ. كلماتك وصورك والقياسات الحيوية وحتى وسائل التواصل الاجتماعي هي لعبة عادلة. لكن هل يجب أن يكونوا كذلك؟

أخيرًا ، بفضل Tay وأمثلة أخرى ، نعلم أن أنظمة الذكاء الاصطناعي متحيزة. مثل أي إبداع ، ما تضعه هو ما تحصل عليه منه.

ظهر أحد أبرز الأمثلة على التحيز في تجربة أجريت عام 2003 والتي وجدت أن الباحثين استخدموا رسائل البريد الإلكتروني من عدد كبير من وثائق إنرون لتدريب الذكاء الاصطناعي على المحادثة خلال عقود. رأى الذكاء الاصطناعي المدربين العالم من منظور تاجر طاقة سقط في هيوستن. كم منا قد يقول أن هذه الرسائل الإلكترونية ستمثل وجهة نظر لدينا ؟

الأخلاق في Voice AI

يشترك الذكاء الاصطناعي الصوتي في نفس الاهتمامات الأخلاقية الأساسية مثل الذكاء الاصطناعي بشكل عام ، ولكن نظرًا لأن الصوت يحاكي عن كثب كلام الإنسان وخبراته ، فهناك خطر أكبر من التلاعب والتحريف. بالإضافة إلى ذلك ، نميل إلى الوثوق بالأشياء بصوت ، بما في ذلك واجهات سهلة الاستخدام مثل Alexa و Siri.

من المحتمل جدًا أيضًا أن يتفاعل Voice AI مع عميل حقيقي في الوقت الفعلي. بمعنى آخر ، الذكاء الاصطناعي الصوتي هم ممثلون لعملك. ومثل الممثلين البشريين ، فأنت تريد التأكد من أن الذكاء الاصطناعي الخاص بك مدرب ويتصرف وفقًا لقيم الشركة وقواعد السلوك المهنية.

يجب ألا يعامل الوكلاء البشريون (وأنظمة الذكاء الاصطناعي) المتصلين بشكل مختلف لأسباب لا تتعلق بعضوية خدمتهم. ولكن اعتمادًا على مجموعة البيانات ، قد لا يوفر النظام تجربة متسقة. على سبيل المثال ، قد يؤدي المزيد من الرجال الذين يتصلون بالمركز إلى تصنيف جنس ...

الفروق الدقيقة في أخلاقيات الذكاء الاصطناعي الصوتي وما يجب على الشركات فعله

تعرف على كيفية قيام مؤسستك بإنشاء تطبيقات لأتمتة المهام واكتساب الكفاءات باستخدام أدوات التعليمات البرمجية المنخفضة / بدون تعليمات برمجية يوم 9 نوفمبر في مؤتمر Virtual Low-Code / No-Code Summit. سجل هنا.

في أوائل عام 2016 ، أعلنت Microsoft عن Tay ، وهو روبوت محادثة يعمل بالذكاء الاصطناعي يمكنه التحدث والتعلم من مستخدمين عشوائيين على الإنترنت. في غضون 24 ساعة ، بدأ الروبوت في إطلاق تصريحات عنصرية وكارهة للنساء ، على ما يبدو دون استفزاز. قام الفريق بفصل Tay ، مدركًا أن أخلاقيات إطلاق العنان لبرنامج chatbot على الإنترنت لم يتم استكشافها في أحسن الأحوال.

الأسئلة الحقيقية هي ما إذا كان الذكاء الاصطناعي المصمم للتفاعل البشري العشوائي أمرًا أخلاقيًا وما إذا كان يمكن ترميز الذكاء الاصطناعي للبقاء ضمن الحدود. يصبح هذا الأمر أكثر أهمية مع الذكاء الاصطناعي الصوتي ، الذي تستخدمه الشركات للتواصل تلقائيًا وبشكل مباشر مع العملاء.

لنأخذ لحظة لمناقشة ما الذي يجعل الذكاء الاصطناعي أخلاقيًا أو غير أخلاقي وكيف يمكن للشركات دمج الذكاء الاصطناعي في أدوارها التي تواجه العملاء بطريقة أخلاقية.

ما الذي يجعل الذكاء الاصطناعي غير أخلاقي؟

من المفترض أن يكون الذكاء الاصطناعي محايدًا. تدخل المعلومات في الصندوق الأسود - نمط - وتعود بدرجة معينة من المعالجة. في مثال تاي ، أنشأ الباحثون نموذجهم عن طريق تغذية الذكاء الاصطناعي بكمية هائلة من معلومات المحادثة المتأثرة بالتفاعل البشري. النتيجة؟ نموذج غير أخلاقي يؤذي ولا يساعد.

حدث

رأس منخفض / لا يوجد كود

انضم إلى كبار القادة اليوم في قمة Code Low / No-Code تقريبًا في 9 نوفمبر. اشترك للحصول على بطاقتك المجانية اليوم. سجل هنا

ماذا يحدث عندما يتلقى الذكاء الاصطناعي بيانات الدوائر التلفزيونية المغلقة؟ معلومات شخصية؟ الصور والفن؟ ماذا يخرج الجانب الآخر؟

تتمثل العوامل الثلاثة الرئيسية المساهمة في المعضلات الأخلاقية في الذكاء الاصطناعي في الاستخدام غير الأخلاقي ومخاوف خصوصية البيانات وتحيزات النظام.

مع تقدم التكنولوجيا ، تظهر نماذج وأساليب جديدة للذكاء الاصطناعي يوميًا ويتزايد استخدامها. ينشر الباحثون والشركات النماذج والأساليب بشكل عشوائي تقريبًا ؛ كثير منها غير مفهومة أو منظمة بشكل جيد. يؤدي هذا غالبًا إلى نتائج غير أخلاقية ، حتى عندما تكون الأنظمة الأساسية قد قللت من التحيز.

تنشأ مشكلات خصوصية البيانات لأن نماذج الذكاء الاصطناعي يتم إنشاؤها وتدريبها على البيانات الواردة مباشرة من المستخدمين. في كثير من الحالات ، يصبح العملاء عن غير قصد موضوع اختبار في واحدة من أكبر تجارب الذكاء الاصطناعي غير المنظمة في التاريخ. كلماتك وصورك والقياسات الحيوية وحتى وسائل التواصل الاجتماعي هي لعبة عادلة. لكن هل يجب أن يكونوا كذلك؟

أخيرًا ، بفضل Tay وأمثلة أخرى ، نعلم أن أنظمة الذكاء الاصطناعي متحيزة. مثل أي إبداع ، ما تضعه هو ما تحصل عليه منه.

ظهر أحد أبرز الأمثلة على التحيز في تجربة أجريت عام 2003 والتي وجدت أن الباحثين استخدموا رسائل البريد الإلكتروني من عدد كبير من وثائق إنرون لتدريب الذكاء الاصطناعي على المحادثة خلال عقود. رأى الذكاء الاصطناعي المدربين العالم من منظور تاجر طاقة سقط في هيوستن. كم منا قد يقول أن هذه الرسائل الإلكترونية ستمثل وجهة نظر لدينا ؟

الأخلاق في Voice AI

يشترك الذكاء الاصطناعي الصوتي في نفس الاهتمامات الأخلاقية الأساسية مثل الذكاء الاصطناعي بشكل عام ، ولكن نظرًا لأن الصوت يحاكي عن كثب كلام الإنسان وخبراته ، فهناك خطر أكبر من التلاعب والتحريف. بالإضافة إلى ذلك ، نميل إلى الوثوق بالأشياء بصوت ، بما في ذلك واجهات سهلة الاستخدام مثل Alexa و Siri.

من المحتمل جدًا أيضًا أن يتفاعل Voice AI مع عميل حقيقي في الوقت الفعلي. بمعنى آخر ، الذكاء الاصطناعي الصوتي هم ممثلون لعملك. ومثل الممثلين البشريين ، فأنت تريد التأكد من أن الذكاء الاصطناعي الخاص بك مدرب ويتصرف وفقًا لقيم الشركة وقواعد السلوك المهنية.

يجب ألا يعامل الوكلاء البشريون (وأنظمة الذكاء الاصطناعي) المتصلين بشكل مختلف لأسباب لا تتعلق بعضوية خدمتهم. ولكن اعتمادًا على مجموعة البيانات ، قد لا يوفر النظام تجربة متسقة. على سبيل المثال ، قد يؤدي المزيد من الرجال الذين يتصلون بالمركز إلى تصنيف جنس ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow