مهندس Google Fires الذي يدعي أن الذكاء الاصطناعي لديه واعي

يقول المهندس Blake Lemoine أن نموذج اللغة للشركة له روح. تنفي الشركة ذلك وتقول إنها انتهكت سياساتها الأمنية.

سان فرانسيسكو - طردت Google أحد مهندسيها ، Blake Lemoine ، يوم الجمعة ، بعد أكثر من شهر من رفع مستوى الأخلاقيات مخاوف بشأن الكيفية التي كانت الشركة تختبر بها روبوت محادثة للذكاء الاصطناعي تدعي أنها وصلت إلى مستوى الوعي.

قال المتحدث باسم Google ، كريس باباس ، إن السيد ليموين ، كبير مهندسي البرمجيات في ذكاءه الإصطناعي. إدارة. المنظمة ، "اختارت باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية معلومات المنتج." ، كان السيد Lemoine في إجازة مدفوعة الأجر في يونيو. وأكد السيد ليموين إقالته في رسالة نصية يوم الجمعة ، وقال إنه يلتقي بمحامين للنظر في خياراته. تم الإبلاغ عن الفصل لأول مرة من خلال النشرة الإخبارية لشركة Big Technology.

السيد. تسبب Lemoine في إثارة ضجة الشهر الماضي عندما أخبر صحيفة Washington Post أنه يعتقد أن نموذج لغة Google لتطبيقات الحوار ، أو LaMDA ، حساس - مما أثار مخاوف من أن الذكاء الاصطناعي. كان قريبًا من فيلم خيال علمي بائس ونقاش ساخن حول ما إذا كان برنامج الكمبيوتر يمكن أن يكون له روح حقًا. أدى تعليقه أيضًا إلى ظهور نظريات المؤامرة حول ما إذا كان جزءًا من التستر من قِبل Google.

بالنسبة إلى Google ، كان تعليقًا آخر في سلسلة من الجدل المحلي حول الأخلاق ودور الذكاء الاصطناعي ، وهو مجال تقني راهن عليه مستقبل الشركة.

السيد. تم انتقاد ادعاء Lemoine بأن LaMDA حساس من قبل الشركة والعديد من خبراء الذكاء الاصطناعي الآخرين الذين قالوا إن هذه الأنواع من روبوتات المحادثة - البرامج التي تحاكي محادثة نصية مع إنسان آخر ، غالبًا ما تستخدم لخدمة العملاء - ليست متقدمة بما يكفي لتكون على علم.

"إذا شارك أحد الموظفين مخاوف بشأن عملنا ، كما فعل بليك ، فإننا نحقق فيها بدقة" ، قال السيد باباس. "وجدنا ادعاءات بليك بأن LaMDA واعي بحيث لا أساس لها من الصحة تمامًا وعملنا على توضيح ذلك معه لعدة أشهر."

بالإضافة إلى التعبير عن مخاوفه لوسائل الإعلام ، قال السيد Lemoine في حزيران (يونيو) إنه قدم وثائق إلى سناتور أمريكي ، لم يحدد هويته ، قائلاً إنهم قدموا أدلة على أن Google وتقنيتها متورطة في التمييز الديني.

مهندس Google Fires الذي يدعي أن الذكاء الاصطناعي لديه واعي

يقول المهندس Blake Lemoine أن نموذج اللغة للشركة له روح. تنفي الشركة ذلك وتقول إنها انتهكت سياساتها الأمنية.

سان فرانسيسكو - طردت Google أحد مهندسيها ، Blake Lemoine ، يوم الجمعة ، بعد أكثر من شهر من رفع مستوى الأخلاقيات مخاوف بشأن الكيفية التي كانت الشركة تختبر بها روبوت محادثة للذكاء الاصطناعي تدعي أنها وصلت إلى مستوى الوعي.

قال المتحدث باسم Google ، كريس باباس ، إن السيد ليموين ، كبير مهندسي البرمجيات في ذكاءه الإصطناعي. إدارة. المنظمة ، "اختارت باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية معلومات المنتج." ، كان السيد Lemoine في إجازة مدفوعة الأجر في يونيو. وأكد السيد ليموين إقالته في رسالة نصية يوم الجمعة ، وقال إنه يلتقي بمحامين للنظر في خياراته. تم الإبلاغ عن الفصل لأول مرة من خلال النشرة الإخبارية لشركة Big Technology.

السيد. تسبب Lemoine في إثارة ضجة الشهر الماضي عندما أخبر صحيفة Washington Post أنه يعتقد أن نموذج لغة Google لتطبيقات الحوار ، أو LaMDA ، حساس - مما أثار مخاوف من أن الذكاء الاصطناعي. كان قريبًا من فيلم خيال علمي بائس ونقاش ساخن حول ما إذا كان برنامج الكمبيوتر يمكن أن يكون له روح حقًا. أدى تعليقه أيضًا إلى ظهور نظريات المؤامرة حول ما إذا كان جزءًا من التستر من قِبل Google.

بالنسبة إلى Google ، كان تعليقًا آخر في سلسلة من الجدل المحلي حول الأخلاق ودور الذكاء الاصطناعي ، وهو مجال تقني راهن عليه مستقبل الشركة.

السيد. تم انتقاد ادعاء Lemoine بأن LaMDA حساس من قبل الشركة والعديد من خبراء الذكاء الاصطناعي الآخرين الذين قالوا إن هذه الأنواع من روبوتات المحادثة - البرامج التي تحاكي محادثة نصية مع إنسان آخر ، غالبًا ما تستخدم لخدمة العملاء - ليست متقدمة بما يكفي لتكون على علم.

"إذا شارك أحد الموظفين مخاوف بشأن عملنا ، كما فعل بليك ، فإننا نحقق فيها بدقة" ، قال السيد باباس. "وجدنا ادعاءات بليك بأن LaMDA واعي بحيث لا أساس لها من الصحة تمامًا وعملنا على توضيح ذلك معه لعدة أشهر."

بالإضافة إلى التعبير عن مخاوفه لوسائل الإعلام ، قال السيد Lemoine في حزيران (يونيو) إنه قدم وثائق إلى سناتور أمريكي ، لم يحدد هويته ، قائلاً إنهم قدموا أدلة على أن Google وتقنيتها متورطة في التمييز الديني.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow