فشل Facebook في إيقاف إعلانات الاختبار من تهديد العاملين في الانتخابات النصفية

قد لا تكون جهود Meta لتحقيق نزاهة الانتخابات على Facebook قوية كما يُزعم. كشف باحثون من برنامج الأمن السيبراني للديمقراطية التابع لجامعة نيويورك ومنظمة المراقبة العالمية جلوبال ويتنس أن نظام التعديل التلقائي في فيسبوك وافق على 15 من 20 إعلانًا تجريبيًا يهدد العاملين في الانتخابات قبل الانتخابات النصفية في الولايات المتحدة الشهر الماضي. استندت التجارب إلى تهديدات حقيقية واستخدمت لغة "واضحة" كان من المحتمل أن يكون من السهل فهمها. في بعض الحالات ، سمحت الشبكة الاجتماعية بالإعلانات بعد إجراء التغييرات الخاطئة. كان على فريق البحث فقط إزالة الألفاظ النابية وتصحيح الإملاء للتغلب على حالات الرفض الأولية.

اختبر المحققون أيضًا TikTok و YouTube. أوقفت كلتا الخدمتين جميع التهديدات وحظرت حسابات الاختبار. في التجربة السابقة قبل الانتخابات في البرازيل ، سمح Facebook و YouTube بتقديم جميع المعلومات الانتخابية الكاذبة في المرور الأول ، على الرغم من رفض Facebook ما يصل إلى 50 ٪ في عمليات إرسال المتابعة.

في بيان لموقع Engadget ، قال متحدث باسم الإعلانات إن الإعلانات كانت "عينة صغيرة" لا تمثل ما يراه المستخدمون على منصات مثل Facebook. جادلت الشركة بأن قدرتها على مواجهة التهديدات الانتخابية "تفوق" قدرة منافسيها ، لكنها دعمت هذا الادعاء فقط من خلال الإشارة إلى عروض الأسعار التي توضح مقدار الموارد المخصصة لوقف التهديدات العنيفة ، وليس كفاءة هذه الموارد.

لن تتسبب الإعلانات في أي ضرر ، حيث كان لدى المجربين القدرة على إزالتها قبل نشرها. ومع ذلك ، فإن الحادث يسلط الضوء على حدود اعتماد Meta الجزئي على اعتدال الذكاء الاصطناعي لمكافحة المعلومات المضللة وخطاب الكراهية. في حين أن النظام يساعد المشرفين البشر على إدارة كميات كبيرة من المحتوى ، فإنه يخاطر أيضًا بإعطاء الضوء الأخضر للإعلانات التي قد لا يتم اكتشافها حتى تكون مرئية للجمهور. لن يؤدي ذلك إلى ازدهار التهديدات فحسب ، بل يؤدي إلى فرض غرامات من المملكة المتحدة والدول الأخرى التي تخطط لمعاقبة الشركات التي لا تزيل المحتوى المتطرف بسرعة.

يتم تحديد جميع المنتجات الموصى بها بواسطة Engadget بواسطة فريق التحرير لدينا ، بشكل مستقل عن شركتنا الأم. تتضمن بعض قصصنا روابط تابعة. إذا اشتريت شيئًا من خلال أحد هذه الروابط ، فقد نربح عمولة تابعة. جميع الأسعار صحيحة وقت النشر.

فشل Facebook في إيقاف إعلانات الاختبار من تهديد العاملين في الانتخابات النصفية

قد لا تكون جهود Meta لتحقيق نزاهة الانتخابات على Facebook قوية كما يُزعم. كشف باحثون من برنامج الأمن السيبراني للديمقراطية التابع لجامعة نيويورك ومنظمة المراقبة العالمية جلوبال ويتنس أن نظام التعديل التلقائي في فيسبوك وافق على 15 من 20 إعلانًا تجريبيًا يهدد العاملين في الانتخابات قبل الانتخابات النصفية في الولايات المتحدة الشهر الماضي. استندت التجارب إلى تهديدات حقيقية واستخدمت لغة "واضحة" كان من المحتمل أن يكون من السهل فهمها. في بعض الحالات ، سمحت الشبكة الاجتماعية بالإعلانات بعد إجراء التغييرات الخاطئة. كان على فريق البحث فقط إزالة الألفاظ النابية وتصحيح الإملاء للتغلب على حالات الرفض الأولية.

اختبر المحققون أيضًا TikTok و YouTube. أوقفت كلتا الخدمتين جميع التهديدات وحظرت حسابات الاختبار. في التجربة السابقة قبل الانتخابات في البرازيل ، سمح Facebook و YouTube بتقديم جميع المعلومات الانتخابية الكاذبة في المرور الأول ، على الرغم من رفض Facebook ما يصل إلى 50 ٪ في عمليات إرسال المتابعة.

في بيان لموقع Engadget ، قال متحدث باسم الإعلانات إن الإعلانات كانت "عينة صغيرة" لا تمثل ما يراه المستخدمون على منصات مثل Facebook. جادلت الشركة بأن قدرتها على مواجهة التهديدات الانتخابية "تفوق" قدرة منافسيها ، لكنها دعمت هذا الادعاء فقط من خلال الإشارة إلى عروض الأسعار التي توضح مقدار الموارد المخصصة لوقف التهديدات العنيفة ، وليس كفاءة هذه الموارد.

لن تتسبب الإعلانات في أي ضرر ، حيث كان لدى المجربين القدرة على إزالتها قبل نشرها. ومع ذلك ، فإن الحادث يسلط الضوء على حدود اعتماد Meta الجزئي على اعتدال الذكاء الاصطناعي لمكافحة المعلومات المضللة وخطاب الكراهية. في حين أن النظام يساعد المشرفين البشر على إدارة كميات كبيرة من المحتوى ، فإنه يخاطر أيضًا بإعطاء الضوء الأخضر للإعلانات التي قد لا يتم اكتشافها حتى تكون مرئية للجمهور. لن يؤدي ذلك إلى ازدهار التهديدات فحسب ، بل يؤدي إلى فرض غرامات من المملكة المتحدة والدول الأخرى التي تخطط لمعاقبة الشركات التي لا تزيل المحتوى المتطرف بسرعة.

يتم تحديد جميع المنتجات الموصى بها بواسطة Engadget بواسطة فريق التحرير لدينا ، بشكل مستقل عن شركتنا الأم. تتضمن بعض قصصنا روابط تابعة. إذا اشتريت شيئًا من خلال أحد هذه الروابط ، فقد نربح عمولة تابعة. جميع الأسعار صحيحة وقت النشر.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow