الخطر العميق للذكاء الاصطناعي للمحادثة

تحقق من جميع الجلسات عند الطلب لقمة Smart Security من هنا .

عندما يفكر الباحثون في المخاطر التي يشكلها الذكاء الاصطناعي على الحضارة البشرية ، فإننا غالبًا ما نشير إلى "مشكلة التحكم". يشير هذا إلى إمكانية ظهور ذكاء اصطناعي خارق يكون أكثر ذكاءً من البشر لدرجة أننا نفقد السيطرة عليه بسرعة. الخوف هو أن الذكاء الاصطناعي الذي يتمتع بذكاء خارق قد يسعى إلى تحقيق أهداف ومصالح تتعارض مع أهدافنا ومصالحنا ، لتصبح منافسًا خطيرًا للبشرية.

في حين أن هذا مصدر قلق صحيح يجب أن نسعى جاهدين لحماية أنفسنا منه ، فهل هذا حقًا هو أكبر تهديد يمثله الذكاء الاصطناعي على المجتمع؟ على الاغلب لا. وجدت دراسة استقصائية أجريت مؤخرًا على أكثر من 700 خبير في الذكاء الاصطناعي أن معظمهم يعتقدون أن الذكاء الاصطناعي على مستوى الإنسان (HLMI) لا يزال على بعد 30 عامًا على الأقل.

من ناحية أخرى ، أشعر بقلق عميق حيال نوع آخر من مشكلات التحكم الموجودة بالفعل في متناول أيدينا ويمكن أن تشكل تهديدًا كبيرًا للمجتمع ما لم يتحرك صانعو السياسات بسرعة. أشير إلى الاحتمال المتزايد بأن تقنيات الذكاء الاصطناعي المتاحة حاليًا يمكن استخدامها لاستهداف المستخدمين الفرديين والتلاعب بهم بدقة وكفاءة قصوى. والأسوأ من ذلك ، أن هذا الشكل الجديد من التلاعب الشخصي يمكن نشره على نطاق واسع من قبل مصالح الشركات أو الجهات الفاعلة الحكومية أو حتى الطغاة المارقين للتأثير على أعداد كبيرة من السكان.

"مشكلة المناولة"

لمقارنة هذا التهديد بمشكلة التحكم التقليدية الموضحة أعلاه ، فإنني أسمي هذا الخطر الناشئ المتعلق بالذكاء الاصطناعي "مشكلة التلاعب". إنه خطر كنت أراقبه منذ ما يقرب من عقدين من الزمن ، لكنه تحول في الأشهر الـ 18 الماضية من خطر نظري طويل الأجل إلى تهديد عاجل قصير المدى. حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الأساسي للذكاء الاصطناعي والتعلم الآلي في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم. انظر هنا

ذلك لأن آلية النشر الأكثر فاعلية للتلاعب البشري المستند إلى الذكاء الاصطناعي تتم من خلال الذكاء الاصطناعي للمحادثة. وعلى مدار العام الماضي ، وصلت تقنية رائعة للذكاء الاصطناعي تسمى نماذج اللغات الكبيرة (LLM) بسرعة إلى مستوى النضج. جعل هذا فجأة تفاعلات المحادثة الطبيعية بين المستخدمين المستهدفين والبرامج القائمة على الذكاء الاصطناعي وسيلة قابلة للتطبيق للإقناع والإكراه والتلاعب.

بالطبع ، تُستخدم تقنيات الذكاء الاصطناعي بالفعل لتشغيل حملات المؤثرين على منصات التواصل الاجتماعي ، لكن هذا أمر بدائي مقارنة بالاتجاه الذي تتخذه التكنولوجيا. في الواقع ، الحملات الحالية ، على الرغم من وصفها بأنها "مستهدفة" ، فهي أشبه برش طلقات على أسراب الطيور. يوجه هذا التكتيك وابلًا من الدعاية أو المعلومات المضللة إلى مجموعات محددة على نطاق واسع على أمل أن بعض العناصر المؤثرة

الخطر العميق للذكاء الاصطناعي للمحادثة

تحقق من جميع الجلسات عند الطلب لقمة Smart Security من هنا .

عندما يفكر الباحثون في المخاطر التي يشكلها الذكاء الاصطناعي على الحضارة البشرية ، فإننا غالبًا ما نشير إلى "مشكلة التحكم". يشير هذا إلى إمكانية ظهور ذكاء اصطناعي خارق يكون أكثر ذكاءً من البشر لدرجة أننا نفقد السيطرة عليه بسرعة. الخوف هو أن الذكاء الاصطناعي الذي يتمتع بذكاء خارق قد يسعى إلى تحقيق أهداف ومصالح تتعارض مع أهدافنا ومصالحنا ، لتصبح منافسًا خطيرًا للبشرية.

في حين أن هذا مصدر قلق صحيح يجب أن نسعى جاهدين لحماية أنفسنا منه ، فهل هذا حقًا هو أكبر تهديد يمثله الذكاء الاصطناعي على المجتمع؟ على الاغلب لا. وجدت دراسة استقصائية أجريت مؤخرًا على أكثر من 700 خبير في الذكاء الاصطناعي أن معظمهم يعتقدون أن الذكاء الاصطناعي على مستوى الإنسان (HLMI) لا يزال على بعد 30 عامًا على الأقل.

من ناحية أخرى ، أشعر بقلق عميق حيال نوع آخر من مشكلات التحكم الموجودة بالفعل في متناول أيدينا ويمكن أن تشكل تهديدًا كبيرًا للمجتمع ما لم يتحرك صانعو السياسات بسرعة. أشير إلى الاحتمال المتزايد بأن تقنيات الذكاء الاصطناعي المتاحة حاليًا يمكن استخدامها لاستهداف المستخدمين الفرديين والتلاعب بهم بدقة وكفاءة قصوى. والأسوأ من ذلك ، أن هذا الشكل الجديد من التلاعب الشخصي يمكن نشره على نطاق واسع من قبل مصالح الشركات أو الجهات الفاعلة الحكومية أو حتى الطغاة المارقين للتأثير على أعداد كبيرة من السكان.

"مشكلة المناولة"

لمقارنة هذا التهديد بمشكلة التحكم التقليدية الموضحة أعلاه ، فإنني أسمي هذا الخطر الناشئ المتعلق بالذكاء الاصطناعي "مشكلة التلاعب". إنه خطر كنت أراقبه منذ ما يقرب من عقدين من الزمن ، لكنه تحول في الأشهر الـ 18 الماضية من خطر نظري طويل الأجل إلى تهديد عاجل قصير المدى. حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الأساسي للذكاء الاصطناعي والتعلم الآلي في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم. انظر هنا

ذلك لأن آلية النشر الأكثر فاعلية للتلاعب البشري المستند إلى الذكاء الاصطناعي تتم من خلال الذكاء الاصطناعي للمحادثة. وعلى مدار العام الماضي ، وصلت تقنية رائعة للذكاء الاصطناعي تسمى نماذج اللغات الكبيرة (LLM) بسرعة إلى مستوى النضج. جعل هذا فجأة تفاعلات المحادثة الطبيعية بين المستخدمين المستهدفين والبرامج القائمة على الذكاء الاصطناعي وسيلة قابلة للتطبيق للإقناع والإكراه والتلاعب.

بالطبع ، تُستخدم تقنيات الذكاء الاصطناعي بالفعل لتشغيل حملات المؤثرين على منصات التواصل الاجتماعي ، لكن هذا أمر بدائي مقارنة بالاتجاه الذي تتخذه التكنولوجيا. في الواقع ، الحملات الحالية ، على الرغم من وصفها بأنها "مستهدفة" ، فهي أشبه برش طلقات على أسراب الطيور. يوجه هذا التكتيك وابلًا من الدعاية أو المعلومات المضللة إلى مجموعات محددة على نطاق واسع على أمل أن بعض العناصر المؤثرة

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow