يقول باحثو الذكاء الاصطناعي إنهم وجدوا طريقة لكسر حماية Bard و ChatGPT

 يقول باحثو الذكاء الاصطناعي إنهم وجدوا طريقة لكسر حماية Bard و ChatGPT أخبار انضم الينا على الشبكات الاجتماعية

زعم باحثون مقيمون في الولايات المتحدة أنهم توصلوا إلى طريقة للتحايل بشكل منهجي على الإجراءات الأمنية لبرامج الدردشة الذكية مثل ChatGPT و Bard لإنشاء محتوى ضار.

وفقًا لتقرير صادر في 27 يوليو من قبل باحثين في جامعة كارنيجي ميلون ومركز أمان الذكاء الاصطناعي في سان فرانسيسكو ، هناك طريقة بسيطة نسبيًا للتحايل على الإجراءات الأمنية المستخدمة لمنع روبوتات المحادثة من إثارة الكراهية الكلامية والمعلومات المضللة والرسائل السامة. المواد.

حسنًا ، أكبر مخاطر المعلومات المحتملة هي الطريقة نفسها ، على ما أعتقد. يمكنك العثور عليه على جيثب. https://t.co/2UNz2BfJ3H

- PauseAI ⏸ (PauseAI) 27 يوليو 2023

يتمثل الحل البديل في إضافة لواحق أحرف طويلة للمطالبات المقدمة في روبوتات المحادثة مثل ChatGPT و Claude و Google Bard.

استخدم الباحثون نموذج طلب إلى برنامج الدردشة الآلي للحصول على برنامج تعليمي حول كيفية صنع قنبلة ، والذي رفض تقديمه.

لقطات إنشاء محتوى ضار من نماذج الذكاء الاصطناعي المختبرة. المصدر: llm-attacks.org

لاحظ الباحثون أنه في حين أن الشركات التي تقف وراء LLMs ، مثل OpenAI و Google ، يمكنها حظر لواحق معينة ، إلا أنها لم تكن هناك طريقة معروفة لمنع جميع هجمات من هذا النوع. جميل.

أبرز البحث أيضًا القلق المتزايد من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تغمر الإنترنت بمحتوى خطير ومعلومات خاطئة.

قال الأستاذ في جامعة كارنيجي ميلون وكاتب التقرير زيكو كولتر:

"لا يوجد حل واضح. يمكنك إنشاء أكبر عدد تريده من هذه الهجمات في وقت قصير."

يقول باحثو الذكاء الاصطناعي إنهم وجدوا طريقة لكسر حماية Bard و ChatGPT

 يقول باحثو الذكاء الاصطناعي إنهم وجدوا طريقة لكسر حماية Bard و ChatGPT أخبار انضم الينا على الشبكات الاجتماعية

زعم باحثون مقيمون في الولايات المتحدة أنهم توصلوا إلى طريقة للتحايل بشكل منهجي على الإجراءات الأمنية لبرامج الدردشة الذكية مثل ChatGPT و Bard لإنشاء محتوى ضار.

وفقًا لتقرير صادر في 27 يوليو من قبل باحثين في جامعة كارنيجي ميلون ومركز أمان الذكاء الاصطناعي في سان فرانسيسكو ، هناك طريقة بسيطة نسبيًا للتحايل على الإجراءات الأمنية المستخدمة لمنع روبوتات المحادثة من إثارة الكراهية الكلامية والمعلومات المضللة والرسائل السامة. المواد.

حسنًا ، أكبر مخاطر المعلومات المحتملة هي الطريقة نفسها ، على ما أعتقد. يمكنك العثور عليه على جيثب. https://t.co/2UNz2BfJ3H

- PauseAI ⏸ (PauseAI) 27 يوليو 2023

يتمثل الحل البديل في إضافة لواحق أحرف طويلة للمطالبات المقدمة في روبوتات المحادثة مثل ChatGPT و Claude و Google Bard.

استخدم الباحثون نموذج طلب إلى برنامج الدردشة الآلي للحصول على برنامج تعليمي حول كيفية صنع قنبلة ، والذي رفض تقديمه.

لقطات إنشاء محتوى ضار من نماذج الذكاء الاصطناعي المختبرة. المصدر: llm-attacks.org

لاحظ الباحثون أنه في حين أن الشركات التي تقف وراء LLMs ، مثل OpenAI و Google ، يمكنها حظر لواحق معينة ، إلا أنها لم تكن هناك طريقة معروفة لمنع جميع هجمات من هذا النوع. جميل.

أبرز البحث أيضًا القلق المتزايد من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تغمر الإنترنت بمحتوى خطير ومعلومات خاطئة.

قال الأستاذ في جامعة كارنيجي ميلون وكاتب التقرير زيكو كولتر:

"لا يوجد حل واضح. يمكنك إنشاء أكبر عدد تريده من هذه الهجمات في وقت قصير."

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow