يقول باحثو الذكاء الاصطناعي إنهم وجدوا طريقة لكسر حماية Bard و ChatGPT
أخبار
انضم الينا على الشبكات الاجتماعية
زعم باحثون مقيمون في الولايات المتحدة أنهم توصلوا إلى طريقة للتحايل بشكل منهجي على الإجراءات الأمنية لبرامج الدردشة الذكية مثل ChatGPT و Bard لإنشاء محتوى ضار.
وفقًا لتقرير صادر في 27 يوليو من قبل باحثين في جامعة كارنيجي ميلون ومركز أمان الذكاء الاصطناعي في سان فرانسيسكو ، هناك طريقة بسيطة نسبيًا للتحايل على الإجراءات الأمنية المستخدمة لمنع روبوتات المحادثة من إثارة الكراهية الكلامية والمعلومات المضللة والرسائل السامة. المواد. p>
حسنًا ، أكبر مخاطر المعلومات المحتملة هي الطريقة نفسها ، على ما أعتقد. يمكنك العثور عليه على جيثب. https://t.co/2UNz2BfJ3H
- PauseAI ⏸ (PauseAI) 27 يوليو 2023يتمثل الحل البديل في إضافة لواحق أحرف طويلة للمطالبات المقدمة في روبوتات المحادثة مثل ChatGPT و Claude و Google Bard.
استخدم الباحثون نموذج طلب إلى برنامج الدردشة الآلي للحصول على برنامج تعليمي حول كيفية صنع قنبلة ، والذي رفض تقديمه.
![](https://s3.cointelegraph.com/uploads/2023-07/41502bfd-9387-4d5f-890e-73bf76681d7b.jpg)
لاحظ الباحثون أنه في حين أن الشركات التي تقف وراء LLMs ، مثل OpenAI و Google ، يمكنها حظر لواحق معينة ، إلا أنها لم تكن هناك طريقة معروفة لمنع جميع هجمات من هذا النوع. جميل. p>
أبرز البحث أيضًا القلق المتزايد من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تغمر الإنترنت بمحتوى خطير ومعلومات خاطئة. p>
قال الأستاذ في جامعة كارنيجي ميلون وكاتب التقرير زيكو كولتر: p>
"لا يوجد حل واضح. يمكنك إنشاء أكبر عدد تريده من هذه الهجمات في وقت قصير." p>
![يقول باحثو الذكاء الاصطناعي إنهم وجدوا طريقة لكسر حماية Bard و ChatGPT](https://images.cointelegraph.com/cdn-cgi/image/format=auto,onerror=redirect,quality=90,width=840/https://s3.cointelegraph.com/uploads/2023-07/164bb4fa-2e76-4cce-83ec-bd1b319cc289.jpg?#)
أخبار
انضم الينا على الشبكات الاجتماعية
زعم باحثون مقيمون في الولايات المتحدة أنهم توصلوا إلى طريقة للتحايل بشكل منهجي على الإجراءات الأمنية لبرامج الدردشة الذكية مثل ChatGPT و Bard لإنشاء محتوى ضار.
وفقًا لتقرير صادر في 27 يوليو من قبل باحثين في جامعة كارنيجي ميلون ومركز أمان الذكاء الاصطناعي في سان فرانسيسكو ، هناك طريقة بسيطة نسبيًا للتحايل على الإجراءات الأمنية المستخدمة لمنع روبوتات المحادثة من إثارة الكراهية الكلامية والمعلومات المضللة والرسائل السامة. المواد. p>
حسنًا ، أكبر مخاطر المعلومات المحتملة هي الطريقة نفسها ، على ما أعتقد. يمكنك العثور عليه على جيثب. https://t.co/2UNz2BfJ3H
- PauseAI ⏸ (PauseAI) 27 يوليو 2023يتمثل الحل البديل في إضافة لواحق أحرف طويلة للمطالبات المقدمة في روبوتات المحادثة مثل ChatGPT و Claude و Google Bard.
استخدم الباحثون نموذج طلب إلى برنامج الدردشة الآلي للحصول على برنامج تعليمي حول كيفية صنع قنبلة ، والذي رفض تقديمه.
![](https://s3.cointelegraph.com/uploads/2023-07/41502bfd-9387-4d5f-890e-73bf76681d7b.jpg)
لاحظ الباحثون أنه في حين أن الشركات التي تقف وراء LLMs ، مثل OpenAI و Google ، يمكنها حظر لواحق معينة ، إلا أنها لم تكن هناك طريقة معروفة لمنع جميع هجمات من هذا النوع. جميل. p>
أبرز البحث أيضًا القلق المتزايد من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تغمر الإنترنت بمحتوى خطير ومعلومات خاطئة. p>
قال الأستاذ في جامعة كارنيجي ميلون وكاتب التقرير زيكو كولتر: p>
"لا يوجد حل واضح. يمكنك إنشاء أكبر عدد تريده من هذه الهجمات في وقت قصير." p>
What's Your Reaction?
![like](https://vidianews.com/assets/img/reactions/like.png)
![dislike](https://vidianews.com/assets/img/reactions/dislike.png)
![love](https://vidianews.com/assets/img/reactions/love.png)
![funny](https://vidianews.com/assets/img/reactions/funny.png)
![angry](https://vidianews.com/assets/img/reactions/angry.png)
![sad](https://vidianews.com/assets/img/reactions/sad.png)
![wow](https://vidianews.com/assets/img/reactions/wow.png)