OpenAI оголошує програму винагороди за помилки для усунення ризиків безпеки ШІ

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

OpenAI, провідна дослідницька лабораторія штучного інтелекту (ШІ), сьогодні оголосила про запуск програми винагород за помилки, щоб допомогти впоратися зі зростаючими ризиками кібербезпеки, створеними такими потужними мовними моделями, як її власний ChatGPT.

Програма, яка виконується у партнерстві з краудсорсинговою компанією з кібербезпеки Bugcrowd, запрошує незалежних дослідників повідомляти про вразливості в системах OpenAI в обмін на фінансову винагороду в розмірі від 200 до 20 000 доларів США залежно від серйозності. OpenAI заявив, що програма є частиною її «зобов’язань щодо розробки безпечного та передового ШІ».

Останніми місяцями зросла стурбованість щодо вразливостей у системах ШІ, які можуть генерувати синтетичний текст, зображення та інші медіа. За даними фірми з кібербезпеки DarkTrace, дослідники виявили збільшення на 135% атак соціальної інженерії на основі штучного інтелекту з січня по лютий, що збіглося з впровадженням ChatGPT.

Хоча деякі експерти схвально сприйняли оголошення OpenAI, інші сказали, що програма винагород за помилки навряд чи зможе повністю усунути широкий спектр ризиків кібербезпеці, які становлять технології штучного інтелекту. Все більш складний штучний інтелект

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз

Сфера дії програми обмежена вразливими місцями, які можуть безпосередньо вплинути на системи та партнерів OpenAI. Здається, він не вирішує ширших проблем щодо зловмисного використання таких технологій, як спуфінг, синтетичні носії чи автоматизовані інструменти злому. OpenAI не відразу відповів на запит про коментар.

Програма винагороди за помилки з’явилася на тлі низки проблем із безпекою, у зв’язку з появою джейлбрейків GPT4, які дозволяють користувачам розробляти інструкції щодо злому комп’ютерів, а дослідникам – знаходити обхідні шляхи для «нетехнічних» користувачів для створення шкідливого програмного забезпечення та фішингові електронні листи.< /p>

Це також сталося після того, як дослідник безпеки, відомий як Rez0, нібито використав експлойт, щоб зламати API ChatGPT і виявити понад 80 секретних плагінів.

Враховуючи ці суперечності, запуск платформи винагород за помилки дає OpenAI можливість усунути вразливості в екосистемі своїх продуктів, водночас позиціонуючи себе як організацію, яка сумлінно діє проти ризиків безпеці, створених генеративним ШІ.

На жаль, програма винагороди за помилки OpenAI має дуже обмежений обсяг загроз, на які вона спрямована. Наприклад, офіційна сторінка програми Bug Bounty зазначає: «Проблеми, пов’язані зі змістом підказок і відповідей моделі, суворо виходять за рамки і не будуть винагороджені, якщо на них не буде додаткового прямого посилання...

OpenAI оголошує програму винагороди за помилки для усунення ризиків безпеки ШІ

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

OpenAI, провідна дослідницька лабораторія штучного інтелекту (ШІ), сьогодні оголосила про запуск програми винагород за помилки, щоб допомогти впоратися зі зростаючими ризиками кібербезпеки, створеними такими потужними мовними моделями, як її власний ChatGPT.

Програма, яка виконується у партнерстві з краудсорсинговою компанією з кібербезпеки Bugcrowd, запрошує незалежних дослідників повідомляти про вразливості в системах OpenAI в обмін на фінансову винагороду в розмірі від 200 до 20 000 доларів США залежно від серйозності. OpenAI заявив, що програма є частиною її «зобов’язань щодо розробки безпечного та передового ШІ».

Останніми місяцями зросла стурбованість щодо вразливостей у системах ШІ, які можуть генерувати синтетичний текст, зображення та інші медіа. За даними фірми з кібербезпеки DarkTrace, дослідники виявили збільшення на 135% атак соціальної інженерії на основі штучного інтелекту з січня по лютий, що збіглося з впровадженням ChatGPT.

Хоча деякі експерти схвально сприйняли оголошення OpenAI, інші сказали, що програма винагород за помилки навряд чи зможе повністю усунути широкий спектр ризиків кібербезпеці, які становлять технології штучного інтелекту. Все більш складний штучний інтелект

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз

Сфера дії програми обмежена вразливими місцями, які можуть безпосередньо вплинути на системи та партнерів OpenAI. Здається, він не вирішує ширших проблем щодо зловмисного використання таких технологій, як спуфінг, синтетичні носії чи автоматизовані інструменти злому. OpenAI не відразу відповів на запит про коментар.

Програма винагороди за помилки з’явилася на тлі низки проблем із безпекою, у зв’язку з появою джейлбрейків GPT4, які дозволяють користувачам розробляти інструкції щодо злому комп’ютерів, а дослідникам – знаходити обхідні шляхи для «нетехнічних» користувачів для створення шкідливого програмного забезпечення та фішингові електронні листи.< /p>

Це також сталося після того, як дослідник безпеки, відомий як Rez0, нібито використав експлойт, щоб зламати API ChatGPT і виявити понад 80 секретних плагінів.

Враховуючи ці суперечності, запуск платформи винагород за помилки дає OpenAI можливість усунути вразливості в екосистемі своїх продуктів, водночас позиціонуючи себе як організацію, яка сумлінно діє проти ризиків безпеці, створених генеративним ШІ.

На жаль, програма винагороди за помилки OpenAI має дуже обмежений обсяг загроз, на які вона спрямована. Наприклад, офіційна сторінка програми Bug Bounty зазначає: «Проблеми, пов’язані зі змістом підказок і відповідей моделі, суворо виходять за рамки і не будуть винагороджені, якщо на них не буде додаткового прямого посилання...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow