Як ШІ змінює правила бізнесу

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня та дізнайтеся, як бізнес-лідери випереджають генеративну революцію ШІ. Дізнайтеся більше

За останні кілька тижнів у глобальній дискусії про ризики та регулювання штучного інтелекту відбулася низка важливих подій. Тема, що з’явилася як під час слухань US OpenAI із Семом Альтманом, так і оголошення ЄС про зміни до закону про штучний інтелект, стала закликом до посилення регулювання.

Але те, що здивувало деяких, так це консенсус між урядами, дослідниками та розробниками ШІ щодо необхідності регулювання. Під час свідчень у Конгресі Сем Альтман, генеральний директор OpenAI, запропонував створити нове державне агентство, яке буде ліцензувати розробку широкомасштабних моделей ШІ.

Він зробив кілька пропозицій щодо того, як такий орган міг би регулювати галузь, зокрема «комбінацію вимог до ліцензування та тестування», і сказав, що такі компанії, як OpenAI, повинні проходити незалежний аудит.

Однак, незважаючи на зростання консенсусу щодо ризиків, у тому числі потенційного впливу на робочі місця та конфіденційність людей, консенсусу щодо того, як мають виглядати ці правила чи на чому мають зосереджуватися потенційні аудити, все ще мало. На першому саміті Generative AI Summit, організованому Всесвітнім економічним форумом, де лідери бізнесу, уряду та дослідницьких установ зібралися разом, щоб обговорити, як керувати цими новими етичними та нормативними міркуваннями, виникли дві ключові теми:

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз Необхідність відповідального та підзвітного аудиту ШІ

По-перше, нам потрібно оновити наші вимоги до компаній, які розробляють і розгортають моделі ШІ. Це особливо важливо, коли ми запитуємо себе, що насправді означає «відповідальна інновація». Велика Британія очолила це обговорення, а її уряд нещодавно надав вказівки щодо ШІ щодо п’яти основних принципів, включаючи безпеку, прозорість і справедливість. Нещодавнє дослідження Оксфорда також показало, що «LLM, такі як ChatGPT, потребують термінового оновлення нашої концепції підзвітності».

Одним із головних факторів цього поштовху до нових обов’язків є дедалі складніше розуміння й перевірка моделей штучного інтелекту нового покоління. Щоб розглянути цю зміну, ми можемо розглянути «традиційний» AI проти LLM AI, або Large Language Model AI, у прикладі рекомендації кандидатів на роботу.

Якби традиційний штучний інтелект навчався на даних, які ідентифікують працівників певної раси чи статі на вищих посадах, він міг би створити упередженість, рекомендувавши на посади людей однієї раси чи статі. На щастя, це те, що можна виявити або перевірити шляхом перевірки даних, які використовуються для навчання цих моделей ШІ, а також...

Як ШІ змінює правила бізнесу

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня та дізнайтеся, як бізнес-лідери випереджають генеративну революцію ШІ. Дізнайтеся більше

За останні кілька тижнів у глобальній дискусії про ризики та регулювання штучного інтелекту відбулася низка важливих подій. Тема, що з’явилася як під час слухань US OpenAI із Семом Альтманом, так і оголошення ЄС про зміни до закону про штучний інтелект, стала закликом до посилення регулювання.

Але те, що здивувало деяких, так це консенсус між урядами, дослідниками та розробниками ШІ щодо необхідності регулювання. Під час свідчень у Конгресі Сем Альтман, генеральний директор OpenAI, запропонував створити нове державне агентство, яке буде ліцензувати розробку широкомасштабних моделей ШІ.

Він зробив кілька пропозицій щодо того, як такий орган міг би регулювати галузь, зокрема «комбінацію вимог до ліцензування та тестування», і сказав, що такі компанії, як OpenAI, повинні проходити незалежний аудит.

Однак, незважаючи на зростання консенсусу щодо ризиків, у тому числі потенційного впливу на робочі місця та конфіденційність людей, консенсусу щодо того, як мають виглядати ці правила чи на чому мають зосереджуватися потенційні аудити, все ще мало. На першому саміті Generative AI Summit, організованому Всесвітнім економічним форумом, де лідери бізнесу, уряду та дослідницьких установ зібралися разом, щоб обговорити, як керувати цими новими етичними та нормативними міркуваннями, виникли дві ключові теми:

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз Необхідність відповідального та підзвітного аудиту ШІ

По-перше, нам потрібно оновити наші вимоги до компаній, які розробляють і розгортають моделі ШІ. Це особливо важливо, коли ми запитуємо себе, що насправді означає «відповідальна інновація». Велика Британія очолила це обговорення, а її уряд нещодавно надав вказівки щодо ШІ щодо п’яти основних принципів, включаючи безпеку, прозорість і справедливість. Нещодавнє дослідження Оксфорда також показало, що «LLM, такі як ChatGPT, потребують термінового оновлення нашої концепції підзвітності».

Одним із головних факторів цього поштовху до нових обов’язків є дедалі складніше розуміння й перевірка моделей штучного інтелекту нового покоління. Щоб розглянути цю зміну, ми можемо розглянути «традиційний» AI проти LLM AI, або Large Language Model AI, у прикладі рекомендації кандидатів на роботу.

Якби традиційний штучний інтелект навчався на даних, які ідентифікують працівників певної раси чи статі на вищих посадах, він міг би створити упередженість, рекомендувавши на посади людей однієї раси чи статі. На щастя, це те, що можна виявити або перевірити шляхом перевірки даних, які використовуються для навчання цих моделей ШІ, а також...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow