Колишні радники Білого дому та технічні дослідники підписали нову заяву проти шкоди ШІ

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

Двоє колишніх радників Білого дому з питань політики щодо штучного інтелекту, а також понад 150 науковців, дослідників і практиків щодо штучного інтелекту підписали нову «Заяву щодо шкоди та політики штучного інтелекту IA», опубліковану ACM FaaCT (Конференція справедливості, підзвітності та Transparency), який зараз проводить свою щорічну конференцію в Чикаго.

Алондра Нельсон, колишній заступник помічника президента Джо Байдена та виконувач обов’язків директора Управління наукової та технологічної політики Білого дому, і Суреш Венкатасубраманян, колишній радник Білого дому з проекту Білля про права ШІ», підписали заяву. . Це було зроблено лише через кілька тижнів після того, як широко поширена заява про ризики штучного інтелекту, підписана провідними дослідниками штучного інтелекту та генеральними директорами, висловила занепокоєння щодо «вимирання» штучного інтелекту людьми. , і через три місяці після відкритого листа із закликом до шестимісячної «паузи» штучного інтелекту. на великомасштабну розробку AI поза GPT-4 OpenAI.

На відміну від попередніх петицій, заява ACM FaaCT зосереджена на поточному шкідливому впливі систем штучного інтелекту та закликає до політики, заснованої на існуючих дослідженнях і інструментах. У ньому йдеться: «Ми, нижчепідписані вчені та практики Конференції з чесності, підзвітності та прозорості, вітаємо зростаючі заклики до розробки та розгортання штучного інтелекту таким чином, щоб захистити суспільні інтереси та основні права. Від небезпеки неточних або упереджених алгоритмів, які перешкоджають рятівній медичній допомозі, до мовних шаблонів, які загострюють маніпуляції та дезінформацію, наше дослідження давно передбачало згубний вплив систем ШІ всіх рівнів складності та можливостей. Ця робота також показує, як розробляти, перевіряти або протистояти системам ШІ для захисту демократії, соціальної справедливості та прав людини. Цей момент вимагає розумної політики, яка ґрунтується на багаторічних дослідженнях, які зосереджуються на цій темі. У нас уже є інструменти, які допоможуть побудувати безпечніше технологічне майбутнє, і ми закликаємо політиків повністю їх застосувати».

Опублікувавши заяву в Twitter, Нельсон процитувала думку робочої групи з політики та управління AI в Інституті передових досліджень, де вона зараз викладає, після того, як залишила адміністрацію Байдена в лютому.

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували й оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз

«Робоча група з політики та управління штучним інтелектом, яка представляє різні сектори, дисципліни, точки зору та підходи, погоджується з тим, що необхідно та можливо вирішити безліч проблем, поставлених...

Колишні радники Білого дому та технічні дослідники підписали нову заяву проти шкоди ШІ

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

Двоє колишніх радників Білого дому з питань політики щодо штучного інтелекту, а також понад 150 науковців, дослідників і практиків щодо штучного інтелекту підписали нову «Заяву щодо шкоди та політики штучного інтелекту IA», опубліковану ACM FaaCT (Конференція справедливості, підзвітності та Transparency), який зараз проводить свою щорічну конференцію в Чикаго.

Алондра Нельсон, колишній заступник помічника президента Джо Байдена та виконувач обов’язків директора Управління наукової та технологічної політики Білого дому, і Суреш Венкатасубраманян, колишній радник Білого дому з проекту Білля про права ШІ», підписали заяву. . Це було зроблено лише через кілька тижнів після того, як широко поширена заява про ризики штучного інтелекту, підписана провідними дослідниками штучного інтелекту та генеральними директорами, висловила занепокоєння щодо «вимирання» штучного інтелекту людьми. , і через три місяці після відкритого листа із закликом до шестимісячної «паузи» штучного інтелекту. на великомасштабну розробку AI поза GPT-4 OpenAI.

На відміну від попередніх петицій, заява ACM FaaCT зосереджена на поточному шкідливому впливі систем штучного інтелекту та закликає до політики, заснованої на існуючих дослідженнях і інструментах. У ньому йдеться: «Ми, нижчепідписані вчені та практики Конференції з чесності, підзвітності та прозорості, вітаємо зростаючі заклики до розробки та розгортання штучного інтелекту таким чином, щоб захистити суспільні інтереси та основні права. Від небезпеки неточних або упереджених алгоритмів, які перешкоджають рятівній медичній допомозі, до мовних шаблонів, які загострюють маніпуляції та дезінформацію, наше дослідження давно передбачало згубний вплив систем ШІ всіх рівнів складності та можливостей. Ця робота також показує, як розробляти, перевіряти або протистояти системам ШІ для захисту демократії, соціальної справедливості та прав людини. Цей момент вимагає розумної політики, яка ґрунтується на багаторічних дослідженнях, які зосереджуються на цій темі. У нас уже є інструменти, які допоможуть побудувати безпечніше технологічне майбутнє, і ми закликаємо політиків повністю їх застосувати».

Опублікувавши заяву в Twitter, Нельсон процитувала думку робочої групи з політики та управління AI в Інституті передових досліджень, де вона зараз викладає, після того, як залишила адміністрацію Байдена в лютому.

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували й оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз

«Робоча група з політики та управління штучним інтелектом, яка представляє різні сектори, дисципліни, точки зору та підходи, погоджується з тим, що необхідно та можливо вирішити безліч проблем, поставлених...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow