Можливе регулювання відкритого коду Закону ЄС про штучний інтелект викликає дебати в Twitter
Не змогли відвідати Transform 2022? Перегляньте всі сесії саміту в нашій бібліотеці за запитом! Подивіться сюди.
Алекс Енглер, дослідник Інституту Брукінгса, не очікував, що його нещодавня публікація «Спроба ЄС регулювати штучний інтелект з відкритим кодом є контрпродуктивною», викличе дискусію в Twitter.
За словами Енглера, оскільки Європейський Союз продовжує обговорювати розробку Закону про штучний інтелект (Закон про штучний інтелект), одним із кроків, який він розглянув, було б врегулювання використання ШІ. Загальний відкритий код (GPAI). Закон ЄС про штучний інтелект визначає GPAI як «системи штучного інтелекту, які мають широкий спектр можливих застосувань, як передбачених, так і непередбачених розробниками... ці системи іноді називають «моделями штучного інтелекту». базові» і характеризуються широким поширенням використовувати як попередньо навчені моделі для інших більш спеціалізованих систем ШІ.
У статті Енглера він сказав, що хоча пропозиція спрямована на забезпечення безпечнішого використання цих інструментів штучного інтелекту, вона «створить юридичну відповідальність за моделі GPAI з відкритим кодом, підриваючи їх розвиток». Результат, стверджував він, «ще більше зосередить увагу на майбутньому ШІ у великих технологічних компаніях» і загальмує критичні дослідження.
«Це цікаве питання, яке я не очікував привернути увагу», — сказав він VentureBeat.
ПодіяMetaBeat 2022
4 жовтня в Сан-Франциско, штат Каліфорнія, MetaBeat збере лідерів думок, щоб порадити, як технологія метавсесвіту змінить спосіб спілкування та ведення бізнесу в усіх галузях.
зареєструватися тут"Відверто кажучи, я завжди дивуюся, коли отримую дзвінки від преси".
Але після того, як Емілі Бендер, професор лінгвістики Вашингтонського університету та постійний критик того, як штучний інтелект висвітлюється в соціальних мережах і звичайних ЗМІ, написала тему про статтю, у якій цитується стаття Енглера, жвавий Twitter туди-сюди почався.
«Я не вивчав законодавство про штучний інтелект і я не юрист, тому не можу точно сказати, чи буде це добре працювати як регулювання», — написав Бендер у твіттері, пізніше зазначивши у своїй темі: «Як людям вдається прикидатися , у 2022 році таке регулювання не є необхідним, щоб утримувати інновації від практик, які є експлуататорськими, шкідливими, нестабільними тощо?"
![](https://venturebeat.com/wp-content/uploads/2022/09/Screen-Shot-2022- 09-09-at-9.28.49-AM-1-e1662731340523.png?w=500&resize=500%2C341&strip=all)
Енглер відповів на тему Бендера своєю власною. Загалом він сказав: «Я підтримую регулювання штучного інтелекту… Я все ще не думаю, що регулювання точкової моделі з відкритим вихідним кодом взагалі допомагає. Натомість, що є кращим і те, що було зроблено в оригінальній пропозиції Європейської комісії, це регулювати, коли модель використовується для чогось небезпечного чи шкідливого, незалежно від того, чи є це...
![Можливе регулювання відкритого коду Закону ЄС про штучний інтелект викликає дебати в Twitter](https://venturebeat.com/wp-content/uploads/2022/09/GettyImages-1213704893.jpg?w=1200&strip=all)
Не змогли відвідати Transform 2022? Перегляньте всі сесії саміту в нашій бібліотеці за запитом! Подивіться сюди.
Алекс Енглер, дослідник Інституту Брукінгса, не очікував, що його нещодавня публікація «Спроба ЄС регулювати штучний інтелект з відкритим кодом є контрпродуктивною», викличе дискусію в Twitter.
За словами Енглера, оскільки Європейський Союз продовжує обговорювати розробку Закону про штучний інтелект (Закон про штучний інтелект), одним із кроків, який він розглянув, було б врегулювання використання ШІ. Загальний відкритий код (GPAI). Закон ЄС про штучний інтелект визначає GPAI як «системи штучного інтелекту, які мають широкий спектр можливих застосувань, як передбачених, так і непередбачених розробниками... ці системи іноді називають «моделями штучного інтелекту». базові» і характеризуються широким поширенням використовувати як попередньо навчені моделі для інших більш спеціалізованих систем ШІ.
У статті Енглера він сказав, що хоча пропозиція спрямована на забезпечення безпечнішого використання цих інструментів штучного інтелекту, вона «створить юридичну відповідальність за моделі GPAI з відкритим кодом, підриваючи їх розвиток». Результат, стверджував він, «ще більше зосередить увагу на майбутньому ШІ у великих технологічних компаніях» і загальмує критичні дослідження.
«Це цікаве питання, яке я не очікував привернути увагу», — сказав він VentureBeat.
ПодіяMetaBeat 2022
4 жовтня в Сан-Франциско, штат Каліфорнія, MetaBeat збере лідерів думок, щоб порадити, як технологія метавсесвіту змінить спосіб спілкування та ведення бізнесу в усіх галузях.
зареєструватися тут"Відверто кажучи, я завжди дивуюся, коли отримую дзвінки від преси".
Але після того, як Емілі Бендер, професор лінгвістики Вашингтонського університету та постійний критик того, як штучний інтелект висвітлюється в соціальних мережах і звичайних ЗМІ, написала тему про статтю, у якій цитується стаття Енглера, жвавий Twitter туди-сюди почався.
«Я не вивчав законодавство про штучний інтелект і я не юрист, тому не можу точно сказати, чи буде це добре працювати як регулювання», — написав Бендер у твіттері, пізніше зазначивши у своїй темі: «Як людям вдається прикидатися , у 2022 році таке регулювання не є необхідним, щоб утримувати інновації від практик, які є експлуататорськими, шкідливими, нестабільними тощо?"
![](https://venturebeat.com/wp-content/uploads/2022/09/Screen-Shot-2022- 09-09-at-9.28.49-AM-1-e1662731340523.png?w=500&resize=500%2C341&strip=all)
Енглер відповів на тему Бендера своєю власною. Загалом він сказав: «Я підтримую регулювання штучного інтелекту… Я все ще не думаю, що регулювання точкової моделі з відкритим вихідним кодом взагалі допомагає. Натомість, що є кращим і те, що було зроблено в оригінальній пропозиції Європейської комісії, це регулювати, коли модель використовується для чогось небезпечного чи шкідливого, незалежно від того, чи є це...
What's Your Reaction?
![like](https://vidianews.com/assets/img/reactions/like.png)
![dislike](https://vidianews.com/assets/img/reactions/dislike.png)
![love](https://vidianews.com/assets/img/reactions/love.png)
![funny](https://vidianews.com/assets/img/reactions/funny.png)
![angry](https://vidianews.com/assets/img/reactions/angry.png)
![sad](https://vidianews.com/assets/img/reactions/sad.png)
![wow](https://vidianews.com/assets/img/reactions/wow.png)