Титани індустрії штучного інтелекту Ендрю Нг і Янн ЛеКун виступають проти призупинення потужних систем штучного інтелекту
Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше
Дві провідні особи в індустрії штучного інтелекту, Янн ЛеКун, головний науковець зі штучного інтелекту Meta, та Ендрю Нг, засновник Deeplearning.AI, виступили проти запропонованої паузи в розробці потужних систем штучного інтелекту під час онлайн-чату в п’ятницю.
Обговорення під назвою «Чому 6-місячна перерва в ШІ є поганою ідеєю» відбулося на YouTube і привернуло тисячі глядачів.
Під час заходу ЛеКун і Нґ оскаржили відкритий лист, підписаний сотнями експертів зі штучного інтелекту, технічних підприємців і вчених минулого місяця, із закликом до принаймні шестимісячного мораторію на навчання більш досконалих систем ШІ, ніж GPT -4, текст -програма створення, яка може давати реалістичні та послідовні відповіді майже на будь-яке запитання чи тему.
«Ми довго й наполегливо думали над цією пропозицією щодо шестимісячного мораторію та відчули, що це досить важлива тема — я думаю, що це справді завдасть значної шкоди, якби уряд її запровадив — ми з Янном відчувалося, що ми хочемо обговорити це з вами сьогодні», – сказав пан Нґ у своєму вступному слові.
ПодіяПеретворення 2023
Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.
Зареєструватися заразСпочатку Нґ пояснив, що за останні десятиліття, особливо в останні роки, у сфері штучного інтелекту спостерігається значний прогрес. Технології глибокого навчання дозволили створити генеративні системи штучного інтелекту, здатні створювати реалістичний текст, зображення та звук, такі як ChatGPT, LLaMa, Midjourney, Stable Diffusion і Dall-E. Ці системи породили надію на нові програми та можливості, але також занепокоєння щодо їхніх потенційних ризиків і недоліків.
Деякі з цих проблем стосувалися сьогодення та найближчого майбутнього, як-от справедливість, упередження та соціально-економічне переміщення. Інші були більш спекулятивними та віддаленими, як-от поява штучного загального інтелекту (AIG) і його можливі зловмисні чи непередбачені наслідки.
«У різних підписантів цього листа, ймовірно, є кілька мотивацій», — сказав ЛеКун у своєму вступному слові. «Деякі з них, можливо, в крайності, стурбовані тим, що AGI буде активовано, а потім знищить людство за короткий термін. це безсумнівна загроза, яку неможливо зупинити».
Тоді є люди, які є більш розсудливими, які вважають, що існує реальна потенційна небезпека та небезпека, з якою потрібно боротися – і я з ними згоден”, – сказав він. «Є багато проблем із тим, щоб зробити системи штучного інтелекту керованими та зробити їх фактичними, якщо вони мають надавати інформацію тощо, і зробити їх нетоксичними. Не вистачає уяви в тому сенсі, що майбутні системи штучного інтелекту не будуть розроблені на тій самій площині, що й поточні авторегресивні LLM, як...
![Титани індустрії штучного інтелекту Ендрю Нг і Янн ЛеКун виступають проти призупинення потужних систем штучного інтелекту](https://venturebeat.com/wp-content/uploads/2023/04/Screenshot-2023-04-07-at-10.57.37-AM.png?w=1200&strip=all)
Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше
Дві провідні особи в індустрії штучного інтелекту, Янн ЛеКун, головний науковець зі штучного інтелекту Meta, та Ендрю Нг, засновник Deeplearning.AI, виступили проти запропонованої паузи в розробці потужних систем штучного інтелекту під час онлайн-чату в п’ятницю.
Обговорення під назвою «Чому 6-місячна перерва в ШІ є поганою ідеєю» відбулося на YouTube і привернуло тисячі глядачів.
Під час заходу ЛеКун і Нґ оскаржили відкритий лист, підписаний сотнями експертів зі штучного інтелекту, технічних підприємців і вчених минулого місяця, із закликом до принаймні шестимісячного мораторію на навчання більш досконалих систем ШІ, ніж GPT -4, текст -програма створення, яка може давати реалістичні та послідовні відповіді майже на будь-яке запитання чи тему.
«Ми довго й наполегливо думали над цією пропозицією щодо шестимісячного мораторію та відчули, що це досить важлива тема — я думаю, що це справді завдасть значної шкоди, якби уряд її запровадив — ми з Янном відчувалося, що ми хочемо обговорити це з вами сьогодні», – сказав пан Нґ у своєму вступному слові.
ПодіяПеретворення 2023
Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.
Зареєструватися заразСпочатку Нґ пояснив, що за останні десятиліття, особливо в останні роки, у сфері штучного інтелекту спостерігається значний прогрес. Технології глибокого навчання дозволили створити генеративні системи штучного інтелекту, здатні створювати реалістичний текст, зображення та звук, такі як ChatGPT, LLaMa, Midjourney, Stable Diffusion і Dall-E. Ці системи породили надію на нові програми та можливості, але також занепокоєння щодо їхніх потенційних ризиків і недоліків.
Деякі з цих проблем стосувалися сьогодення та найближчого майбутнього, як-от справедливість, упередження та соціально-економічне переміщення. Інші були більш спекулятивними та віддаленими, як-от поява штучного загального інтелекту (AIG) і його можливі зловмисні чи непередбачені наслідки.
«У різних підписантів цього листа, ймовірно, є кілька мотивацій», — сказав ЛеКун у своєму вступному слові. «Деякі з них, можливо, в крайності, стурбовані тим, що AGI буде активовано, а потім знищить людство за короткий термін. це безсумнівна загроза, яку неможливо зупинити».
Тоді є люди, які є більш розсудливими, які вважають, що існує реальна потенційна небезпека та небезпека, з якою потрібно боротися – і я з ними згоден”, – сказав він. «Є багато проблем із тим, щоб зробити системи штучного інтелекту керованими та зробити їх фактичними, якщо вони мають надавати інформацію тощо, і зробити їх нетоксичними. Не вистачає уяви в тому сенсі, що майбутні системи штучного інтелекту не будуть розроблені на тій самій площині, що й поточні авторегресивні LLM, як...
What's Your Reaction?
![like](https://vidianews.com/assets/img/reactions/like.png)
![dislike](https://vidianews.com/assets/img/reactions/dislike.png)
![love](https://vidianews.com/assets/img/reactions/love.png)
![funny](https://vidianews.com/assets/img/reactions/funny.png)
![angry](https://vidianews.com/assets/img/reactions/angry.png)
![sad](https://vidianews.com/assets/img/reactions/sad.png)
![wow](https://vidianews.com/assets/img/reactions/wow.png)