Поява суперінтелектуального ШІ

Ми починаємо створювати системи штучного інтелекту, які можуть розгадувати речі. Де це зупиняється?

Суперінтелектуальний штучний інтелект — тема не нова. Але десятиліттями він здебільшого обмежувався гіпотетичними сценаріями в академічних статтях або на сторінках наукової фантастики з футуристичними історіями про повстання роботів і сценаріями кінця світу. І все ж, у міру розвитку технології штучного інтелекту, ця колись кумедна концепція, згідно з якою система штучного інтелекту починає рекурсивно покращувати свій власний інтелект до точки, де вона зрештою перевершує людський інтелект, усе ближче й ближче до порогу реальності. Раптом розмова стає набагато серйознішою.

Деякі дослідники з таких організацій, як Інститут людського розвитку Макса Планка, Дослідницький інститут машинного інтелекту та навіть OpenAI, стверджують, що стримати їх, коли ви досягнете цієї точки, буде надзвичайно важко, якщо не зовсім неможливо. І це може бути не так далеко від того, щоб статися.

Коли та в будь-якій формі надрозумні системи штучного інтелекту стануть справді революційними, впливаючи на все: від ринку праці та економіки до біології та медицини. Однак вони також становлять серйозний ризик для існування людства, викликаючи серйозні запитання: наскільки це близько до того, щоб це сталося? Чи готові ми протистояти цьому? І як ви починаєте це регулювати?

У цьому епізоді наш старший директор із машинного навчання Фергал Рейд приєднується до Еммета Конноллі, нашого віце-президента з дизайну продуктів, щоб безпосередньо боротися з суперінтелектом: відомим і невідомим, від етики до регулятивних загроз і викликів.

Ось деякі основні висновки:

Впровадження ШІ в такі сфери, як безпілотні автомобілі, викликає етичні дилеми, але важливо розрізняти це та суперінтелект, який потенційно набагато небезпечніший. Баланс між миттєвими проблемами штучного інтелекту та загрозами суперінтелекту має вирішальне значення: сьогоднішні ризики не повинні затьмарювати потенційні майбутні збитки, навіть якщо їх важче усвідомити. Регулювати ШІ надзвичайно важко. Надмірне регулювання може обмежити його переваги, але для піонерських лабораторій важливо співпрацювати з регуляторами, щоб стимулювати відповідальний розвиток і впровадження. У той час як безпечні додатки штучного інтелекту повинні зберігати підхід «швидко ламай речі», дослідницькі лабораторії, які навчають піонерські моделі, повинні жорстко регулюватися. Ігнорування потенційних переваг штучного інтелекту та надмірне акцентування уваги на ризиках сприяє непродуктивним дискусіям, які можуть перешкодити прогресу. Загалом ця технологія має позитивну чисту вагу.

Якщо вам подобається наше обговорення, перегляньте інші епізоди нашого подкасту. Ви можете стежити за подкастами Apple, Spotify, YouTube або переглядати RSS-канал у обраному плеєрі. Нижче подано дещо відредаговану стенограму епізоду.

У невідоме

Фергал Рейд: Це ще одна з наших відкритих розмов. Ми трохи готувалися, і ви сказали: «Суперінтелект — це найцікавіше…»

Еммет Конноллі: А як щодо ідеї, що суперінтелект може повністю змінити наше суспільство, можливо, за одну ніч, і ми будемо абсолютно нездатні з цим впоратися? Ви сказали, що ніхто не знає, і це може статися в найближчі кілька років. Це найважливіше, про що ми могли б поговорити. Але моя проблема полягає в тому, що все непрозоро. Це може зайняти два роки, це може бути через кілька років, або це може бути через 200 років. Це найважливіша річ, але найбільша невідомість.

Фергал: Гаразд, ходімо. Давайте займемося цією справою суперінтелекту безпосередньо. Давайте спробуємо поговорити про те, що ми знаємо і чого не знаємо. Ми дуже помилимося. Як я можу це оформити? Мені це спало на думку. Тепер це нерозв'язно. Це важко зрозуміти. Що ми знаємо? Тут весь цей галас, правда? «О, це буде божевілля; незабаром з'явиться суперінтелект. А так звані песимісти стверджують, що за замовчуванням це вб’є нас усіх. І ми трохи говорили про це в минулому. А ще є інші люди, які кажуть: «О, це просто фігня. Це все одно, що турбуватися про перенаселення на Марсі. »

«Ми створили речі, які починають щось розуміти. Де це зупиняється? »

Ендрю Нґ, відомий дослідник, сказав це, а потім тиждень чи два тому він, здається,...

Поява суперінтелектуального ШІ

Ми починаємо створювати системи штучного інтелекту, які можуть розгадувати речі. Де це зупиняється?

Суперінтелектуальний штучний інтелект — тема не нова. Але десятиліттями він здебільшого обмежувався гіпотетичними сценаріями в академічних статтях або на сторінках наукової фантастики з футуристичними історіями про повстання роботів і сценаріями кінця світу. І все ж, у міру розвитку технології штучного інтелекту, ця колись кумедна концепція, згідно з якою система штучного інтелекту починає рекурсивно покращувати свій власний інтелект до точки, де вона зрештою перевершує людський інтелект, усе ближче й ближче до порогу реальності. Раптом розмова стає набагато серйознішою.

Деякі дослідники з таких організацій, як Інститут людського розвитку Макса Планка, Дослідницький інститут машинного інтелекту та навіть OpenAI, стверджують, що стримати їх, коли ви досягнете цієї точки, буде надзвичайно важко, якщо не зовсім неможливо. І це може бути не так далеко від того, щоб статися.

Коли та в будь-якій формі надрозумні системи штучного інтелекту стануть справді революційними, впливаючи на все: від ринку праці та економіки до біології та медицини. Однак вони також становлять серйозний ризик для існування людства, викликаючи серйозні запитання: наскільки це близько до того, щоб це сталося? Чи готові ми протистояти цьому? І як ви починаєте це регулювати?

У цьому епізоді наш старший директор із машинного навчання Фергал Рейд приєднується до Еммета Конноллі, нашого віце-президента з дизайну продуктів, щоб безпосередньо боротися з суперінтелектом: відомим і невідомим, від етики до регулятивних загроз і викликів.

Ось деякі основні висновки:

Впровадження ШІ в такі сфери, як безпілотні автомобілі, викликає етичні дилеми, але важливо розрізняти це та суперінтелект, який потенційно набагато небезпечніший. Баланс між миттєвими проблемами штучного інтелекту та загрозами суперінтелекту має вирішальне значення: сьогоднішні ризики не повинні затьмарювати потенційні майбутні збитки, навіть якщо їх важче усвідомити. Регулювати ШІ надзвичайно важко. Надмірне регулювання може обмежити його переваги, але для піонерських лабораторій важливо співпрацювати з регуляторами, щоб стимулювати відповідальний розвиток і впровадження. У той час як безпечні додатки штучного інтелекту повинні зберігати підхід «швидко ламай речі», дослідницькі лабораторії, які навчають піонерські моделі, повинні жорстко регулюватися. Ігнорування потенційних переваг штучного інтелекту та надмірне акцентування уваги на ризиках сприяє непродуктивним дискусіям, які можуть перешкодити прогресу. Загалом ця технологія має позитивну чисту вагу.

Якщо вам подобається наше обговорення, перегляньте інші епізоди нашого подкасту. Ви можете стежити за подкастами Apple, Spotify, YouTube або переглядати RSS-канал у обраному плеєрі. Нижче подано дещо відредаговану стенограму епізоду.

У невідоме

Фергал Рейд: Це ще одна з наших відкритих розмов. Ми трохи готувалися, і ви сказали: «Суперінтелект — це найцікавіше…»

Еммет Конноллі: А як щодо ідеї, що суперінтелект може повністю змінити наше суспільство, можливо, за одну ніч, і ми будемо абсолютно нездатні з цим впоратися? Ви сказали, що ніхто не знає, і це може статися в найближчі кілька років. Це найважливіше, про що ми могли б поговорити. Але моя проблема полягає в тому, що все непрозоро. Це може зайняти два роки, це може бути через кілька років, або це може бути через 200 років. Це найважливіша річ, але найбільша невідомість.

Фергал: Гаразд, ходімо. Давайте займемося цією справою суперінтелекту безпосередньо. Давайте спробуємо поговорити про те, що ми знаємо і чого не знаємо. Ми дуже помилимося. Як я можу це оформити? Мені це спало на думку. Тепер це нерозв'язно. Це важко зрозуміти. Що ми знаємо? Тут весь цей галас, правда? «О, це буде божевілля; незабаром з'явиться суперінтелект. А так звані песимісти стверджують, що за замовчуванням це вб’є нас усіх. І ми трохи говорили про це в минулому. А ще є інші люди, які кажуть: «О, це просто фігня. Це все одно, що турбуватися про перенаселення на Марсі. »

«Ми створили речі, які починають щось розуміти. Де це зупиняється? »

Ендрю Нґ, відомий дослідник, сказав це, а потім тиждень чи два тому він, здається,...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow