Чому генеративний ШІ небезпечніший, ніж ви думаєте

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

Останніми місяцями багато написано про небезпеку генеративного штучного інтелекту, але все, що я бачив, зводиться до трьох простих аргументів, жоден із яких не відображає найбільшого ризику, який, на мою думку, загрожує нам. Перш ніж ми перейдемо до цієї прихованої небезпеки генеративного штучного інтелекту, буде корисно узагальнити загальні застереження, які поширюються останнім часом:

Ризик для робочих місць: Generative AI тепер може створювати робочі продукти людського рівня, починаючи від художніх робіт і есе до наукових звітів. Це матиме величезний вплив на ринок праці, але я вважаю, що це контрольований ризик, оскільки визначення посад адаптуються до можливостей ШІ. Якийсь час це буде боляче, але не відрізнятиметься від того, як попередні покоління пристосувалися до інших ефективних способів економії праці. Ризик підробленого вмісту: Generative AI тепер може створювати масштабні артефакти людського рівня, включаючи підроблені та оманливі статті, есе, статті та відео. Дезінформація не є новою проблемою, але генеративний штучний інтелект дозволить масово виробляти її на рівнях, яких раніше не було. Це великий ризик, але ним можна керувати. Дійсно, фальшивий вміст можна ідентифікувати або (а) шляхом застосування технологій водяних знаків, які ідентифікують вміст штучного інтелекту під час створення, або (б) шляхом застосування контрзаходів на основі штучного інтелекту, які навчені ідентифікувати контент штучного інтелекту після факту. Ризик розумних машин: багато дослідників побоюються, що системи штучного інтелекту розширяться до такого рівня, коли вони розвиватимуть власну «волю» та вдаватимуться до дій, які суперечать інтересам людей або навіть загрожуватимуть людському існуванню. Я думаю, що це реальний довгостроковий ризик. Насправді я кілька років тому написав «картинку для дорослих» під назвою Arrival Mind, яка досліджувала цю небезпеку простими словами. Проте я не вірю, що поточні системи штучного інтелекту спонтанно стануть розумними без серйозних структурних удосконалень у технології. Отже, хоча це реальна небезпека для галузі, на якій слід зосередитися, це не найактуальніший ризик, який я бачу попереду.

На мій погляд, більшість експертів з безпеки, включно з політиками, помиляються в тому, що вони розглядають генеративний штучний інтелект переважно як традиційний широкомасштабний інструмент для створення контенту. Хоча технологія достатньо вправна для створення статей, зображень і відео, більша проблема полягає в тому, що генеративний штучний інтелект випустить на волю абсолютно нову форму медіа, яка є високо персоналізованою, повністю інтерактивною та потенційно набагато більш маніпулятивною, ніж будь-яка форма цільового контенту, яка ми стикалися досі.

Ласкаво просимо в епоху інтерактивних генеративних медіа

Найнебезпечніша особливість генеративного штучного інтелекту полягає не в тому, що він може створювати широкомасштабні фейкові статті та відео, а в тому, що він може створювати персоналізований інтерактивний та адаптивний вміст для окремих користувачів, щоб максимально переконувати. У цьому контексті інтерактивні генеративні медіа можна визначити як цільовий рекламний матеріал, створений або модифікований у режимі реального часу для максимального впливу на цілі на основі особистих даних користувача-одержувача.

Це перетворить «цілеспрямовані кампанії впливу», націлені на широку демографію, на самонавідні ракети, які можуть націлитися на окремих людей для досягнення максимального ефекту. І, як описано нижче, ця нова форма медіа, ймовірно, буде представлена ​​у двох потужних формах: «цільова генеративна реклама» та «цільовий вплив на спілкування».

Подія

Перетворення 2023

Чому генеративний ШІ небезпечніший, ніж ви думаєте

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

Останніми місяцями багато написано про небезпеку генеративного штучного інтелекту, але все, що я бачив, зводиться до трьох простих аргументів, жоден із яких не відображає найбільшого ризику, який, на мою думку, загрожує нам. Перш ніж ми перейдемо до цієї прихованої небезпеки генеративного штучного інтелекту, буде корисно узагальнити загальні застереження, які поширюються останнім часом:

Ризик для робочих місць: Generative AI тепер може створювати робочі продукти людського рівня, починаючи від художніх робіт і есе до наукових звітів. Це матиме величезний вплив на ринок праці, але я вважаю, що це контрольований ризик, оскільки визначення посад адаптуються до можливостей ШІ. Якийсь час це буде боляче, але не відрізнятиметься від того, як попередні покоління пристосувалися до інших ефективних способів економії праці. Ризик підробленого вмісту: Generative AI тепер може створювати масштабні артефакти людського рівня, включаючи підроблені та оманливі статті, есе, статті та відео. Дезінформація не є новою проблемою, але генеративний штучний інтелект дозволить масово виробляти її на рівнях, яких раніше не було. Це великий ризик, але ним можна керувати. Дійсно, фальшивий вміст можна ідентифікувати або (а) шляхом застосування технологій водяних знаків, які ідентифікують вміст штучного інтелекту під час створення, або (б) шляхом застосування контрзаходів на основі штучного інтелекту, які навчені ідентифікувати контент штучного інтелекту після факту. Ризик розумних машин: багато дослідників побоюються, що системи штучного інтелекту розширяться до такого рівня, коли вони розвиватимуть власну «волю» та вдаватимуться до дій, які суперечать інтересам людей або навіть загрожуватимуть людському існуванню. Я думаю, що це реальний довгостроковий ризик. Насправді я кілька років тому написав «картинку для дорослих» під назвою Arrival Mind, яка досліджувала цю небезпеку простими словами. Проте я не вірю, що поточні системи штучного інтелекту спонтанно стануть розумними без серйозних структурних удосконалень у технології. Отже, хоча це реальна небезпека для галузі, на якій слід зосередитися, це не найактуальніший ризик, який я бачу попереду.

На мій погляд, більшість експертів з безпеки, включно з політиками, помиляються в тому, що вони розглядають генеративний штучний інтелект переважно як традиційний широкомасштабний інструмент для створення контенту. Хоча технологія достатньо вправна для створення статей, зображень і відео, більша проблема полягає в тому, що генеративний штучний інтелект випустить на волю абсолютно нову форму медіа, яка є високо персоналізованою, повністю інтерактивною та потенційно набагато більш маніпулятивною, ніж будь-яка форма цільового контенту, яка ми стикалися досі.

Ласкаво просимо в епоху інтерактивних генеративних медіа

Найнебезпечніша особливість генеративного штучного інтелекту полягає не в тому, що він може створювати широкомасштабні фейкові статті та відео, а в тому, що він може створювати персоналізований інтерактивний та адаптивний вміст для окремих користувачів, щоб максимально переконувати. У цьому контексті інтерактивні генеративні медіа можна визначити як цільовий рекламний матеріал, створений або модифікований у режимі реального часу для максимального впливу на цілі на основі особистих даних користувача-одержувача.

Це перетворить «цілеспрямовані кампанії впливу», націлені на широку демографію, на самонавідні ракети, які можуть націлитися на окремих людей для досягнення максимального ефекту. І, як описано нижче, ця нова форма медіа, ймовірно, буде представлена ​​у двох потужних формах: «цільова генеративна реклама» та «цільовий вплив на спілкування».

Подія

Перетворення 2023

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow