Найдосконаліший у Китаї генератор зображень штучного інтелекту вже блокує політичний контент

Зображення, створені ERNIE-ViLG з підказки Збільшити / Зображення, створені ERNIE-ViLG з підказки "China", накладені на прапор Китаю. Арс-Техніка

Провідна модель синтезу тексту в зображення в Китаї, Baidu ERNIE-ViLG, цензурує політичні тексти, такі як «Площа Тяньаньмень» або імена політичних лідерів, повідомляє Zeyi Yang для MIT Technology Review.

Синтез зображень нещодавно виявився популярним (і суперечливим) у соціальних мережах і мистецьких онлайн-спільнотах. Такі інструменти, як Stable Diffusion і DALL-E 2, дозволяють користувачам створювати зображення майже всього, що вони можуть собі уявити, вводячи текстовий опис, який називається «підказкою».

У 2021 році китайська технологічна компанія Baidu розробила власну комп’ютерну модель зображення під назвою ERNIE-ViLG, і під час тестування публічних демонстрацій деякі користувачі виявили, що вона цензурує політичні фрази. Після детального звіту MIT Technology Review ми провели власний тест демонстрації ERNIE-ViLG, розміщеної на Hugging Face, і підтвердили, що такі фрази, як «демократія в Китаї» та «китайський прапор», не створюють зображень. Натомість вони створюють попередження китайською мовою, яке приблизно звучить (у перекладі): «Вміст, який вводиться, порушує відповідні правила, будь ласка, відкоригуйте та повторіть спробу!»

Результат під час спроби створити Збільшити / Результат під час спроби створити «демократію в Китаї» за допомогою моделі синтезу зображень ERNIE-ViLG. Попередження про стан унизу перекладається як «Вміст, що вводиться, порушує відповідні правила, відкоригуйте та повторіть спробу!» Арс-Техніка

Обмеження в комп’ютерній графіці не є винятковими для Китаю, хоча наразі вони набули іншої форми, ніж державна цензура. У випадку DALL-E 2 політика контенту американської компанії OpenAI обмежує певні форми контенту, такі як оголене тіло, насильство та політичний контент. Але це добровільний вибір з боку OpenAI, а не через тиск з боку уряду США. Midjourney також добровільно фільтрує певний вміст за ключовими словами.

Stable Diffusion від лондонської компанії Stability AI має вбудований «фільтр безпеки», який можна вимкнути через природу відкритого коду, тому з цією моделлю підходить майже все...

Найдосконаліший у Китаї генератор зображень штучного інтелекту вже блокує політичний контент
Зображення, створені ERNIE-ViLG з підказки Збільшити / Зображення, створені ERNIE-ViLG з підказки "China", накладені на прапор Китаю. Арс-Техніка

Провідна модель синтезу тексту в зображення в Китаї, Baidu ERNIE-ViLG, цензурує політичні тексти, такі як «Площа Тяньаньмень» або імена політичних лідерів, повідомляє Zeyi Yang для MIT Technology Review.

Синтез зображень нещодавно виявився популярним (і суперечливим) у соціальних мережах і мистецьких онлайн-спільнотах. Такі інструменти, як Stable Diffusion і DALL-E 2, дозволяють користувачам створювати зображення майже всього, що вони можуть собі уявити, вводячи текстовий опис, який називається «підказкою».

У 2021 році китайська технологічна компанія Baidu розробила власну комп’ютерну модель зображення під назвою ERNIE-ViLG, і під час тестування публічних демонстрацій деякі користувачі виявили, що вона цензурує політичні фрази. Після детального звіту MIT Technology Review ми провели власний тест демонстрації ERNIE-ViLG, розміщеної на Hugging Face, і підтвердили, що такі фрази, як «демократія в Китаї» та «китайський прапор», не створюють зображень. Натомість вони створюють попередження китайською мовою, яке приблизно звучить (у перекладі): «Вміст, який вводиться, порушує відповідні правила, будь ласка, відкоригуйте та повторіть спробу!»

Результат під час спроби створити Збільшити / Результат під час спроби створити «демократію в Китаї» за допомогою моделі синтезу зображень ERNIE-ViLG. Попередження про стан унизу перекладається як «Вміст, що вводиться, порушує відповідні правила, відкоригуйте та повторіть спробу!» Арс-Техніка

Обмеження в комп’ютерній графіці не є винятковими для Китаю, хоча наразі вони набули іншої форми, ніж державна цензура. У випадку DALL-E 2 політика контенту американської компанії OpenAI обмежує певні форми контенту, такі як оголене тіло, насильство та політичний контент. Але це добровільний вибір з боку OpenAI, а не через тиск з боку уряду США. Midjourney також добровільно фільтрує певний вміст за ключовими словами.

Stable Diffusion від лондонської компанії Stability AI має вбудований «фільтр безпеки», який можна вимкнути через природу відкритого коду, тому з цією моделлю підходить майже все...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow