Stability AI планує дозволити художникам відмовитися від Imaging Stable Diffusion 3

ШІ- згенероване зображення людини, яка залишає будівлю.Збільшити / Створене штучним інтелектом зображення людини, яка залишає будівлю, таким чином виходячи з традиційних вертикальних жалюзі. Арс-Техніка

У середу Stability AI оголосила, що дозволить художникам видаляти свої роботи з навчального набору даних для майбутнього випуску Stable Diffusion 3.0. Цей крок стався після того, як група захисту прав художників під назвою Spawning написала у Twitter, що Stability AI виконуватиме запити на скасування підписки, зібрані на її веб-сайті Have I Been Trained. Однак деталі того, як буде реалізовано план, залишаються неповними та незрозумілими.

Коротко підсумовуючи, Stable Diffusion, модель синтезу зображень штучного інтелекту, набула здатності генерувати зображення, «навчаючись» із великого набору даних зображень, отриманих з Інтернету, без консультації з правовласниками щодо дозволу. Деякі художники незадоволені цим, оскільки Stable Diffusion генерує зображення, які потенційно можуть конкурувати з людьми-митцями в необмеженій кількості. Ми стежимо за етичними дебатами з моменту публічного запуску Stable Diffusion у серпні 2022 року.

Щоб зрозуміти, як має працювати система дезактивації Stable Diffusion 3, ми створили обліковий запис на сайті Have I Been Trained і завантажили зображення аркадного флаєра Atari Pong (яке нам не належало). Після того, як пошукова система сайту знайшла збіги в базі даних зображень Large-scale Artificial Intelligence Open Network (LAION), ми клацнули правою кнопкою миші на кількох мініатюрах окремо та вибрали «Вимкнути це зображення» в контекстному меню.

Після позначення ми могли бачити зображення у списку зображень, які ми позначили як такі, що вимикаються. Ми не виявили жодних спроб підтвердити нашу особу чи будь-яких юридичних перевірок зображень, які ми нібито "відключили".

Знімок екрана Збільшити / Скріншот «вимкнених» зображень, яких немає на веб-сайті Have I Been Trained. Зображення з піктограмами прапорців були "відключені". Арс-Техніка

Інші недоліки: щоб видалити зображення з навчання, воно має бути в наборі даних LAION і доступне для перегляду на сайті Have I Been Trained. Наразі немає способу вимкнути великі групи зображень або багато копій одного зображення, які можуть бути в наборі даних.

Система в тому вигляді, в якому вона реалізована, викликає запитання, які відгукуються в стрічках оголошень у Twitter і YouTube. Наприклад, якби Stability AI, LAION або Spawning доклали величезних зусиль для юридичної перевірки права власності, щоб контролювати, хто відмовляється від відеоматеріалів, хто заплатить за роботу? Чи довірятимуть люди цим організаціям особисту інформацію...

Stability AI планує дозволити художникам відмовитися від Imaging Stable Diffusion 3
ШІ- згенероване зображення людини, яка залишає будівлю.Збільшити / Створене штучним інтелектом зображення людини, яка залишає будівлю, таким чином виходячи з традиційних вертикальних жалюзі. Арс-Техніка

У середу Stability AI оголосила, що дозволить художникам видаляти свої роботи з навчального набору даних для майбутнього випуску Stable Diffusion 3.0. Цей крок стався після того, як група захисту прав художників під назвою Spawning написала у Twitter, що Stability AI виконуватиме запити на скасування підписки, зібрані на її веб-сайті Have I Been Trained. Однак деталі того, як буде реалізовано план, залишаються неповними та незрозумілими.

Коротко підсумовуючи, Stable Diffusion, модель синтезу зображень штучного інтелекту, набула здатності генерувати зображення, «навчаючись» із великого набору даних зображень, отриманих з Інтернету, без консультації з правовласниками щодо дозволу. Деякі художники незадоволені цим, оскільки Stable Diffusion генерує зображення, які потенційно можуть конкурувати з людьми-митцями в необмеженій кількості. Ми стежимо за етичними дебатами з моменту публічного запуску Stable Diffusion у серпні 2022 року.

Щоб зрозуміти, як має працювати система дезактивації Stable Diffusion 3, ми створили обліковий запис на сайті Have I Been Trained і завантажили зображення аркадного флаєра Atari Pong (яке нам не належало). Після того, як пошукова система сайту знайшла збіги в базі даних зображень Large-scale Artificial Intelligence Open Network (LAION), ми клацнули правою кнопкою миші на кількох мініатюрах окремо та вибрали «Вимкнути це зображення» в контекстному меню.

Після позначення ми могли бачити зображення у списку зображень, які ми позначили як такі, що вимикаються. Ми не виявили жодних спроб підтвердити нашу особу чи будь-яких юридичних перевірок зображень, які ми нібито "відключили".

Знімок екрана Збільшити / Скріншот «вимкнених» зображень, яких немає на веб-сайті Have I Been Trained. Зображення з піктограмами прапорців були "відключені". Арс-Техніка

Інші недоліки: щоб видалити зображення з навчання, воно має бути в наборі даних LAION і доступне для перегляду на сайті Have I Been Trained. Наразі немає способу вимкнути великі групи зображень або багато копій одного зображення, які можуть бути в наборі даних.

Система в тому вигляді, в якому вона реалізована, викликає запитання, які відгукуються в стрічках оголошень у Twitter і YouTube. Наприклад, якби Stability AI, LAION або Spawning доклали величезних зусиль для юридичної перевірки права власності, щоб контролювати, хто відмовляється від відеоматеріалів, хто заплатить за роботу? Чи довірятимуть люди цим організаціям особисту інформацію...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow