Stability AI honorera les demandes de désinscription des artistes pour Stable Diffusion 3

Découvrez toutes les sessions à la demande du Sommet sur la sécurité intelligente ici.

Spawning, une organisation qui a été lancée en septembre pour créer des outils permettant aux artistes de s'approprier leurs données de formation, a annoncé hier que Stability AI honorerait les demandes des artistes de se retirer de la formation de Stable Diffusion 3, censée commencer dans quelques semaines. Les artistes peuvent demander leur désinscription sur haveibeentrained.com.

Selon Mat Dryhurst, basé à Berlin, qui a fondé Spawning en septembre avec sa femme, la musicienne Holly Herndon, l'organisation discute avec Stability AI et LAION, un ensemble de données open source à but non lucratif qui fait partie de Stability, depuis des mois .

"Ils ont été immédiatement réactifs", a déclaré Dryhurst à VentureBeat. «Les deux organisations ont été transparentes sur les données depuis le début, ce qui, je pense, explique peut-être pourquoi elles font l'objet d'un examen disproportionné. Nous abordons ce problème comme un problème à résoudre, et ils nous ont soutenus et ont plein d'idées."

Depuis la sortie de DALL-E 2 en avril, les industries créatives ne cessent de poser des questions sur la propriété des images d'art IA. En août dernier, Bradford Newman, qui dirige la pratique de l'apprentissage automatique (ML) et de l'intelligence artificielle (IA) du cabinet d'avocats mondial Baker McKenzie, dans son bureau de Palo Alto, a donné la réponse à la question "Qui possède les images DALL-E ?" est loin d'être clair. Et, a-t-il souligné, les retombées juridiques sont inévitables.

Événement

Sommet sur la sécurité intelligente à la demande

Découvrez le rôle essentiel de l'IA et du ML dans la cybersécurité et des études de cas spécifiques à l'industrie. Regardez les sessions à la demande dès aujourd'hui.

Regardez ici

Lorsque Stable Diffusion est sorti en open source en août, il y avait encore plus de questions sur la formation du modèle. Et il y a quelques jours à peine, une nouvelle étude (pas encore évaluée par des pairs) a été publiée, soulevant de nouvelles préoccupations. Elle a identifié des cas où des modèles générateurs d'images, y compris Stable Diffusion, ont été copiés à partir de données Internet publiques, y compris des images protégées par des droits d'auteur, sur lesquelles ils ont été entraînés.

Stability AI répond aux problèmes de propriété des œuvres d'art

Emad Mostaque, fondateur et PDG de Stability AI, a souligné sur Twitter que Spawning proposerait également des demandes d'opt-in — pour les artistes qui veulent que leurs images soient incluses dans les données d'entraînement.

"Techniquement, ce sont des balises pour LAION et coordonnées autour de cela", a-t-il tweeté. "C'est en fait assez difficile en raison de la taille (par exemple, que se passe-t-il si votre image est sur un site d'actualités ?) Explorer d'autres mécanismes d'attribution, etc., accueillez les commentaires constructifs."

Mostaque a également tenu à souligner que Stability AI ne prend pas cette mesure pour des raisons juridiques ou éthiques anticipées. "Nous pensons qu'il n'y a aucune raison légale à cela, mais nous pensons que différents ensembles de données de modèles seront intéressants et aimerions voir des différentiels de sortie", a-t-il tweeté. "Humide...

Stability AI honorera les demandes de désinscription des artistes pour Stable Diffusion 3

Découvrez toutes les sessions à la demande du Sommet sur la sécurité intelligente ici.

Spawning, une organisation qui a été lancée en septembre pour créer des outils permettant aux artistes de s'approprier leurs données de formation, a annoncé hier que Stability AI honorerait les demandes des artistes de se retirer de la formation de Stable Diffusion 3, censée commencer dans quelques semaines. Les artistes peuvent demander leur désinscription sur haveibeentrained.com.

Selon Mat Dryhurst, basé à Berlin, qui a fondé Spawning en septembre avec sa femme, la musicienne Holly Herndon, l'organisation discute avec Stability AI et LAION, un ensemble de données open source à but non lucratif qui fait partie de Stability, depuis des mois .

"Ils ont été immédiatement réactifs", a déclaré Dryhurst à VentureBeat. «Les deux organisations ont été transparentes sur les données depuis le début, ce qui, je pense, explique peut-être pourquoi elles font l'objet d'un examen disproportionné. Nous abordons ce problème comme un problème à résoudre, et ils nous ont soutenus et ont plein d'idées."

Depuis la sortie de DALL-E 2 en avril, les industries créatives ne cessent de poser des questions sur la propriété des images d'art IA. En août dernier, Bradford Newman, qui dirige la pratique de l'apprentissage automatique (ML) et de l'intelligence artificielle (IA) du cabinet d'avocats mondial Baker McKenzie, dans son bureau de Palo Alto, a donné la réponse à la question "Qui possède les images DALL-E ?" est loin d'être clair. Et, a-t-il souligné, les retombées juridiques sont inévitables.

Événement

Sommet sur la sécurité intelligente à la demande

Découvrez le rôle essentiel de l'IA et du ML dans la cybersécurité et des études de cas spécifiques à l'industrie. Regardez les sessions à la demande dès aujourd'hui.

Regardez ici

Lorsque Stable Diffusion est sorti en open source en août, il y avait encore plus de questions sur la formation du modèle. Et il y a quelques jours à peine, une nouvelle étude (pas encore évaluée par des pairs) a été publiée, soulevant de nouvelles préoccupations. Elle a identifié des cas où des modèles générateurs d'images, y compris Stable Diffusion, ont été copiés à partir de données Internet publiques, y compris des images protégées par des droits d'auteur, sur lesquelles ils ont été entraînés.

Stability AI répond aux problèmes de propriété des œuvres d'art

Emad Mostaque, fondateur et PDG de Stability AI, a souligné sur Twitter que Spawning proposerait également des demandes d'opt-in — pour les artistes qui veulent que leurs images soient incluses dans les données d'entraînement.

"Techniquement, ce sont des balises pour LAION et coordonnées autour de cela", a-t-il tweeté. "C'est en fait assez difficile en raison de la taille (par exemple, que se passe-t-il si votre image est sur un site d'actualités ?) Explorer d'autres mécanismes d'attribution, etc., accueillez les commentaires constructifs."

Mostaque a également tenu à souligner que Stability AI ne prend pas cette mesure pour des raisons juridiques ou éthiques anticipées. "Nous pensons qu'il n'y a aucune raison légale à cela, mais nous pensons que différents ensembles de données de modèles seront intéressants et aimerions voir des différentiels de sortie", a-t-il tweeté. "Humide...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow