Stability AI wird Opt-out-Anfragen von Künstlern für Stable Diffusion 3 berücksichtigen

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Spawning, eine Organisation, die im September gegründet wurde, um Tools für Künstler zu entwickeln, mit denen sie ihre Trainingsdaten in Besitz nehmen können, gab gestern bekannt, dass Stability AI den Anfragen von Künstlern nachkommen wird, sich vom Stable Diffusion 3-Training abzumelden, das in ein paar Wochen beginnen soll . Künstler können sich unter haveibeentrained.com abmelden.

Laut dem Berliner Mat Dryhurst, der Spawning im September zusammen mit seiner Frau, der Musikerin Holly Herndon, gegründet hat, spricht die Organisation seit Monaten mit Stability AI und LAION, einem gemeinnützigen Open-Source-Datensatz, der Teil von Stability ist.

p>

„Sie reagierten sofort“, sagte Dryhurst gegenüber VentureBeat. „Beide Organisationen waren von Anfang an transparent in Bezug auf die Daten, was meiner Meinung nach erklären könnte, warum sie einer unverhältnismäßigen Prüfung unterzogen werden. Wir betrachten dies als ein Problem, das es zu lösen gilt, und sie haben uns unterstützt und voller Ideen."

Seit der Veröffentlichung von DALL-E 2 im April stellen Kreativbranchen Fragen zum Eigentum an KI-Kunstbildern. Im vergangenen August gab Bradford Newman, der in seinem Büro in Palo Alto die Praxis für maschinelles Lernen (ML) und künstliche Intelligenz (KI) der globalen Anwaltskanzlei Baker McKenzie leitet, die Antwort auf die Frage „Wem gehören die DALL-E-Bilder?“. ist alles andere als klar. Und er wies darauf hin, dass die rechtlichen Folgen unvermeidlich sind.

Vorfall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

Als Stable Diffusion im August als Open Source veröffentlicht wurde, gab es noch mehr Fragen zum Modelltraining. Und erst vor wenigen Tagen wurde eine neue Studie (noch nicht von Experten begutachtet) veröffentlicht, die neue Bedenken aufwirft. Sie hat Fälle identifiziert, in denen bilderzeugende Modelle, einschließlich Stable Diffusion, aus öffentlichen Internetdaten kopiert wurden, einschließlich urheberrechtlich geschützter Bilder, auf denen sie trainiert wurden.

Stabilitäts-KI behebt Probleme mit Eigentumsrechten an Kunstwerken

Emad Mostaque, Gründer und CEO von Stability AI, wies auf Twitter darauf hin, dass Spawning auch Opt-in-Anfragen anbieten wird – für Künstler, die ihre Bilder möchten die Trainingsdaten.

„Technisch gesehen sind dies Beacons für LAION und Koordinaten drumherum“, twitterte er. "Aufgrund der Größe ist es eigentlich ziemlich schwierig (z. B. was ist, wenn sich Ihr Bild auf einer Nachrichtenseite befindet?). Erkunden Sie andere Zuordnungsmechanismen usw., begrüßen Sie konstruktives Feedback."

Mostaque wollte auch darauf hinweisen, dass Stability AI diese Maßnahme aus erwarteten rechtlichen oder ethischen Gründen nicht ergreift. „Wir denken, dass es dafür keinen rechtlichen Grund gibt, aber wir denken, dass verschiedene Modelldatensätze interessant sein werden und würden gerne Leistungsunterschiede sehen“, twitterte er. "Nass...

Stability AI wird Opt-out-Anfragen von Künstlern für Stable Diffusion 3 berücksichtigen

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Spawning, eine Organisation, die im September gegründet wurde, um Tools für Künstler zu entwickeln, mit denen sie ihre Trainingsdaten in Besitz nehmen können, gab gestern bekannt, dass Stability AI den Anfragen von Künstlern nachkommen wird, sich vom Stable Diffusion 3-Training abzumelden, das in ein paar Wochen beginnen soll . Künstler können sich unter haveibeentrained.com abmelden.

Laut dem Berliner Mat Dryhurst, der Spawning im September zusammen mit seiner Frau, der Musikerin Holly Herndon, gegründet hat, spricht die Organisation seit Monaten mit Stability AI und LAION, einem gemeinnützigen Open-Source-Datensatz, der Teil von Stability ist.

p>

„Sie reagierten sofort“, sagte Dryhurst gegenüber VentureBeat. „Beide Organisationen waren von Anfang an transparent in Bezug auf die Daten, was meiner Meinung nach erklären könnte, warum sie einer unverhältnismäßigen Prüfung unterzogen werden. Wir betrachten dies als ein Problem, das es zu lösen gilt, und sie haben uns unterstützt und voller Ideen."

Seit der Veröffentlichung von DALL-E 2 im April stellen Kreativbranchen Fragen zum Eigentum an KI-Kunstbildern. Im vergangenen August gab Bradford Newman, der in seinem Büro in Palo Alto die Praxis für maschinelles Lernen (ML) und künstliche Intelligenz (KI) der globalen Anwaltskanzlei Baker McKenzie leitet, die Antwort auf die Frage „Wem gehören die DALL-E-Bilder?“. ist alles andere als klar. Und er wies darauf hin, dass die rechtlichen Folgen unvermeidlich sind.

Vorfall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

Als Stable Diffusion im August als Open Source veröffentlicht wurde, gab es noch mehr Fragen zum Modelltraining. Und erst vor wenigen Tagen wurde eine neue Studie (noch nicht von Experten begutachtet) veröffentlicht, die neue Bedenken aufwirft. Sie hat Fälle identifiziert, in denen bilderzeugende Modelle, einschließlich Stable Diffusion, aus öffentlichen Internetdaten kopiert wurden, einschließlich urheberrechtlich geschützter Bilder, auf denen sie trainiert wurden.

Stabilitäts-KI behebt Probleme mit Eigentumsrechten an Kunstwerken

Emad Mostaque, Gründer und CEO von Stability AI, wies auf Twitter darauf hin, dass Spawning auch Opt-in-Anfragen anbieten wird – für Künstler, die ihre Bilder möchten die Trainingsdaten.

„Technisch gesehen sind dies Beacons für LAION und Koordinaten drumherum“, twitterte er. "Aufgrund der Größe ist es eigentlich ziemlich schwierig (z. B. was ist, wenn sich Ihr Bild auf einer Nachrichtenseite befindet?). Erkunden Sie andere Zuordnungsmechanismen usw., begrüßen Sie konstruktives Feedback."

Mostaque wollte auch darauf hinweisen, dass Stability AI diese Maßnahme aus erwarteten rechtlichen oder ethischen Gründen nicht ergreift. „Wir denken, dass es dafür keinen rechtlichen Grund gibt, aber wir denken, dass verschiedene Modelldatensätze interessant sein werden und würden gerne Leistungsunterschiede sehen“, twitterte er. "Nass...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow