Как ответственно создавать, выпускать и делиться генеративным ИИ

Группа из 10 компаний, в том числе OpenAI, TikTok, Adobe, BBC и приложение для знакомств Bumble, подписали новый набор рекомендаций по ответственному созданию, созданию и распространению пользовательского контента.

В рекомендациях содержится призыв как к разработчикам технологии, таким как OpenAI, так и к создателям и распространителям синтетических медиа, созданных в цифровом виде, таким как BBC и TikTok, быть более прозрачными в отношении того, что технология может и чего не может сделать. и раскрывать, когда люди могут взаимодействовать с этим типом контента.

Добровольные рекомендации были разработаны Партнерством по ИИ (PAI), некоммерческой организацией, занимающейся исследованиями ИИ, в консультации с более чем 50 организациями. Партнерами PAI являются крупные технологические компании, а также академические организации, организации гражданского общества и СМИ. В первую десятку компаний, которые следуют рекомендациям, входят Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness и стартапы синтетических медиа Synthesia, D-ID и Respeecher.

"Мы хотим, чтобы синтетические медиа использовались не для того, чтобы навредить, лишить прав или прав, а чтобы поддержать творчество, обмен знаниями и комментарии", – говорит Клэр Лейбович, руководитель отдела искусственного интеллекта и целостности медиа в PAI.

Одним из наиболее важных элементов руководства является соглашение между компаниями о включении и поиске способов уведомления пользователей, когда они взаимодействуют с чем-то, созданным с помощью ИИ. Это могут быть водяные знаки или заявления об отказе от ответственности, а также отслеживаемые элементы в обучающих данных или метаданных модели ИИ.

Регламент по ограничению потенциального вреда от генеративного ИИ все еще не реализован. Европейский Союз, например, пытается включить генеративный ИИ в свой будущий закон об ИИ, Закон об ИИ, который может включать такие вещи, как раскрытие информации о взаимодействии людей с дипфейками, и требовать от компаний соблюдения определенных требований прозрачности.

Хотя сейчас генеративный ИИ — это дикий запад, говорит Генри Айдер, эксперт по генеративному ИИ, принимавший участие в разработке рекомендаций, он надеется, что они предложат ключевые моменты, на которые компаниям следует обратить внимание при интеграции технологий в свою деятельность. .

Важно повысить осведомленность и начать разговор об ответственном подходе к синтетическим медиа, – говорит Хани Фарид, профессор Калифорнийского университета в Беркли, изучающий синтетические медиа и дипфейки.

Но «добровольные рекомендации и принципы редко работают», — добавляет он.

В то время как такие компании, как OpenAI, могут попытаться защитить создаваемые ими технологии, такие как ChatGPT и DALL-E, другие игроки, которые не являются участниками соглашения, такие как Stability.AI, стартап, создавший образ с открытым исходным кодом, Создать модель стабильного диффузионного ИИ — может позволить людям создавать неприемлемые изображения и дипфейки.

"Если мы действительно хотим решить эти проблемы, мы должны быть серьезными", – говорит Фарид. Например, он хочет, чтобы поставщики облачных услуг и магазины приложений, такие как те, которыми управляют Amazon, Microsoft, Google и Apple, все из которых являются частью IAP, запретили услуги, которые позволяют людям использовать технологию дипфейков с целью создания -согласованные половые отношения. образы. По его словам, водяные знаки на всем контенте, созданном ИИ, также должны быть обязательными, а не добровольными.

Еще одна важная вещь, которой не хватает, — это то, как сделать сами системы ИИ более ответственными, — говорит Илке Демир, главный научный сотрудник Intel, возглавляющий работу компании по ответственной разработке ИИ. Генеративный ИИ. Это может включать более подробную информацию о том, как была обучена модель ИИ, какие данные в нее вошли и есть ли предвзятости в генеративных моделях ИИ.

В рекомендациях не упоминается об отсутствии токсичного контента в наборе данных генеративных моделей ИИ. «Это один из самых серьезных способов нанести ущерб этим системам», — говорит Дэниел Лойфер, старший политический аналитик группы цифровых прав Access Now.

Руководство включает список вреда, который эти компании хотят предотвратить, например, мошенничество, домогательства и...

Как ответственно создавать, выпускать и делиться генеративным ИИ

Группа из 10 компаний, в том числе OpenAI, TikTok, Adobe, BBC и приложение для знакомств Bumble, подписали новый набор рекомендаций по ответственному созданию, созданию и распространению пользовательского контента.

В рекомендациях содержится призыв как к разработчикам технологии, таким как OpenAI, так и к создателям и распространителям синтетических медиа, созданных в цифровом виде, таким как BBC и TikTok, быть более прозрачными в отношении того, что технология может и чего не может сделать. и раскрывать, когда люди могут взаимодействовать с этим типом контента.

Добровольные рекомендации были разработаны Партнерством по ИИ (PAI), некоммерческой организацией, занимающейся исследованиями ИИ, в консультации с более чем 50 организациями. Партнерами PAI являются крупные технологические компании, а также академические организации, организации гражданского общества и СМИ. В первую десятку компаний, которые следуют рекомендациям, входят Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness и стартапы синтетических медиа Synthesia, D-ID и Respeecher.

"Мы хотим, чтобы синтетические медиа использовались не для того, чтобы навредить, лишить прав или прав, а чтобы поддержать творчество, обмен знаниями и комментарии", – говорит Клэр Лейбович, руководитель отдела искусственного интеллекта и целостности медиа в PAI.

Одним из наиболее важных элементов руководства является соглашение между компаниями о включении и поиске способов уведомления пользователей, когда они взаимодействуют с чем-то, созданным с помощью ИИ. Это могут быть водяные знаки или заявления об отказе от ответственности, а также отслеживаемые элементы в обучающих данных или метаданных модели ИИ.

Регламент по ограничению потенциального вреда от генеративного ИИ все еще не реализован. Европейский Союз, например, пытается включить генеративный ИИ в свой будущий закон об ИИ, Закон об ИИ, который может включать такие вещи, как раскрытие информации о взаимодействии людей с дипфейками, и требовать от компаний соблюдения определенных требований прозрачности.

Хотя сейчас генеративный ИИ — это дикий запад, говорит Генри Айдер, эксперт по генеративному ИИ, принимавший участие в разработке рекомендаций, он надеется, что они предложат ключевые моменты, на которые компаниям следует обратить внимание при интеграции технологий в свою деятельность. .

Важно повысить осведомленность и начать разговор об ответственном подходе к синтетическим медиа, – говорит Хани Фарид, профессор Калифорнийского университета в Беркли, изучающий синтетические медиа и дипфейки.

Но «добровольные рекомендации и принципы редко работают», — добавляет он.

В то время как такие компании, как OpenAI, могут попытаться защитить создаваемые ими технологии, такие как ChatGPT и DALL-E, другие игроки, которые не являются участниками соглашения, такие как Stability.AI, стартап, создавший образ с открытым исходным кодом, Создать модель стабильного диффузионного ИИ — может позволить людям создавать неприемлемые изображения и дипфейки.

"Если мы действительно хотим решить эти проблемы, мы должны быть серьезными", – говорит Фарид. Например, он хочет, чтобы поставщики облачных услуг и магазины приложений, такие как те, которыми управляют Amazon, Microsoft, Google и Apple, все из которых являются частью IAP, запретили услуги, которые позволяют людям использовать технологию дипфейков с целью создания -согласованные половые отношения. образы. По его словам, водяные знаки на всем контенте, созданном ИИ, также должны быть обязательными, а не добровольными.

Еще одна важная вещь, которой не хватает, — это то, как сделать сами системы ИИ более ответственными, — говорит Илке Демир, главный научный сотрудник Intel, возглавляющий работу компании по ответственной разработке ИИ. Генеративный ИИ. Это может включать более подробную информацию о том, как была обучена модель ИИ, какие данные в нее вошли и есть ли предвзятости в генеративных моделях ИИ.

В рекомендациях не упоминается об отсутствии токсичного контента в наборе данных генеративных моделей ИИ. «Это один из самых серьезных способов нанести ущерб этим системам», — говорит Дэниел Лойфер, старший политический аналитик группы цифровых прав Access Now.

Руководство включает список вреда, который эти компании хотят предотвратить, например, мошенничество, домогательства и...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow