Как ответственно создавать, выпускать и делиться генеративным ИИ
Группа из 10 компаний, в том числе OpenAI, TikTok, Adobe, BBC и приложение для знакомств Bumble, подписали новый набор рекомендаций по ответственному созданию, созданию и распространению пользовательского контента.
В рекомендациях содержится призыв как к разработчикам технологии, таким как OpenAI, так и к создателям и распространителям синтетических медиа, созданных в цифровом виде, таким как BBC и TikTok, быть более прозрачными в отношении того, что технология может и чего не может сделать. и раскрывать, когда люди могут взаимодействовать с этим типом контента.
Добровольные рекомендации были разработаны Партнерством по ИИ (PAI), некоммерческой организацией, занимающейся исследованиями ИИ, в консультации с более чем 50 организациями. Партнерами PAI являются крупные технологические компании, а также академические организации, организации гражданского общества и СМИ. В первую десятку компаний, которые следуют рекомендациям, входят Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness и стартапы синтетических медиа Synthesia, D-ID и Respeecher.
"Мы хотим, чтобы синтетические медиа использовались не для того, чтобы навредить, лишить прав или прав, а чтобы поддержать творчество, обмен знаниями и комментарии", – говорит Клэр Лейбович, руководитель отдела искусственного интеллекта и целостности медиа в PAI.
Одним из наиболее важных элементов руководства является соглашение между компаниями о включении и поиске способов уведомления пользователей, когда они взаимодействуют с чем-то, созданным с помощью ИИ. Это могут быть водяные знаки или заявления об отказе от ответственности, а также отслеживаемые элементы в обучающих данных или метаданных модели ИИ.
Регламент по ограничению потенциального вреда от генеративного ИИ все еще не реализован. Европейский Союз, например, пытается включить генеративный ИИ в свой будущий закон об ИИ, Закон об ИИ, который может включать такие вещи, как раскрытие информации о взаимодействии людей с дипфейками, и требовать от компаний соблюдения определенных требований прозрачности.
Хотя сейчас генеративный ИИ — это дикий запад, говорит Генри Айдер, эксперт по генеративному ИИ, принимавший участие в разработке рекомендаций, он надеется, что они предложат ключевые моменты, на которые компаниям следует обратить внимание при интеграции технологий в свою деятельность. .
Важно повысить осведомленность и начать разговор об ответственном подходе к синтетическим медиа, – говорит Хани Фарид, профессор Калифорнийского университета в Беркли, изучающий синтетические медиа и дипфейки.
Но «добровольные рекомендации и принципы редко работают», — добавляет он.
В то время как такие компании, как OpenAI, могут попытаться защитить создаваемые ими технологии, такие как ChatGPT и DALL-E, другие игроки, которые не являются участниками соглашения, такие как Stability.AI, стартап, создавший образ с открытым исходным кодом, Создать модель стабильного диффузионного ИИ — может позволить людям создавать неприемлемые изображения и дипфейки.
"Если мы действительно хотим решить эти проблемы, мы должны быть серьезными", – говорит Фарид. Например, он хочет, чтобы поставщики облачных услуг и магазины приложений, такие как те, которыми управляют Amazon, Microsoft, Google и Apple, все из которых являются частью IAP, запретили услуги, которые позволяют людям использовать технологию дипфейков с целью создания -согласованные половые отношения. образы. По его словам, водяные знаки на всем контенте, созданном ИИ, также должны быть обязательными, а не добровольными.
Еще одна важная вещь, которой не хватает, — это то, как сделать сами системы ИИ более ответственными, — говорит Илке Демир, главный научный сотрудник Intel, возглавляющий работу компании по ответственной разработке ИИ. Генеративный ИИ. Это может включать более подробную информацию о том, как была обучена модель ИИ, какие данные в нее вошли и есть ли предвзятости в генеративных моделях ИИ.
В рекомендациях не упоминается об отсутствии токсичного контента в наборе данных генеративных моделей ИИ. «Это один из самых серьезных способов нанести ущерб этим системам», — говорит Дэниел Лойфер, старший политический аналитик группы цифровых прав Access Now.
Руководство включает список вреда, который эти компании хотят предотвратить, например, мошенничество, домогательства и...
Группа из 10 компаний, в том числе OpenAI, TikTok, Adobe, BBC и приложение для знакомств Bumble, подписали новый набор рекомендаций по ответственному созданию, созданию и распространению пользовательского контента.
В рекомендациях содержится призыв как к разработчикам технологии, таким как OpenAI, так и к создателям и распространителям синтетических медиа, созданных в цифровом виде, таким как BBC и TikTok, быть более прозрачными в отношении того, что технология может и чего не может сделать. и раскрывать, когда люди могут взаимодействовать с этим типом контента.
Добровольные рекомендации были разработаны Партнерством по ИИ (PAI), некоммерческой организацией, занимающейся исследованиями ИИ, в консультации с более чем 50 организациями. Партнерами PAI являются крупные технологические компании, а также академические организации, организации гражданского общества и СМИ. В первую десятку компаний, которые следуют рекомендациям, входят Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness и стартапы синтетических медиа Synthesia, D-ID и Respeecher.
"Мы хотим, чтобы синтетические медиа использовались не для того, чтобы навредить, лишить прав или прав, а чтобы поддержать творчество, обмен знаниями и комментарии", – говорит Клэр Лейбович, руководитель отдела искусственного интеллекта и целостности медиа в PAI.
Одним из наиболее важных элементов руководства является соглашение между компаниями о включении и поиске способов уведомления пользователей, когда они взаимодействуют с чем-то, созданным с помощью ИИ. Это могут быть водяные знаки или заявления об отказе от ответственности, а также отслеживаемые элементы в обучающих данных или метаданных модели ИИ.
Регламент по ограничению потенциального вреда от генеративного ИИ все еще не реализован. Европейский Союз, например, пытается включить генеративный ИИ в свой будущий закон об ИИ, Закон об ИИ, который может включать такие вещи, как раскрытие информации о взаимодействии людей с дипфейками, и требовать от компаний соблюдения определенных требований прозрачности.
Хотя сейчас генеративный ИИ — это дикий запад, говорит Генри Айдер, эксперт по генеративному ИИ, принимавший участие в разработке рекомендаций, он надеется, что они предложат ключевые моменты, на которые компаниям следует обратить внимание при интеграции технологий в свою деятельность. .
Важно повысить осведомленность и начать разговор об ответственном подходе к синтетическим медиа, – говорит Хани Фарид, профессор Калифорнийского университета в Беркли, изучающий синтетические медиа и дипфейки.
Но «добровольные рекомендации и принципы редко работают», — добавляет он.
В то время как такие компании, как OpenAI, могут попытаться защитить создаваемые ими технологии, такие как ChatGPT и DALL-E, другие игроки, которые не являются участниками соглашения, такие как Stability.AI, стартап, создавший образ с открытым исходным кодом, Создать модель стабильного диффузионного ИИ — может позволить людям создавать неприемлемые изображения и дипфейки.
"Если мы действительно хотим решить эти проблемы, мы должны быть серьезными", – говорит Фарид. Например, он хочет, чтобы поставщики облачных услуг и магазины приложений, такие как те, которыми управляют Amazon, Microsoft, Google и Apple, все из которых являются частью IAP, запретили услуги, которые позволяют людям использовать технологию дипфейков с целью создания -согласованные половые отношения. образы. По его словам, водяные знаки на всем контенте, созданном ИИ, также должны быть обязательными, а не добровольными.
Еще одна важная вещь, которой не хватает, — это то, как сделать сами системы ИИ более ответственными, — говорит Илке Демир, главный научный сотрудник Intel, возглавляющий работу компании по ответственной разработке ИИ. Генеративный ИИ. Это может включать более подробную информацию о том, как была обучена модель ИИ, какие данные в нее вошли и есть ли предвзятости в генеративных моделях ИИ.
В рекомендациях не упоминается об отсутствии токсичного контента в наборе данных генеративных моделей ИИ. «Это один из самых серьезных способов нанести ущерб этим системам», — говорит Дэниел Лойфер, старший политический аналитик группы цифровых прав Access Now.
Руководство включает список вреда, который эти компании хотят предотвратить, например, мошенничество, домогательства и...
What's Your Reaction?