Как А.И. из накопленных обязательств Белого дома?

Семь основных ИИ. компании дали восемь обещаний о том, что они будут делать со своей технологией. Наш обозреватель оценивает их потенциальное влияние.

На этой неделе Белый дом объявил, что заручился "добровольными обещаниями" от семи руководителей ИИ. компаниям управлять рисками, связанными с искусственным интеллектом.

Заставить компании — Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI — принять что-либо — это шаг вперед. Среди них есть заклятые соперники с тонкими, но важными различиями в подходах к исследованиям и разработкам ИИ.

Meta, например, так стремится передать свои модели ИИ в руки разработчиков, что открыла доступ ко многим из них, сделав их код доступным для всех. Другие лаборатории, такие как Anthropic, придерживаются более осторожного подхода, выпуская свои технологии более ограниченным образом.

Но что на самом деле означают эти обязательства? И могут ли они сильно изменить методы работы компаний, занимающихся ИИ, учитывая, что они не подкреплены силой закона?

Учитывая потенциальные проблемы, связанные с ИИ. правила, детали имеют значение. Итак, давайте подробнее рассмотрим то, о чем здесь договорились, и оценим потенциальное влияние.

Обязательство 1. Компании обязуются проводить внутреннее и внешнее тестирование безопасности своих систем ИИ перед выпуском.

Каждая из этих ИИ-компаний уже проводит тестирование безопасности — то, что часто называют «красной командой». - своих моделей до их выпуска. С одной стороны, это не совсем новое обязательство. И это расплывчатое обещание. В нем не содержится много подробностей о типе требуемого тестирования или о том, кто будет его проводить.

В заявлении, сопровождающем обещания, Белый дом сообщил, что А.И. модели «будут частично сделаны независимыми экспертами» и будут сосредоточены на искусственном интеллекте. риски, «такие как биобезопасность и кибербезопасность, а также их более широкие социальные последствия».

Хорошая идея - заставить компании, занимающиеся искусственным интеллектом, публично взять на себя обязательство продолжать проводить этот тип тестирования и поощрять большую прозрачность в процессе тестирования. И есть определенные типы ИИ. риск — например, опасность того, что модели ИИ могут быть использованы для разработки биологического оружия, — которые правительственные и военные чиновники, вероятно, могут оценить лучше, чем корпорации.

Я хотел бы, чтобы ИИ промышленность согласовала стандартный набор тестов безопасности, таких как тесты «автономной репликации», которые Исследовательский центр выравнивания выполняет на моделях, предварительно выпущенных OpenAI и Anthropic. Я также хотел бы, чтобы федеральное правительство финансировало такие тесты, которые могут быть дорогими и требуют инженеров со значительными техническими знаниями. В настоящее время многие тесты безопасности финансируются и контролируются компаниями, что вызывает очевидные проблемы конфликта интересов.

Обязательство 2. Компании обязуются делиться информацией об управлении ИИ в отрасли, а также с правительствами, гражданским обществом и академическими кругами. риски.

Это обязательство также немного расплывчато. Некоторые из этих компаний уже публикуют информацию о своих моделях ИИ — обычно в научных статьях или сообщениях в блогах компаний. Некоторые из них, в том числе OpenAI и Anthropic, также публикуют документы, называемые «системными картами», в которых описываются шаги, которые они предприняли для повышения безопасности этих моделей.

Но они также иногда утаивали информацию, ссылаясь на соображения безопасности. Когда OpenAI выпустила свой последний ИИ....

Как А.И. из накопленных обязательств Белого дома?

Семь основных ИИ. компании дали восемь обещаний о том, что они будут делать со своей технологией. Наш обозреватель оценивает их потенциальное влияние.

На этой неделе Белый дом объявил, что заручился "добровольными обещаниями" от семи руководителей ИИ. компаниям управлять рисками, связанными с искусственным интеллектом.

Заставить компании — Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI — принять что-либо — это шаг вперед. Среди них есть заклятые соперники с тонкими, но важными различиями в подходах к исследованиям и разработкам ИИ.

Meta, например, так стремится передать свои модели ИИ в руки разработчиков, что открыла доступ ко многим из них, сделав их код доступным для всех. Другие лаборатории, такие как Anthropic, придерживаются более осторожного подхода, выпуская свои технологии более ограниченным образом.

Но что на самом деле означают эти обязательства? И могут ли они сильно изменить методы работы компаний, занимающихся ИИ, учитывая, что они не подкреплены силой закона?

Учитывая потенциальные проблемы, связанные с ИИ. правила, детали имеют значение. Итак, давайте подробнее рассмотрим то, о чем здесь договорились, и оценим потенциальное влияние.

Обязательство 1. Компании обязуются проводить внутреннее и внешнее тестирование безопасности своих систем ИИ перед выпуском.

Каждая из этих ИИ-компаний уже проводит тестирование безопасности — то, что часто называют «красной командой». - своих моделей до их выпуска. С одной стороны, это не совсем новое обязательство. И это расплывчатое обещание. В нем не содержится много подробностей о типе требуемого тестирования или о том, кто будет его проводить.

В заявлении, сопровождающем обещания, Белый дом сообщил, что А.И. модели «будут частично сделаны независимыми экспертами» и будут сосредоточены на искусственном интеллекте. риски, «такие как биобезопасность и кибербезопасность, а также их более широкие социальные последствия».

Хорошая идея - заставить компании, занимающиеся искусственным интеллектом, публично взять на себя обязательство продолжать проводить этот тип тестирования и поощрять большую прозрачность в процессе тестирования. И есть определенные типы ИИ. риск — например, опасность того, что модели ИИ могут быть использованы для разработки биологического оружия, — которые правительственные и военные чиновники, вероятно, могут оценить лучше, чем корпорации.

Я хотел бы, чтобы ИИ промышленность согласовала стандартный набор тестов безопасности, таких как тесты «автономной репликации», которые Исследовательский центр выравнивания выполняет на моделях, предварительно выпущенных OpenAI и Anthropic. Я также хотел бы, чтобы федеральное правительство финансировало такие тесты, которые могут быть дорогими и требуют инженеров со значительными техническими знаниями. В настоящее время многие тесты безопасности финансируются и контролируются компаниями, что вызывает очевидные проблемы конфликта интересов.

Обязательство 2. Компании обязуются делиться информацией об управлении ИИ в отрасли, а также с правительствами, гражданским обществом и академическими кругами. риски.

Это обязательство также немного расплывчато. Некоторые из этих компаний уже публикуют информацию о своих моделях ИИ — обычно в научных статьях или сообщениях в блогах компаний. Некоторые из них, в том числе OpenAI и Anthropic, также публикуют документы, называемые «системными картами», в которых описываются шаги, которые они предприняли для повышения безопасности этих моделей.

Но они также иногда утаивали информацию, ссылаясь на соображения безопасности. Когда OpenAI выпустила свой последний ИИ....

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow