人工智能如何白宫承诺堆积如山?

七个主要 AI。这些公司就他们将如何利用他们的技术做出了八项承诺。我们的专栏作家评估了它们的潜在影响。

本周,白宫宣布已获得七位人工智能领导人的“自愿承诺”。企业管理人工智能带来的风险。

让亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等公司接受任何事物都是向前迈出的一步。其中包括在人工智能研究和开发方式上存在微妙但重要差异的激烈竞争对手。

例如,Meta 非常渴望将其人工智能模型交到开发人员手中,因此它已经开放了其中的许多模型,使他们的代码可供所有人使用。其他实验室,如 Anthropic,采取了更为谨慎的方法,以更有限的方式发布他们的技术。

但是这些承诺实际上意味着什么?鉴于人工智能公司没有法律力量的支持,它们是否可能对人工智能公司的运营方式产生很大的改变?

鉴于人工智能公司的潜在挑战。法规,细节很重要。因此,让我们仔细看看此处达成的协议并评估潜在影响。

承诺 1:公司承诺在发布之前对其人工智能系统进行内部和外部安全测试。

每家人工智能公司都在发布之前对其模型进行了安全测试(通常称为“红队”) 。从某种程度上来说,这并不是一个真正的新承诺。这是一个模糊的承诺。它没有包含有关所需测试类型或谁将执行测试的许多详细信息。

在伴随承诺的声明中,白宫表示 A.I.这些模型“部分将由独立专家制作”,并将重点关注人工智能。风险“例如生物安全和网络安全,以及更广泛的社会影响”。

让人工智能公司公开承诺继续进行此类测试并鼓励提高测试过程的透明度是个好主意。并且有某些类型的人工智能。风险 - 例如人工智能模型可用于开发生物武器的危险 - 政府和军事官员可能比企业更有能力评估风险。

我希望看到人工智能模型。业界就一系列标准安全测试达成一致,例如 Alignment 研究中心对 OpenAI 和 Anthropic 预先发布的模型进行的“自主复制”测试。我还希望看到联邦政府资助此类测试,这些测试可能很昂贵,并且需要具有重要技术专业知识的工程师。目前,许多安全测试都是由企业资助和监督的,这带来了明显的利益冲突问题。

承诺2:企业承诺在整个行业以及与政府、民间社会和学术界共享人工智能管理方面的信息。

这个承诺也有点模糊。其中一些公司已经发布了有关其人工智能模型的信息——通常是在学术论文或公司博客文章中。其中包括 OpenAI 和 Anthropic 在内的一些公司还发布了名为“系统地图”的文档,其中描述了他们为使这些模型更加安全而采取的步骤。

但他们有时也会以安全问题为由隐瞒信息。当 OpenAI 发布其最新的 A.I....

人工智能如何白宫承诺堆积如山?

七个主要 AI。这些公司就他们将如何利用他们的技术做出了八项承诺。我们的专栏作家评估了它们的潜在影响。

本周,白宫宣布已获得七位人工智能领导人的“自愿承诺”。企业管理人工智能带来的风险。

让亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等公司接受任何事物都是向前迈出的一步。其中包括在人工智能研究和开发方式上存在微妙但重要差异的激烈竞争对手。

例如,Meta 非常渴望将其人工智能模型交到开发人员手中,因此它已经开放了其中的许多模型,使他们的代码可供所有人使用。其他实验室,如 Anthropic,采取了更为谨慎的方法,以更有限的方式发布他们的技术。

但是这些承诺实际上意味着什么?鉴于人工智能公司没有法律力量的支持,它们是否可能对人工智能公司的运营方式产生很大的改变?

鉴于人工智能公司的潜在挑战。法规,细节很重要。因此,让我们仔细看看此处达成的协议并评估潜在影响。

承诺 1:公司承诺在发布之前对其人工智能系统进行内部和外部安全测试。

每家人工智能公司都在发布之前对其模型进行了安全测试(通常称为“红队”) 。从某种程度上来说,这并不是一个真正的新承诺。这是一个模糊的承诺。它没有包含有关所需测试类型或谁将执行测试的许多详细信息。

在伴随承诺的声明中,白宫表示 A.I.这些模型“部分将由独立专家制作”,并将重点关注人工智能。风险“例如生物安全和网络安全,以及更广泛的社会影响”。

让人工智能公司公开承诺继续进行此类测试并鼓励提高测试过程的透明度是个好主意。并且有某些类型的人工智能。风险 - 例如人工智能模型可用于开发生物武器的危险 - 政府和军事官员可能比企业更有能力评估风险。

我希望看到人工智能模型。业界就一系列标准安全测试达成一致,例如 Alignment 研究中心对 OpenAI 和 Anthropic 预先发布的模型进行的“自主复制”测试。我还希望看到联邦政府资助此类测试,这些测试可能很昂贵,并且需要具有重要技术专业知识的工程师。目前,许多安全测试都是由企业资助和监督的,这带来了明显的利益冲突问题。

承诺2:企业承诺在整个行业以及与政府、民间社会和学术界共享人工智能管理方面的信息。

这个承诺也有点模糊。其中一些公司已经发布了有关其人工智能模型的信息——通常是在学术论文或公司博客文章中。其中包括 OpenAI 和 Anthropic 在内的一些公司还发布了名为“系统地图”的文档,其中描述了他们为使这些模型更加安全而采取的步骤。

但他们有时也会以安全问题为由隐瞒信息。当 OpenAI 发布其最新的 A.I....

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow