准备好迎接聊天 GPT 克隆

准备好认识 GPT 聊天克隆展开 爱德华奥利弗/盖蒂图片社

ChatGPT 可能是最著名且具有潜在价值的算法,但 OpenAI 用来提供其智能的人工智能技术既不是独一无二的也不是秘密的。竞争项目和开源克隆可能很快就会让类似 ChatGPT 的机器人可供任何人复制和重用。

Stability AI 是一家已经开发出先进的开源图像生成技术的初创公司,正在开发 ChatGPT 的公开竞争对手。 Stability 的首席执行官 Emad Mostaque 说:“我们距离发布还有几个月的时间。”许多相互竞争的初创公司,包括 Anthropic、Cohere 和 AI21,都在开发类似于 OpenAI 机器人的专有聊天机器人。

即将涌现的复杂聊天机器人将使技术更加丰富,消费者更容易看到,人工智能公司、开发人员和研究人员也更容易获得。它可能会加速从生成图像、代码和文本的人工智能工具中赚钱的热潮。

Microsoft 和 Slack 等老牌公司正在将 ChatGPT 集成到他们的产品中,许多初创公司正在努力为开发人员开发新的 ChatGPT API。但更高的技术可用性也会使预测和减轻伴随风险的工作复杂化。

ChatGPT 具有为范围广泛的查询提供令人信服的答案的诱人能力,这也导致它编造事实或采用有问题的角色。它可以帮助执行恶意任务,例如生成恶意代码或垃圾邮件和虚假信息活动。

因此,一些研究人员呼吁在风险评估期间放慢部署类似 ChatGPT 的系统。 “没有必要停止研究,但我们当然可以规范大规模部署,”人工智能专家加里马库斯说,他试图引起人们对人工智能产生的错误信息等风险的关注。 “例如,在向 1 亿人发布这些技术之前,我们可以要求对 10 万人进行研究。”

ChatGPT 类系统的更广泛可用性和开源版本的发布将使限制研究或更广泛部署变得更加困难。大公司和小公司之间为采用或匹配 ChatGPT 而进行的竞争表明人们对放缓的兴趣不大,反而似乎鼓励了该技术的扩散。

上周,由 Meta 开发的 AI 模型 LLaMA 与 ChatGPT 的核心模型相似,在与大学研究人员分享后在网上泄露。该系统可以用作创建聊天机器人的构建块,它的发布引起了人们的担忧,他们担心被称为大型语言模型的人工智能系统以及基于它们构建的聊天机器人(如 ChatGPT)会被用来生成错误信息或自动化网络安全漏洞。一些专家表示,这些风险可能被夸大了,而其他专家则认为,让技术更加透明实际上有助于其他人防止滥用。

Meta 拒绝回答有关泄密的问题,但公司女发言人 Ashley Gabriel 发表声明称,“虽然并非所有人都可以使用该模型,而且有些人试图规避审批流程,但我们相信当前的发布策略允许我们平衡问责制和开放性。”

ChatGPT 构建...

准备好迎接聊天 GPT 克隆
准备好认识 GPT 聊天克隆展开 爱德华奥利弗/盖蒂图片社

ChatGPT 可能是最著名且具有潜在价值的算法,但 OpenAI 用来提供其智能的人工智能技术既不是独一无二的也不是秘密的。竞争项目和开源克隆可能很快就会让类似 ChatGPT 的机器人可供任何人复制和重用。

Stability AI 是一家已经开发出先进的开源图像生成技术的初创公司,正在开发 ChatGPT 的公开竞争对手。 Stability 的首席执行官 Emad Mostaque 说:“我们距离发布还有几个月的时间。”许多相互竞争的初创公司,包括 Anthropic、Cohere 和 AI21,都在开发类似于 OpenAI 机器人的专有聊天机器人。

即将涌现的复杂聊天机器人将使技术更加丰富,消费者更容易看到,人工智能公司、开发人员和研究人员也更容易获得。它可能会加速从生成图像、代码和文本的人工智能工具中赚钱的热潮。

Microsoft 和 Slack 等老牌公司正在将 ChatGPT 集成到他们的产品中,许多初创公司正在努力为开发人员开发新的 ChatGPT API。但更高的技术可用性也会使预测和减轻伴随风险的工作复杂化。

ChatGPT 具有为范围广泛的查询提供令人信服的答案的诱人能力,这也导致它编造事实或采用有问题的角色。它可以帮助执行恶意任务,例如生成恶意代码或垃圾邮件和虚假信息活动。

因此,一些研究人员呼吁在风险评估期间放慢部署类似 ChatGPT 的系统。 “没有必要停止研究,但我们当然可以规范大规模部署,”人工智能专家加里马库斯说,他试图引起人们对人工智能产生的错误信息等风险的关注。 “例如,在向 1 亿人发布这些技术之前,我们可以要求对 10 万人进行研究。”

ChatGPT 类系统的更广泛可用性和开源版本的发布将使限制研究或更广泛部署变得更加困难。大公司和小公司之间为采用或匹配 ChatGPT 而进行的竞争表明人们对放缓的兴趣不大,反而似乎鼓励了该技术的扩散。

上周,由 Meta 开发的 AI 模型 LLaMA 与 ChatGPT 的核心模型相似,在与大学研究人员分享后在网上泄露。该系统可以用作创建聊天机器人的构建块,它的发布引起了人们的担忧,他们担心被称为大型语言模型的人工智能系统以及基于它们构建的聊天机器人(如 ChatGPT)会被用来生成错误信息或自动化网络安全漏洞。一些专家表示,这些风险可能被夸大了,而其他专家则认为,让技术更加透明实际上有助于其他人防止滥用。

Meta 拒绝回答有关泄密的问题,但公司女发言人 Ashley Gabriel 发表声明称,“虽然并非所有人都可以使用该模型,而且有些人试图规避审批流程,但我们相信当前的发布策略允许我们平衡问责制和开放性。”

ChatGPT 构建...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow