谷歌正在接受预订与其所谓的敏感聊天机器人交谈

在去年 5 月的 I/O 2022 大会上,谷歌 CEO Sundar Pichai 宣布,该公司将在未来几个月内逐步使用其实验性的 LaMDA 2 对话式 AI 模型来选择 beta 用户。那几个月已经到了。周四,谷歌人工智能部门的研究人员宣布,随着访问权限的增加,感兴趣的用户可以注册探索该模型。

普通读者会认出 LaMDA 是所谓的敏感自然语言处理 (NLP) 模型,而谷歌研究人员却因为该模型而被解雇。 NLP 是一类 AI 模型,旨在将人类语音解析为可操作的命令,并为 Siri 或 Alexa 等数字助理和聊天机器人的功能提供支持,并为应用程序执行繁重的工作、实时翻译和字幕。基本上,每当您与计算机交谈时,它都会使用 NLP 技术进行聆听。

“对不起,我不太明白”这句话仍然萦绕在许多早期 Siri 用户的梦想中,尽管在过去十年中 NLP 技术发展迅速。今天的模型是在数千亿个参数上训练的,可以实时翻译数百种语言,甚至可以将一次对话中学到的经验带到以后的讨论中。

Google 的 AI 测试厨房将允许 Beta 版用户在受控、可能受监督的沙盒中试验和探索 NLP 交互。 Access 将于今天开始向一小群美国 Android 用户推出,然后在未来几周内向 iOS 设备推出。该程序将提供一组指导演示,向用户展示 LaMDA 的功能。

“第一个演示“想象一下”让您可以命名一个地方并提供探索您想象的途径,”Google Research 集团产品经理 Tris Warkentin 和 Google 实验室产品管理高级总监 Josh Woodward ,周四在谷歌人工智能博客中写道。 “通过 'List It' 演示,您可以共享目标或主题,LaMDA 将其分解为有用的子任务列表。在 'Talk About It (Dogs Edition)' 演示中,您可以进行有趣、开放的对话关于狗而且只有狗,它探索了即使你试图偏离主题,LaMDA 也能保持话题的能力。”

强调安全和负责任的互动在这个行业很常见,因为 AI 聊天机器人已经有了一个全纳粹的名字,而这个名字在 Taye。幸运的是,这一极其令人尴尬的事件是微软和 AI 领域其他许多人牢记在心的一个教训,这就是为什么我们看到对用户可以想到 Midjourney 或 Dall 的内容有如此严厉的限制。-E 2,或Blenderbot 3 可以讨论的 Facebook 主题。

这并不意味着该系统是万无一失的。 “我们进行了一系列专门的对抗性测试,以发现模型中的其他缺陷,”Warkentin 和 Woodward 写道。 “我们招募了红队的专家......他们发现了其他有害但微妙的输出。”这些包括不“在使用时产生反应,因为它难以区分良性和矛盾的提示”,以及产生“基于其训练数据中的偏见的有害或有毒反应”。就像现在的许多 AI 一样。

En 推荐的所有产品...

谷歌正在接受预订与其所谓的敏感聊天机器人交谈

在去年 5 月的 I/O 2022 大会上,谷歌 CEO Sundar Pichai 宣布,该公司将在未来几个月内逐步使用其实验性的 LaMDA 2 对话式 AI 模型来选择 beta 用户。那几个月已经到了。周四,谷歌人工智能部门的研究人员宣布,随着访问权限的增加,感兴趣的用户可以注册探索该模型。

普通读者会认出 LaMDA 是所谓的敏感自然语言处理 (NLP) 模型,而谷歌研究人员却因为该模型而被解雇。 NLP 是一类 AI 模型,旨在将人类语音解析为可操作的命令,并为 Siri 或 Alexa 等数字助理和聊天机器人的功能提供支持,并为应用程序执行繁重的工作、实时翻译和字幕。基本上,每当您与计算机交谈时,它都会使用 NLP 技术进行聆听。

“对不起,我不太明白”这句话仍然萦绕在许多早期 Siri 用户的梦想中,尽管在过去十年中 NLP 技术发展迅速。今天的模型是在数千亿个参数上训练的,可以实时翻译数百种语言,甚至可以将一次对话中学到的经验带到以后的讨论中。

Google 的 AI 测试厨房将允许 Beta 版用户在受控、可能受监督的沙盒中试验和探索 NLP 交互。 Access 将于今天开始向一小群美国 Android 用户推出,然后在未来几周内向 iOS 设备推出。该程序将提供一组指导演示,向用户展示 LaMDA 的功能。

“第一个演示“想象一下”让您可以命名一个地方并提供探索您想象的途径,”Google Research 集团产品经理 Tris Warkentin 和 Google 实验室产品管理高级总监 Josh Woodward ,周四在谷歌人工智能博客中写道。 “通过 'List It' 演示,您可以共享目标或主题,LaMDA 将其分解为有用的子任务列表。在 'Talk About It (Dogs Edition)' 演示中,您可以进行有趣、开放的对话关于狗而且只有狗,它探索了即使你试图偏离主题,LaMDA 也能保持话题的能力。”

强调安全和负责任的互动在这个行业很常见,因为 AI 聊天机器人已经有了一个全纳粹的名字,而这个名字在 Taye。幸运的是,这一极其令人尴尬的事件是微软和 AI 领域其他许多人牢记在心的一个教训,这就是为什么我们看到对用户可以想到 Midjourney 或 Dall 的内容有如此严厉的限制。-E 2,或Blenderbot 3 可以讨论的 Facebook 主题。

这并不意味着该系统是万无一失的。 “我们进行了一系列专门的对抗性测试,以发现模型中的其他缺陷,”Warkentin 和 Woodward 写道。 “我们招募了红队的专家......他们发现了其他有害但微妙的输出。”这些包括不“在使用时产生反应,因为它难以区分良性和矛盾的提示”,以及产生“基于其训练数据中的偏见的有害或有毒反应”。就像现在的许多 AI 一样。

En 推荐的所有产品...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow