建立负责任的人工智能:道德未来的 5 大支柱

我们很高兴能在 7 月 19 日以及 7 月 20 日至 28 日期间亲自带回 Transform 2022。加入人工智能和数据领域的领导者,进行深入讨论和令人兴奋的交流机会。立即注册!

只要技术有进步,人们就会担心其影响。曼哈顿计划就是一个典型的例子,当时科学家们正在努力发挥他们在释放这种创新但具有破坏性的核能方面的作用。所罗门“索利”祖克曼勋爵在二战期间是盟军的科学顾问,后来成为核不扩散的杰出倡导者。他在 1960 年代被引用了一个预言性的想法,今天仍然如此:“科学创造未来,却不知道未来会怎样。”

人工智能 (AI) 现在是任何机器学习 (ML) 软件的统称,旨在执行通常需要人类智能的复杂任务,它注定会在我们未来的社会中发挥巨大的作用。它最近的扩散引起了人们的兴趣,以及对人工智能的开发方式和开发人员的审查增加,突出了偏见对设计和操作的影响。..欧盟正在计划制定新的立法,以减轻人工智能可能造成的潜在危害,并且法律将要求负责任的人工智能。

很容易看出为什么需要这种保护措施。人类构建人工智能系统,因此他们不可避免地会将自己的道德观念带入设计中,而且往往会变得更糟。一些令人不安的例子已经出现——Apple Card 算法和亚马逊招聘都成为性别偏见调查的主题,谷歌 [需要订阅] 在种族主义品牌之后不得不改进其照片服务。此后每家公司都解决了这些问题,但技术正在迅速变化,这凸显了一个教训,即在不考虑风险的情况下创造卓越技术就像蒙着眼睛跑步。

构建负责任的人工智能

英特尔首席数据科学家梅尔文·格里尔 (Melvin Greer) 在 VentureBeat 中指出:“……负责任的 AI 领域的专家真的希望专注于成功管理 AI 的偏见风险,因此我们不仅仅是创建一个系统,做一些声称的事情,但在承认社会规范和道德的更大视角的背景下做一些事情。”

事件

转型 2022

加入我们,参加 7 月 19 日和 7 月 20 日至 28 日为企业业务和技术决策者举办的领先的应用 AI 活动。

在这里注册

换句话说,那些设计人工智能系统的人必须对他们的...

建立负责任的人工智能:道德未来的 5 大支柱

我们很高兴能在 7 月 19 日以及 7 月 20 日至 28 日期间亲自带回 Transform 2022。加入人工智能和数据领域的领导者,进行深入讨论和令人兴奋的交流机会。立即注册!

只要技术有进步,人们就会担心其影响。曼哈顿计划就是一个典型的例子,当时科学家们正在努力发挥他们在释放这种创新但具有破坏性的核能方面的作用。所罗门“索利”祖克曼勋爵在二战期间是盟军的科学顾问,后来成为核不扩散的杰出倡导者。他在 1960 年代被引用了一个预言性的想法,今天仍然如此:“科学创造未来,却不知道未来会怎样。”

人工智能 (AI) 现在是任何机器学习 (ML) 软件的统称,旨在执行通常需要人类智能的复杂任务,它注定会在我们未来的社会中发挥巨大的作用。它最近的扩散引起了人们的兴趣,以及对人工智能的开发方式和开发人员的审查增加,突出了偏见对设计和操作的影响。..欧盟正在计划制定新的立法,以减轻人工智能可能造成的潜在危害,并且法律将要求负责任的人工智能。

很容易看出为什么需要这种保护措施。人类构建人工智能系统,因此他们不可避免地会将自己的道德观念带入设计中,而且往往会变得更糟。一些令人不安的例子已经出现——Apple Card 算法和亚马逊招聘都成为性别偏见调查的主题,谷歌 [需要订阅] 在种族主义品牌之后不得不改进其照片服务。此后每家公司都解决了这些问题,但技术正在迅速变化,这凸显了一个教训,即在不考虑风险的情况下创造卓越技术就像蒙着眼睛跑步。

构建负责任的人工智能

英特尔首席数据科学家梅尔文·格里尔 (Melvin Greer) 在 VentureBeat 中指出:“……负责任的 AI 领域的专家真的希望专注于成功管理 AI 的偏见风险,因此我们不仅仅是创建一个系统,做一些声称的事情,但在承认社会规范和道德的更大视角的背景下做一些事情。”

事件

转型 2022

加入我们,参加 7 月 19 日和 7 月 20 日至 28 日为企业业务和技术决策者举办的领先的应用 AI 活动。

在这里注册

换句话说,那些设计人工智能系统的人必须对他们的...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow