AI Doom, AI Boom y posible destrucción humana

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear”.

Esta declaración, publicada esta semana por el Centro para la Seguridad de la IA (CAIS), refleja una preocupación global, y algunos podrían decir excesiva, sobre los escenarios del fin del mundo debido a la superinteligencia desenfrenada. La declaración de CAIS refleja las preocupaciones primordiales expresadas en las conversaciones de la industria de IA durante los últimos meses: que las amenazas existenciales podrían manifestarse durante la próxima década o dos, a menos que la tecnología de IA esté estrictamente regulada a nivel mundial.

La declaración fue firmada por expertos académicos y luminarias tecnológicas que van desde Geoffrey Hinton (anteriormente en Google y defensor del aprendizaje profundo desde hace mucho tiempo) hasta Stuart Russell (profesor de informática en Berkeley) y Lex Fridman (científico investigador del MIT y presentador de podcasts). Además de la extinción, el Centro para la Seguridad de la IA advierte sobre otras preocupaciones importantes que van desde el debilitamiento del pensamiento humano hasta las amenazas de información errónea generada por la IA que socava la toma de decisiones de la sociedad.

Oscuridad fatal

En un artículo del New York Times, el director ejecutivo de CAIS, Dan Hendrycks, dijo: "Existe una idea errónea generalizada, incluso en la comunidad de IA, de que solo hay un puñado de doomers. Pero, de hecho, muchas personas en privado expresar sus preocupaciones sobre estas cosas".

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

“Doomers” es la palabra clave en esta declaración. Obviamente, ahora se habla mucho del fin del mundo. Por ejemplo, Hinton dejó Google recientemente para poder embarcarse en una gira catastrófica en la que la IA nos amenaza a todos.

En toda la comunidad de IA, el término "P(doom)" se ha puesto de moda para describir la probabilidad de tal catástrofe. P(doom) es un intento de cuantificar el riesgo de un escenario apocalíptico en el que la IA, especialmente la IA superinteligente, causa un daño grave a la humanidad o incluso conduce a la extinción humana.

En un podcast reciente de Hard Fork, Kevin Roose de The New York Times fijó su P(doom) en un 5%. Ajeya Cotra, experta en seguridad de IA en Open Philanthropy e invitada en el programa, fijó su P (destino) en 20-30 %. Sin embargo, hay que decir que P(doom) es puramente s...

AI Doom, AI Boom y posible destrucción humana

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear”.

Esta declaración, publicada esta semana por el Centro para la Seguridad de la IA (CAIS), refleja una preocupación global, y algunos podrían decir excesiva, sobre los escenarios del fin del mundo debido a la superinteligencia desenfrenada. La declaración de CAIS refleja las preocupaciones primordiales expresadas en las conversaciones de la industria de IA durante los últimos meses: que las amenazas existenciales podrían manifestarse durante la próxima década o dos, a menos que la tecnología de IA esté estrictamente regulada a nivel mundial.

La declaración fue firmada por expertos académicos y luminarias tecnológicas que van desde Geoffrey Hinton (anteriormente en Google y defensor del aprendizaje profundo desde hace mucho tiempo) hasta Stuart Russell (profesor de informática en Berkeley) y Lex Fridman (científico investigador del MIT y presentador de podcasts). Además de la extinción, el Centro para la Seguridad de la IA advierte sobre otras preocupaciones importantes que van desde el debilitamiento del pensamiento humano hasta las amenazas de información errónea generada por la IA que socava la toma de decisiones de la sociedad.

Oscuridad fatal

En un artículo del New York Times, el director ejecutivo de CAIS, Dan Hendrycks, dijo: "Existe una idea errónea generalizada, incluso en la comunidad de IA, de que solo hay un puñado de doomers. Pero, de hecho, muchas personas en privado expresar sus preocupaciones sobre estas cosas".

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

“Doomers” es la palabra clave en esta declaración. Obviamente, ahora se habla mucho del fin del mundo. Por ejemplo, Hinton dejó Google recientemente para poder embarcarse en una gira catastrófica en la que la IA nos amenaza a todos.

En toda la comunidad de IA, el término "P(doom)" se ha puesto de moda para describir la probabilidad de tal catástrofe. P(doom) es un intento de cuantificar el riesgo de un escenario apocalíptico en el que la IA, especialmente la IA superinteligente, causa un daño grave a la humanidad o incluso conduce a la extinción humana.

En un podcast reciente de Hard Fork, Kevin Roose de The New York Times fijó su P(doom) en un 5%. Ajeya Cotra, experta en seguridad de IA en Open Philanthropy e invitada en el programa, fijó su P (destino) en 20-30 %. Sin embargo, hay que decir que P(doom) es puramente s...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow