Una carta abierta que pide una "pausa" de AI destaca el feroz debate sobre el riesgo frente a la exageración

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

Una nueva carta abierta que pide una "pausa" de seis meses en el desarrollo de IA a gran escala más allá del GPT-4 de OpenAI destaca un discurso complejo y un debate feroz y creciente sobre los diversos riesgos de la IA, tanto a corto como a largo plazo. -término.

Los críticos de la carta, que fue firmada por Elon Musk, Steve Wozniak, Yoshua Bengio, Gary Marcus y varios miles de otros expertos en inteligencia artificial, investigadores y líderes de la industria, dicen que genera una alarma innecesaria sobre peligros hipotéticos, lo que lleva a información errónea e información errónea sobre preocupaciones reales y concretas. Otros señalaron la naturaleza poco realista de una "pausa" y dijeron que la carta no abordaba los esfuerzos actuales en la regulación y legislación global de IA.

La carta fue publicada por el Future of Life Institute, una organización sin fines de lucro, que se fundó para "reducir los riesgos catastróficos y existenciales globales de las tecnologías poderosas" (entre los fundadores se encuentran el cosmólogo del MIT Max Tegmark, el cofundador de Skype Jaan Tallinn y la investigadora de DeepMind Viktoriya Krakovna ). La carta establece que "con más datos y más computación, las capacidades de los sistemas de IA están evolucionando rápidamente. Los modelos más grandes son cada vez más capaces de superar el rendimiento humano en muchas áreas. Ninguna empresa puede predecir lo que esto significa para nuestras sociedades. »

La carta señala que la superinteligencia está lejos de ser el único mal que se debe temer cuando se trata de grandes modelos de IA; el potencial de suplantación de identidad y desinformación son otros. Sin embargo, señala que el objetivo declarado de muchos laboratorios comerciales es desarrollar AGI (inteligencia general artificial) y agrega que algunos investigadores creen que estamos cerca de AGI, con preocupaciones concomitantes por la seguridad y la ética de IAG.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

“Creemos que los sistemas de IA poderosos solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y sus riesgos son manejables”, se lee en la carta.

Marcus habló con Cade Metz de The New York Times sobre la carta y dijo que era importante porque "tenemos una tormenta perfecta de irresponsabilidad corporativa, adopción generalizada, falta de regulación y una gran cantidad de incógnitas".

Los críticos dicen que la letra 'piel...

Una carta abierta que pide una "pausa" de AI destaca el feroz debate sobre el riesgo frente a la exageración

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

Una nueva carta abierta que pide una "pausa" de seis meses en el desarrollo de IA a gran escala más allá del GPT-4 de OpenAI destaca un discurso complejo y un debate feroz y creciente sobre los diversos riesgos de la IA, tanto a corto como a largo plazo. -término.

Los críticos de la carta, que fue firmada por Elon Musk, Steve Wozniak, Yoshua Bengio, Gary Marcus y varios miles de otros expertos en inteligencia artificial, investigadores y líderes de la industria, dicen que genera una alarma innecesaria sobre peligros hipotéticos, lo que lleva a información errónea e información errónea sobre preocupaciones reales y concretas. Otros señalaron la naturaleza poco realista de una "pausa" y dijeron que la carta no abordaba los esfuerzos actuales en la regulación y legislación global de IA.

La carta fue publicada por el Future of Life Institute, una organización sin fines de lucro, que se fundó para "reducir los riesgos catastróficos y existenciales globales de las tecnologías poderosas" (entre los fundadores se encuentran el cosmólogo del MIT Max Tegmark, el cofundador de Skype Jaan Tallinn y la investigadora de DeepMind Viktoriya Krakovna ). La carta establece que "con más datos y más computación, las capacidades de los sistemas de IA están evolucionando rápidamente. Los modelos más grandes son cada vez más capaces de superar el rendimiento humano en muchas áreas. Ninguna empresa puede predecir lo que esto significa para nuestras sociedades. »

La carta señala que la superinteligencia está lejos de ser el único mal que se debe temer cuando se trata de grandes modelos de IA; el potencial de suplantación de identidad y desinformación son otros. Sin embargo, señala que el objetivo declarado de muchos laboratorios comerciales es desarrollar AGI (inteligencia general artificial) y agrega que algunos investigadores creen que estamos cerca de AGI, con preocupaciones concomitantes por la seguridad y la ética de IAG.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

“Creemos que los sistemas de IA poderosos solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y sus riesgos son manejables”, se lee en la carta.

Marcus habló con Cade Metz de The New York Times sobre la carta y dijo que era importante porque "tenemos una tormenta perfecta de irresponsabilidad corporativa, adopción generalizada, falta de regulación y una gran cantidad de incógnitas".

Los críticos dicen que la letra 'piel...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow