Esta semana en IA: empresas que se someten voluntariamente a las pautas de IA, por ahora

Mantener el ritmo de una industria en evolución como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, además de algunas investigaciones y experimentos notables que no hemos cubierto por sí solos.

Esta semana en IA, vimos que OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon se comprometieron voluntariamente con objetivos comunes de seguridad y transparencia de IA antes de una orden ejecutiva esperada de la administración de Biden.

Como escribe mi colega Devin Coldewey, aquí no se ofrece ninguna regla o aplicación; las prácticas acordadas son puramente voluntarias. Pero los compromisos describen, a grandes rasgos, los enfoques y políticas regulatorios de IA que cada proveedor puede encontrar modificables en los Estados Unidos y en el extranjero.

Entre otros compromisos, las empresas se han ofrecido como voluntarias para realizar pruebas de seguridad de los sistemas de IA antes del lanzamiento, compartir información sobre técnicas de mitigación de IA y desarrollar técnicas de marcas de agua que facilitan la identificación del contenido generado por IA. También dijeron que invertirían en seguridad cibernética para proteger los datos privados de la IA y facilitar el informe de vulnerabilidades, así como priorizar la investigación sobre riesgos sociales, como sesgos sistémicos y problemas de privacidad.

Los compromisos son un paso importante, por supuesto, incluso si no son exigibles. Pero uno se pregunta si hay motivos ocultos por parte del abajo firmante.

Según nuestra información, OpenAI ha escrito un memorando de política interna que muestra que la empresa apoya la idea de exigir licencias gubernamentales a cualquier persona que quiera desarrollar sistemas de IA. El CEO Sam Altman planteó la idea por primera vez durante una audiencia en el Senado de EE. UU. en mayo, donde respaldó la creación de una agencia que pudiera emitir licencias para productos de IA y revocarlas si alguien infringiera las reglas establecidas.

En una entrevista de prensa reciente, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, insistió en que OpenAI no está "presionando" para obtener licencias y que la empresa solo admite regímenes de licencias para modelos de IA que son más potentes que el actual GPT-4 de OpenAI. Pero las licencias emitidas por el gobierno, si se implementan de la manera que propone OpenAI, preparan el escenario para un posible enfrentamiento con las nuevas empresas y los desarrolladores de código abierto que pueden verlas como un intento de dificultar que otros ingresen al espacio.

Devin lo dijo mejor, creo, cuando me lo describió como "tirar clavos en el camino detrás de ellos mientras corren". Por lo menos, ilustra la naturaleza hipócrita de las empresas de IA que buscan apaciguar a los reguladores mientras configuran políticas a su favor (en este caso, perjudicando a los retadores más pequeños) entre bastidores.

Esta es una situación preocupante. Pero, si los legisladores intervienen, todavía hay esperanza de suficientes garantías sin interferencia indebida del sector privado.

Aquí hay otras historias de IA de interés periodístico de los últimos días:

Renuncia el jefe de confianza y seguridad de OpenAI: Dave Willner, un veterano de la industria que era el jefe de confianza y seguridad de OpenAI, anunció en una publicación de LinkedIn que había dejado su trabajo y pasó a desempeñar un papel de asesor. OpenAI dijo en un comunicado que está buscando un reemplazo y que el CTO Mira Murati liderará el equipo de manera interina. Instrucciones personalizadas para ChatGPT: en otras noticias de OpenAI, la compañía lanzó instrucciones personalizadas para los usuarios de ChatGPT para que no tengan que escribir las mismas instrucciones en el chatbot cada vez que interactúan con él. IA de redacción de noticias de Google: Google está probando una herramienta que utiliza IA para escribir noticias y ha comenzado a demostrarla en publicaciones, según un nuevo informe de The New York Times. El gigante tecnológico presentó el sistema de IA al propietario de The New York Times, Washington Post y Wall Street Journal, News Corp. Apple está probando un chatbot similar a ChatGPT: Apple está desarrollando una IA para...

Esta semana en IA: empresas que se someten voluntariamente a las pautas de IA, por ahora

Mantener el ritmo de una industria en evolución como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, además de algunas investigaciones y experimentos notables que no hemos cubierto por sí solos.

Esta semana en IA, vimos que OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon se comprometieron voluntariamente con objetivos comunes de seguridad y transparencia de IA antes de una orden ejecutiva esperada de la administración de Biden.

Como escribe mi colega Devin Coldewey, aquí no se ofrece ninguna regla o aplicación; las prácticas acordadas son puramente voluntarias. Pero los compromisos describen, a grandes rasgos, los enfoques y políticas regulatorios de IA que cada proveedor puede encontrar modificables en los Estados Unidos y en el extranjero.

Entre otros compromisos, las empresas se han ofrecido como voluntarias para realizar pruebas de seguridad de los sistemas de IA antes del lanzamiento, compartir información sobre técnicas de mitigación de IA y desarrollar técnicas de marcas de agua que facilitan la identificación del contenido generado por IA. También dijeron que invertirían en seguridad cibernética para proteger los datos privados de la IA y facilitar el informe de vulnerabilidades, así como priorizar la investigación sobre riesgos sociales, como sesgos sistémicos y problemas de privacidad.

Los compromisos son un paso importante, por supuesto, incluso si no son exigibles. Pero uno se pregunta si hay motivos ocultos por parte del abajo firmante.

Según nuestra información, OpenAI ha escrito un memorando de política interna que muestra que la empresa apoya la idea de exigir licencias gubernamentales a cualquier persona que quiera desarrollar sistemas de IA. El CEO Sam Altman planteó la idea por primera vez durante una audiencia en el Senado de EE. UU. en mayo, donde respaldó la creación de una agencia que pudiera emitir licencias para productos de IA y revocarlas si alguien infringiera las reglas establecidas.

En una entrevista de prensa reciente, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, insistió en que OpenAI no está "presionando" para obtener licencias y que la empresa solo admite regímenes de licencias para modelos de IA que son más potentes que el actual GPT-4 de OpenAI. Pero las licencias emitidas por el gobierno, si se implementan de la manera que propone OpenAI, preparan el escenario para un posible enfrentamiento con las nuevas empresas y los desarrolladores de código abierto que pueden verlas como un intento de dificultar que otros ingresen al espacio.

Devin lo dijo mejor, creo, cuando me lo describió como "tirar clavos en el camino detrás de ellos mientras corren". Por lo menos, ilustra la naturaleza hipócrita de las empresas de IA que buscan apaciguar a los reguladores mientras configuran políticas a su favor (en este caso, perjudicando a los retadores más pequeños) entre bastidores.

Esta es una situación preocupante. Pero, si los legisladores intervienen, todavía hay esperanza de suficientes garantías sin interferencia indebida del sector privado.

Aquí hay otras historias de IA de interés periodístico de los últimos días:

Renuncia el jefe de confianza y seguridad de OpenAI: Dave Willner, un veterano de la industria que era el jefe de confianza y seguridad de OpenAI, anunció en una publicación de LinkedIn que había dejado su trabajo y pasó a desempeñar un papel de asesor. OpenAI dijo en un comunicado que está buscando un reemplazo y que el CTO Mira Murati liderará el equipo de manera interina. Instrucciones personalizadas para ChatGPT: en otras noticias de OpenAI, la compañía lanzó instrucciones personalizadas para los usuarios de ChatGPT para que no tengan que escribir las mismas instrucciones en el chatbot cada vez que interactúan con él. IA de redacción de noticias de Google: Google está probando una herramienta que utiliza IA para escribir noticias y ha comenzado a demostrarla en publicaciones, según un nuevo informe de The New York Times. El gigante tecnológico presentó el sistema de IA al propietario de The New York Times, Washington Post y Wall Street Journal, News Corp. Apple está probando un chatbot similar a ChatGPT: Apple está desarrollando una IA para...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow