Según se informa, las empresas de inteligencia artificial se comprometen con las salvaguardias a pedido de la Casa Blanca
Microsoft, Google y OpenAI se encuentran entre los líderes en el espacio de inteligencia artificial de EE. UU. que se comprometerían con ciertas medidas de seguridad para su tecnología el viernes, luego de un impulso de la Casa Blanca. Las empresas acordarán voluntariamente cumplir con una serie de principios, aunque el acuerdo expirará cuando el Congreso apruebe la legislación para regular la IA, según Bloomberg.
La administración de Biden se ha centrado en garantizar que las empresas de inteligencia artificial desarrollen la tecnología de manera responsable. Los funcionarios quieren asegurarse de que las empresas de tecnología puedan innovar la IA generativa de una manera que beneficie a la sociedad sin socavar la seguridad pública, los derechos y los valores democráticos.
En mayo, la vicepresidenta Kamala Harris se reunió con los directores ejecutivos de OpenAI, Microsoft, Alphabet y Anthropic, y les dijo que tenían la responsabilidad de garantizar que sus productos de IA estén seguros y protegidos. El mes pasado, el presidente Joe Biden se reunió con líderes en el campo para discutir temas de IA.
Según un borrador del documento visto por Bloomberg, las empresas de tecnología deberían aceptar ocho medidas sugeridas con respecto a la seguridad, la protección y la responsabilidad social. Estos incluyen:
Deje que los expertos independientes prueben los modelos en busca de mal comportamiento
Invertir en ciberseguridad
Animar a terceros a descubrir vulnerabilidades de seguridad
Informar sobre riesgos sociales, incluido el sesgo y el uso indebido
Céntrese en la investigación sobre los riesgos sociales de la IA
Compartir información de confianza y seguridad con otras empresas y el gobierno
Marcas de agua en contenido visual y de audio para ayudar a dejar claro que el contenido es generado por IA
Utilice sistemas de IA de última generación conocidos como modelos de frontera para abordar los mayores problemas de la sociedad
El hecho de que se trate de un acuerdo voluntario destaca la dificultad de los legisladores para seguir el ritmo de los avances en IA. Se han presentado varios proyectos de ley en el Congreso con la esperanza de regular la IA. Uno busca evitar que las empresas usen las protecciones de la Sección 230 para evitar la responsabilidad por contenido dañino generado por IA, mientras que otro busca exigir que los anuncios políticos incluyan divulgaciones cuando se usa IA generativa. Cabe señalar que, según se informa, los administradores de las Cámaras de Representantes han impuesto límites al uso de la IA generativa en las oficinas del Congreso.
Microsoft, Google y OpenAI se encuentran entre los líderes en el espacio de inteligencia artificial de EE. UU. que se comprometerían con ciertas medidas de seguridad para su tecnología el viernes, luego de un impulso de la Casa Blanca. Las empresas acordarán voluntariamente cumplir con una serie de principios, aunque el acuerdo expirará cuando el Congreso apruebe la legislación para regular la IA, según Bloomberg.
La administración de Biden se ha centrado en garantizar que las empresas de inteligencia artificial desarrollen la tecnología de manera responsable. Los funcionarios quieren asegurarse de que las empresas de tecnología puedan innovar la IA generativa de una manera que beneficie a la sociedad sin socavar la seguridad pública, los derechos y los valores democráticos.
En mayo, la vicepresidenta Kamala Harris se reunió con los directores ejecutivos de OpenAI, Microsoft, Alphabet y Anthropic, y les dijo que tenían la responsabilidad de garantizar que sus productos de IA estén seguros y protegidos. El mes pasado, el presidente Joe Biden se reunió con líderes en el campo para discutir temas de IA.
Según un borrador del documento visto por Bloomberg, las empresas de tecnología deberían aceptar ocho medidas sugeridas con respecto a la seguridad, la protección y la responsabilidad social. Estos incluyen:
Deje que los expertos independientes prueben los modelos en busca de mal comportamiento
Invertir en ciberseguridad
Animar a terceros a descubrir vulnerabilidades de seguridad
Informar sobre riesgos sociales, incluido el sesgo y el uso indebido
Céntrese en la investigación sobre los riesgos sociales de la IA
Compartir información de confianza y seguridad con otras empresas y el gobierno
Marcas de agua en contenido visual y de audio para ayudar a dejar claro que el contenido es generado por IA
Utilice sistemas de IA de última generación conocidos como modelos de frontera para abordar los mayores problemas de la sociedad
El hecho de que se trate de un acuerdo voluntario destaca la dificultad de los legisladores para seguir el ritmo de los avances en IA. Se han presentado varios proyectos de ley en el Congreso con la esperanza de regular la IA. Uno busca evitar que las empresas usen las protecciones de la Sección 230 para evitar la responsabilidad por contenido dañino generado por IA, mientras que otro busca exigir que los anuncios políticos incluyan divulgaciones cuando se usa IA generativa. Cabe señalar que, según se informa, los administradores de las Cámaras de Representantes han impuesto límites al uso de la IA generativa en las oficinas del Congreso.
What's Your Reaction?