Imágenes de sexo infantil generadas por IA incitan a todos los fiscales generales de EE. UU. a llamar a la acción

Una imagen de el Capitolio de los Estados Unidos en Washington, DC.Expandir imágenes falsas

El miércoles, los fiscales generales de los 50 estados y cuatro territorios de Estados Unidos enviaron una carta al Congreso instando a los legisladores a crear una comisión de expertos para estudiar cómo se puede utilizar la IA generativa para explotar a los niños en el hogar a través de la pornografía infantil ( CSAM). ). También piden ampliar las leyes existentes contra el CSAM para cubrir explícitamente los documentos generados por IA.

"Como fiscales generales de nuestros respectivos estados y territorios, estamos profunda y gravemente preocupados por la seguridad de los niños dentro de nuestras respectivas jurisdicciones", dice la carta. "Y si bien los delitos contra niños en Internet ya se persiguen activamente, nos preocupa que la IA esté creando una nueva frontera para el abuso que dificulte dichos procesamientos".

En particular, las tecnologías de síntesis de imágenes de código abierto, como Stable Diffusion, facilitan la creación de pornografía generada por IA, y se ha formado una gran comunidad en torno a herramientas y complementos que mejoran esta capacidad. Dado que estos modelos de IA están disponibles gratuitamente y a menudo se ejecutan localmente, a veces no existe ninguna barrera que impida que alguien cree imágenes sexualizadas de niños, lo que ha hecho sonar las alarmas entre los principales fiscales del país. (Cabe señalar que Midjourney, DALL-E y Adobe Firefly tienen filtros integrados que prohíben la creación de contenido pornográfico).

“Crear estas imágenes es más fácil que nunca”, afirma la carta, “porque cualquiera puede descargar las herramientas de IA en su computadora y crear imágenes simplemente escribiendo una breve descripción de lo que el usuario quiere ver. Y porque Muchas de estas herramientas de IA son de 'código abierto', se pueden ejecutar de forma ilimitada y sin control."

Como vimos anteriormente, también se ha vuelto relativamente fácil crear deepfakes generados por IA sin su consentimiento utilizando fotos de redes sociales. Los fiscales generales plantean una preocupación similar, extendiéndola a las imágenes de niños:

"Las herramientas de inteligencia artificial pueden crear rápida y fácilmente 'deepfakes' estudiando fotografías reales de niños maltratados para generar nuevas imágenes que muestren a estos niños en posiciones sexuales. Esto implica superponer la cara de una persona al cuerpo de otra. Los deepfakes también se pueden generar superponiendo fotografías de niños que de otro modo no serían víctimas en Internet con fotografías de niños abusados ​​para crear nuevos CSAM que involucren a niños que antes no habían sido dañados."

“Avienta el apetito de quienes buscan sexualizar a los niños”

Al observar las regulaciones sobre imágenes de niños generadas por IA, surge una pregunta obvia: si las imágenes son falsas, ¿se ha causado daño? A esta pregunta, los fiscales generales ofrecen una respuesta, diciendo que estas tecnologías representan un riesgo para los niños y sus familias, ya sea que se haya abusado de niños reales o no. Temen que la disponibilidad de CSAM, incluso poco realistas, generados por IA “respalde el crecimiento del mercado de explotación infantil al normalizar el abuso infantil y alimentar el apetito de quienes buscan sexualizar a los niños”.

La regulación de la pornografía en los Estados Unidos siempre ha sido un delicado equilibrio entre preservar el derecho a la libertad de expresión y proteger a las poblaciones vulnerables de cualquier daño. Sin embargo, cuando se trata de niños, el equilibrio regulatorio se inclina hacia restricciones mucho más estrictas debido al consenso casi universal sobre la protección infantil. Como escribe el Departamento de Justicia de Estados Unidos: “Las imágenes de pornografía infantil no están protegidas...

Imágenes de sexo infantil generadas por IA incitan a todos los fiscales generales de EE. UU. a llamar a la acción
Una imagen de el Capitolio de los Estados Unidos en Washington, DC.Expandir imágenes falsas

El miércoles, los fiscales generales de los 50 estados y cuatro territorios de Estados Unidos enviaron una carta al Congreso instando a los legisladores a crear una comisión de expertos para estudiar cómo se puede utilizar la IA generativa para explotar a los niños en el hogar a través de la pornografía infantil ( CSAM). ). También piden ampliar las leyes existentes contra el CSAM para cubrir explícitamente los documentos generados por IA.

"Como fiscales generales de nuestros respectivos estados y territorios, estamos profunda y gravemente preocupados por la seguridad de los niños dentro de nuestras respectivas jurisdicciones", dice la carta. "Y si bien los delitos contra niños en Internet ya se persiguen activamente, nos preocupa que la IA esté creando una nueva frontera para el abuso que dificulte dichos procesamientos".

En particular, las tecnologías de síntesis de imágenes de código abierto, como Stable Diffusion, facilitan la creación de pornografía generada por IA, y se ha formado una gran comunidad en torno a herramientas y complementos que mejoran esta capacidad. Dado que estos modelos de IA están disponibles gratuitamente y a menudo se ejecutan localmente, a veces no existe ninguna barrera que impida que alguien cree imágenes sexualizadas de niños, lo que ha hecho sonar las alarmas entre los principales fiscales del país. (Cabe señalar que Midjourney, DALL-E y Adobe Firefly tienen filtros integrados que prohíben la creación de contenido pornográfico).

“Crear estas imágenes es más fácil que nunca”, afirma la carta, “porque cualquiera puede descargar las herramientas de IA en su computadora y crear imágenes simplemente escribiendo una breve descripción de lo que el usuario quiere ver. Y porque Muchas de estas herramientas de IA son de 'código abierto', se pueden ejecutar de forma ilimitada y sin control."

Como vimos anteriormente, también se ha vuelto relativamente fácil crear deepfakes generados por IA sin su consentimiento utilizando fotos de redes sociales. Los fiscales generales plantean una preocupación similar, extendiéndola a las imágenes de niños:

"Las herramientas de inteligencia artificial pueden crear rápida y fácilmente 'deepfakes' estudiando fotografías reales de niños maltratados para generar nuevas imágenes que muestren a estos niños en posiciones sexuales. Esto implica superponer la cara de una persona al cuerpo de otra. Los deepfakes también se pueden generar superponiendo fotografías de niños que de otro modo no serían víctimas en Internet con fotografías de niños abusados ​​para crear nuevos CSAM que involucren a niños que antes no habían sido dañados."

“Avienta el apetito de quienes buscan sexualizar a los niños”

Al observar las regulaciones sobre imágenes de niños generadas por IA, surge una pregunta obvia: si las imágenes son falsas, ¿se ha causado daño? A esta pregunta, los fiscales generales ofrecen una respuesta, diciendo que estas tecnologías representan un riesgo para los niños y sus familias, ya sea que se haya abusado de niños reales o no. Temen que la disponibilidad de CSAM, incluso poco realistas, generados por IA “respalde el crecimiento del mercado de explotación infantil al normalizar el abuso infantil y alimentar el apetito de quienes buscan sexualizar a los niños”.

La regulación de la pornografía en los Estados Unidos siempre ha sido un delicado equilibrio entre preservar el derecho a la libertad de expresión y proteger a las poblaciones vulnerables de cualquier daño. Sin embargo, cuando se trata de niños, el equilibrio regulatorio se inclina hacia restricciones mucho más estrictas debido al consenso casi universal sobre la protección infantil. Como escribe el Departamento de Justicia de Estados Unidos: “Las imágenes de pornografía infantil no están protegidas...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow