El contenido de abuso sexual infantil generado por IA podría abrumar las líneas de información

Un informe de investigadores de Stanford advierte que el Centro Nacional para Niños Desaparecidos y Explotados no tiene los recursos para ayudar a combatir la nueva epidemia.

< p class="css-at9mc1 evys1bk0">Una nueva avalancha de material de abuso sexual infantil creado por inteligencia artificial amenaza con abrumar a las autoridades ya obstaculizadas por la tecnología y leyes obsoletas, según un nuevo informe publicado el lunes por el Observatorio de Internet de la Universidad de Stanford. .

Durante el año pasado, se agregaron nuevas funciones de IA. Las tecnologías han facilitado que los delincuentes creen imágenes explícitas de niños. Ahora, los investigadores de Stanford advierten que el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que actúa como agencia central de coordinación y recibe la mayor parte de su financiación del gobierno federal, no tiene los recursos necesarios para combatir la creciente amenaza. /p>

CyberTipline de la organización, establecida en 1998, es la cámara de compensación federal para todos los informes de material de abuso sexual infantil, o CSAM, en línea y es utilizada por las fuerzas del orden para investigar delitos. Pero muchos de los consejos recibidos son incompletos o plagados de imprecisiones. Su pequeño personal también tuvo dificultades para mantenerse al día con el volumen.

“Es casi seguro que en los próximos años, CyberTipline se verá inundado de IA altamente realista. contenido, lo que hará aún más difícil para las autoridades identificar a los niños reales que necesitan ser rescatados”, dijo Shelby Grossman, una de las autoras del informe.

El El Centro Nacional para Niños Desaparecidos y Explotados está en la primera línea de una nueva batalla contra las imágenes de explotación sexual creadas por IA, un área de delincuencia emergente que aún está siendo definida por los legisladores y las fuerzas del orden. En medio de una epidemia de desnudos falsos generados por IA que circulan en las escuelas, algunos legisladores ya están tomando medidas para garantizar que dicho contenido se considere ilegal.

Las imágenes CSAM generadas por IA son ilegales si contienen niños reales o si se utilizan imágenes de niños reales para entrenar datos, dicen los investigadores. Pero los artículos sintéticos que no contienen imágenes reales podrían estar protegidos por la libertad de expresión, según uno de los autores del informe.

Tenemos dificultades para recuperar el contenido del artículo.< /p>

Tenemos dificultades para recuperar el contenido del artículo.

Tenemos problemas para recuperar el contenido del artículo.

Estamos teniendo problemas para recuperar el contenido del artículo.

Pero los artículos creados sintéticamente que no contienen imágenes reales podrían estar protegidos bajo la libertad de expresión, según uno de los autores del informe.

Estamos teniendo problemas para recuperar el contenido del artículo.

Nosotros tiene problemas para recuperar el contenido del artículo. p>

Habilite JavaScript en la configuración de su navegador.

Gracias por su paciencia mientras verificamos el acceso. Si está en modo Lector, salga e inicie sesión en su cuenta del Times o suscríbase al Times completo.

El contenido de abuso sexual infantil generado por IA podría abrumar las líneas de información

Un informe de investigadores de Stanford advierte que el Centro Nacional para Niños Desaparecidos y Explotados no tiene los recursos para ayudar a combatir la nueva epidemia.

< p class="css-at9mc1 evys1bk0">Una nueva avalancha de material de abuso sexual infantil creado por inteligencia artificial amenaza con abrumar a las autoridades ya obstaculizadas por la tecnología y leyes obsoletas, según un nuevo informe publicado el lunes por el Observatorio de Internet de la Universidad de Stanford. .

Durante el año pasado, se agregaron nuevas funciones de IA. Las tecnologías han facilitado que los delincuentes creen imágenes explícitas de niños. Ahora, los investigadores de Stanford advierten que el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que actúa como agencia central de coordinación y recibe la mayor parte de su financiación del gobierno federal, no tiene los recursos necesarios para combatir la creciente amenaza. /p>

CyberTipline de la organización, establecida en 1998, es la cámara de compensación federal para todos los informes de material de abuso sexual infantil, o CSAM, en línea y es utilizada por las fuerzas del orden para investigar delitos. Pero muchos de los consejos recibidos son incompletos o plagados de imprecisiones. Su pequeño personal también tuvo dificultades para mantenerse al día con el volumen.

“Es casi seguro que en los próximos años, CyberTipline se verá inundado de IA altamente realista. contenido, lo que hará aún más difícil para las autoridades identificar a los niños reales que necesitan ser rescatados”, dijo Shelby Grossman, una de las autoras del informe.

El El Centro Nacional para Niños Desaparecidos y Explotados está en la primera línea de una nueva batalla contra las imágenes de explotación sexual creadas por IA, un área de delincuencia emergente que aún está siendo definida por los legisladores y las fuerzas del orden. En medio de una epidemia de desnudos falsos generados por IA que circulan en las escuelas, algunos legisladores ya están tomando medidas para garantizar que dicho contenido se considere ilegal.

Las imágenes CSAM generadas por IA son ilegales si contienen niños reales o si se utilizan imágenes de niños reales para entrenar datos, dicen los investigadores. Pero los artículos sintéticos que no contienen imágenes reales podrían estar protegidos por la libertad de expresión, según uno de los autores del informe.

Tenemos dificultades para recuperar el contenido del artículo.< /p>

Tenemos dificultades para recuperar el contenido del artículo.

Tenemos problemas para recuperar el contenido del artículo.

Estamos teniendo problemas para recuperar el contenido del artículo.

Pero los artículos creados sintéticamente que no contienen imágenes reales podrían estar protegidos bajo la libertad de expresión, según uno de los autores del informe.

Estamos teniendo problemas para recuperar el contenido del artículo.

Nosotros tiene problemas para recuperar el contenido del artículo. p>

Habilite JavaScript en la configuración de su navegador.

Gracias por su paciencia mientras verificamos el acceso. Si está en modo Lector, salga e inicie sesión en su cuenta del Times o suscríbase al Times completo.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow