L’IA est sur le point d’aggraver encore le problème des abus sexuels sur enfants en ligne

Le la nation système pour suivi vers le bas et poursuivre personnes OMS sexuellement exploiter enfants en ligne est accablé et flambage, un nouveau rapport trouve — et artificiel intelligence est à propos à faire le problème beaucoup pire.

Le Stanford l'Internet Observatoire rapport prend un détaillé regarder à le CyberTipline, un au niveau fédéral autorisé centre d'échange pour rapports de en ligne enfant sexuel abus matériel, connu comme CSAM. Le conseil doubler des champs dizaines de des millions de CSAM rapports chaque année depuis tel plates-formes comme Facebook, Snapchat et TIC Tac, et en avant eux à loi mise en vigueur les agences, parfois menant à poursuites que peut bousiller en haut pédophile et sexe trafic anneaux.

Mais juste 5 à 8 pour cent de ceux rapports jamais plomb à arrestations, le rapport dit, exigible à un pénurie de financement et ressources, légal contraintes, et un Cascade de lacunes dans le processus pour rapports, prioriser et enquêter eux. Si ceux limites ne sont pas adressé bientôt, le auteurs avertir, le système pourrait devenir impraticable comme le dernier IA image générateurs libérer un inonder de sexuel imagerie de virtuel enfants que est de plus en plus "indiscernable depuis réel Photos de enfants. »

Publicité

"Ces fissures sont en allant à devenir gouffres dans un monde dans lequel IA est générateur tout neuf CSAM, » dit Alex Stamos, un Stanford Université la cyber-sécurité expert OMS co-écrit le rapport. Alors que généré par ordinateur enfant pornographie présente c'est propre problèmes, il dit que le plus gros risque est que « IA CSAM est en allant à enterrer le réel sexuel abus contenu," détournement ressources depuis réel enfants dans besoin de sauvetage.

Le rapport ajoute à un croissance tollé sur le prolifération de CSAM, lequel peut ruine pour enfants vies, et le probabilité que génératif IA outils volonté exacerber le problème. Il vient comme Congrès est considérant un suite de factures visant à protéger enfants en ligne, après sénateurs grillé technologie PDG dans un Janvier audience.

Parmi ceux est le Enfants En ligne Sécurité Acte, lequel serait imposer balayage nouveau exigences sur technologie entreprises à atténuer un gamme de potentiel nuit à jeune utilisateurs. Quelques la sécurité des enfants défenseurs aussi sont pousser pour changements à le Section 230 responsabilité bouclier pour en ligne plates-formes. Cependant leur résultats pourrait sembler à ajouter urgence à que législatif pousser, le auteurs de le Stanford rapport concentré leur recommandations sur renforcer le actuel rapport système plutôt que fissuration vers le bas sur seulement...

Le la nation système pour suivi vers le bas et poursuivre personnes OMS sexuellement exploiter enfants en ligne est accablé et flambage, un nouveau rapport trouve — et artificiel intelligence est à propos à faire le problème beaucoup pire.

Le Stanford l'Internet Observatoire rapport prend un détaillé regarder à le CyberTipline, un au niveau fédéral autorisé centre d'échange pour rapports de en ligne enfant sexuel abus matériel, connu comme CSAM. Le conseil doubler des champs dizaines de des millions de CSAM rapports chaque année depuis tel plates-formes comme Facebook, Snapchat et TIC Tac, et en avant eux à loi mise en vigueur les agences, parfois menant à poursuites que peut bousiller en haut pédophile et sexe trafic anneaux.

Mais juste 5 à 8 pour cent de ceux rapports jamais plomb à arrestations, le rapport dit, exigible à un pénurie de financement et ressources, légal contraintes, et un Cascade de lacunes dans le processus pour rapports, prioriser et enquêter eux. Si ceux limites ne sont pas adressé bientôt, le auteurs avertir, le système pourrait devenir impraticable comme le dernier IA image générateurs libérer un inonder de sexuel imagerie de virtuel enfants que est de plus en plus "indiscernable depuis réel Photos de enfants. »

Publicité

"Ces fissures sont en allant à devenir gouffres dans un monde dans lequel IA est générateur tout neuf CSAM, » dit Alex Stamos, un Stanford Université la cyber-sécurité expert OMS co-écrit le rapport. Alors que généré par ordinateur enfant pornographie présente c'est propre problèmes, il dit que le plus gros risque est que « IA CSAM est en allant à enterrer le réel sexuel abus contenu," détournement ressources depuis réel enfants dans besoin de sauvetage.

Le rapport ajoute à un croissance tollé sur le prolifération de CSAM, lequel peut ruine pour enfants vies, et le probabilité que génératif IA outils volonté exacerber le problème. Il vient comme Congrès est considérant un suite de factures visant à protéger enfants en ligne, après sénateurs grillé technologie PDG dans un Janvier audience.

Parmi ceux est le Enfants En ligne Sécurité Acte, lequel serait imposer balayage nouveau exigences sur technologie entreprises à atténuer un gamme de potentiel nuit à jeune utilisateurs. Quelques la sécurité des enfants défenseurs aussi sont pousser pour changements à le Section 230 responsabilité bouclier pour en ligne plates-formes. Cependant leur résultats pourrait sembler à ajouter urgence à que législatif pousser, le auteurs de le Stanford rapport concentré leur recommandations sur renforcer le actuel rapport système plutôt que fissuration vers le bas sur seulement...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow