Facebook no pudo evitar que los anuncios de prueba amenazaran a los trabajadores electorales de mitad de período

Es posible que los esfuerzos de integridad electoral de Meta en Facebook no hayan sido tan sólidos como se afirma. Des chercheurs de Cybersecurity for Democracy de l'Université de New York et du chien de garde Global Witness ont révélé que le système de modération automatique de Facebook avait approuvé 15 publicités tests sur 20 menaçant les travailleurs électoraux avant les élections de mi-mandat américaines du el mes pasado. Los experimentos se basaron en amenazas reales y utilizaron un lenguaje "sencillo" que era potencialmente fácil de entender. En algunos casos, la red social incluso permitió anuncios después de que se realizaron cambios incorrectos. El equipo de investigación solo tuvo que eliminar las blasfemias y corregir la ortografía para superar los rechazos iniciales.

Los investigadores también probaron TikTok y YouTube. Ambos servicios han detenido todas las amenazas y prohibido las cuentas de prueba. En experiencias previas antes de las elecciones en Brasil, Facebook y YouTube permitieron que se enviara toda la información electoral falsa en una primera pasada, aunque Facebook rechazó hasta el 50 % en los envíos de seguimiento.

En una declaración a Engadget, un portavoz dijo que los anuncios eran una "pequeña muestra" que no representaba lo que los usuarios veían en plataformas como Facebook. La empresa argumentó que su capacidad para contrarrestar las amenazas electorales "supera" a la de sus rivales, pero solo respaldó esa afirmación señalando citas que ilustran la cantidad de recursos destinados a detener las amenazas violentas, no la eficiencia de estos recursos.

Los anuncios no habrían causado ningún daño, ya que los experimentadores tenían el poder de eliminarlos antes de que se publicaran. Aún así, el incidente destaca los límites de la dependencia parcial de Meta en la moderación de la IA para combatir la desinformación y el discurso de odio. Si bien el sistema ayuda a los metamoderadores humanos a administrar grandes cantidades de contenido, también corre el riesgo de dar luz verde a los anuncios que podrían pasar desapercibidos hasta que sean visibles para el público. Esto no solo podría permitir que las amenazas prosperen, sino que también generará multas del Reino Unido y otros países que planean penalizar a las empresas que no eliminen rápidamente el contenido extremista.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.

Facebook no pudo evitar que los anuncios de prueba amenazaran a los trabajadores electorales de mitad de período

Es posible que los esfuerzos de integridad electoral de Meta en Facebook no hayan sido tan sólidos como se afirma. Des chercheurs de Cybersecurity for Democracy de l'Université de New York et du chien de garde Global Witness ont révélé que le système de modération automatique de Facebook avait approuvé 15 publicités tests sur 20 menaçant les travailleurs électoraux avant les élections de mi-mandat américaines du el mes pasado. Los experimentos se basaron en amenazas reales y utilizaron un lenguaje "sencillo" que era potencialmente fácil de entender. En algunos casos, la red social incluso permitió anuncios después de que se realizaron cambios incorrectos. El equipo de investigación solo tuvo que eliminar las blasfemias y corregir la ortografía para superar los rechazos iniciales.

Los investigadores también probaron TikTok y YouTube. Ambos servicios han detenido todas las amenazas y prohibido las cuentas de prueba. En experiencias previas antes de las elecciones en Brasil, Facebook y YouTube permitieron que se enviara toda la información electoral falsa en una primera pasada, aunque Facebook rechazó hasta el 50 % en los envíos de seguimiento.

En una declaración a Engadget, un portavoz dijo que los anuncios eran una "pequeña muestra" que no representaba lo que los usuarios veían en plataformas como Facebook. La empresa argumentó que su capacidad para contrarrestar las amenazas electorales "supera" a la de sus rivales, pero solo respaldó esa afirmación señalando citas que ilustran la cantidad de recursos destinados a detener las amenazas violentas, no la eficiencia de estos recursos.

Los anuncios no habrían causado ningún daño, ya que los experimentadores tenían el poder de eliminarlos antes de que se publicaran. Aún así, el incidente destaca los límites de la dependencia parcial de Meta en la moderación de la IA para combatir la desinformación y el discurso de odio. Si bien el sistema ayuda a los metamoderadores humanos a administrar grandes cantidades de contenido, también corre el riesgo de dar luz verde a los anuncios que podrían pasar desapercibidos hasta que sean visibles para el público. Esto no solo podría permitir que las amenazas prosperen, sino que también generará multas del Reino Unido y otros países que planean penalizar a las empresas que no eliminen rápidamente el contenido extremista.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow