Por qué las redes sociales amplifican las vistas extremas y cómo detenerlo

Peacebuilder y Ashoka Fellow Helena Puig Larrauri cofundó Build Up para transformar el conflicto en la era digital, desde Estados Unidos hasta Irak. Con el crecimiento exponencial del contenido polarizador viral en las redes sociales, ha surgido para ella una pregunta sistémica clave: ¿y si hacemos que las plataformas paguen por el daño que producen? ¿Y si imagináramos un impuesto a la polarización, similar a un impuesto al carbono? Una conversación sobre las causas fundamentales de la polarización en línea y por qué las plataformas deben rendir cuentas por las externalidades negativas que causan.

Konstanze Frischen: Helena, ¿la tecnología ayuda o perjudica a la democracia?

Helena Puig Larrauri: Depende. Las tecnologías digitales tienen un gran potencial para incluir a más personas en los procesos de paz y democracia. Trabajamos en la transformación de conflictos en muchas partes del mundo, y la tecnología realmente puede ayudar a incluir a más personas. En Yemen, por ejemplo, puede ser muy difícil traer las perspectivas de las mujeres al proceso de paz. Así que trabajamos con la ONU para usar WhatsApp, una tecnología muy simple, para llegar a las mujeres y hacer que se escuchen sus voces, evitando problemas de seguridad y logística. Este es un ejemplo de potencial. Por otro lado, las tecnologías digitales plantean inmensos desafíos, desde la vigilancia hasta la manipulación. Y aquí, nuestro trabajo es comprender cómo las tecnologías digitales impactan en la escalada del conflicto y qué se puede hacer para mitigarlo.

Frischen: Tienes personal trabajando en países como Yemen, Kenia, Alemania y Estados Unidos. ¿Cómo se manifiesta esto cuando los medios digitales intensifican el conflicto?

Puig Larrauri: He aquí un ejemplo: Trabajamos con socios en el noreste de Irak, analizando cómo van las conversaciones en Facebook, y rápidamente mostró que lo que decía la gente y su posición estaba relacionado con la forma en que hablaban sobre su identidad sectaria. . , ya se llamen árabes o kurdos. Pero lo que estaba pasando a un nivel más profundo es que los usuarios empezaron a asociar la opinión de una persona con su identidad, es decir que al final lo que importa no es tanto lo que se dice, sino quién lo dice: la tuya o la de los demás. Y eso significaba que las conversaciones en Facebook estaban extremadamente polarizadas. Y no de forma sana, sino por identidad. Todos tenemos que ser capaces de estar en desacuerdo sobre cuestiones en un proceso democrático, en un proceso de paz. Pero cuando las identidades o los grupos comienzan a chocar, eso es lo que llamamos polarización afectiva . Y lo que eso significa es que no importa lo que realmente digas, voy a estar en desacuerdo contigo por el grupo al que perteneces. O, por el contrario, digas lo que digas, voy a estar de acuerdo contigo por el grupo al que perteneces. Cuando un debate se encuentra en este estado, entonces se encuentra en una situación en la que es muy probable que el conflicto sea destructivo. Y escalar hacia la violencia.

Frischen: ¿Estás diciendo que las redes sociales complican tu trabajo porque promueven la polarización emocional?

Puig Larrauri: Sí, realmente parece que las probabilidades están en contra de nuestro trabajo. Fuera de línea puede haber espacio, pero en línea a menudo parece que no hay forma de iniciar una conversación pacífica. Recuerdo una conversación con el responsable de nuestro trabajo en África, Caleb. Me dijo durante el reciente ciclo electoral en Kenia “cuando camino por las calles siento que va a ser una elección pacífica. Pero cuando leo las redes sociales, es una zona de guerra. Lo recuerdo porque incluso para nosotros, que somos profesionales del espacio, es desestabilizador.

Frischen: La forma estándar en que las plataformas responden al discurso de odio es la moderación del contenido: detectarlo, etiquetarlo, según la jurisdicción, incluso eliminarlo. Dices que no es suficiente. ¿Por qué?

Puig Larrauri: La moderación de contenidos es útil en situaciones muy concretas: ayuda a combatir el discurso de odio, que en muchos sentidos es la punta del iceberg. Pero la polarización emocional a menudo se expresa de otras formas, por ejemplo a través del miedo. El discurso del miedo no es lo mismo que el discurso del odio. No se puede identificar tan fácilmente. Probablemente no violará los términos de servicio. Sin embargo, sabemos que fe...

Por qué las redes sociales amplifican las vistas extremas y cómo detenerlo

Peacebuilder y Ashoka Fellow Helena Puig Larrauri cofundó Build Up para transformar el conflicto en la era digital, desde Estados Unidos hasta Irak. Con el crecimiento exponencial del contenido polarizador viral en las redes sociales, ha surgido para ella una pregunta sistémica clave: ¿y si hacemos que las plataformas paguen por el daño que producen? ¿Y si imagináramos un impuesto a la polarización, similar a un impuesto al carbono? Una conversación sobre las causas fundamentales de la polarización en línea y por qué las plataformas deben rendir cuentas por las externalidades negativas que causan.

Konstanze Frischen: Helena, ¿la tecnología ayuda o perjudica a la democracia?

Helena Puig Larrauri: Depende. Las tecnologías digitales tienen un gran potencial para incluir a más personas en los procesos de paz y democracia. Trabajamos en la transformación de conflictos en muchas partes del mundo, y la tecnología realmente puede ayudar a incluir a más personas. En Yemen, por ejemplo, puede ser muy difícil traer las perspectivas de las mujeres al proceso de paz. Así que trabajamos con la ONU para usar WhatsApp, una tecnología muy simple, para llegar a las mujeres y hacer que se escuchen sus voces, evitando problemas de seguridad y logística. Este es un ejemplo de potencial. Por otro lado, las tecnologías digitales plantean inmensos desafíos, desde la vigilancia hasta la manipulación. Y aquí, nuestro trabajo es comprender cómo las tecnologías digitales impactan en la escalada del conflicto y qué se puede hacer para mitigarlo.

Frischen: Tienes personal trabajando en países como Yemen, Kenia, Alemania y Estados Unidos. ¿Cómo se manifiesta esto cuando los medios digitales intensifican el conflicto?

Puig Larrauri: He aquí un ejemplo: Trabajamos con socios en el noreste de Irak, analizando cómo van las conversaciones en Facebook, y rápidamente mostró que lo que decía la gente y su posición estaba relacionado con la forma en que hablaban sobre su identidad sectaria. . , ya se llamen árabes o kurdos. Pero lo que estaba pasando a un nivel más profundo es que los usuarios empezaron a asociar la opinión de una persona con su identidad, es decir que al final lo que importa no es tanto lo que se dice, sino quién lo dice: la tuya o la de los demás. Y eso significaba que las conversaciones en Facebook estaban extremadamente polarizadas. Y no de forma sana, sino por identidad. Todos tenemos que ser capaces de estar en desacuerdo sobre cuestiones en un proceso democrático, en un proceso de paz. Pero cuando las identidades o los grupos comienzan a chocar, eso es lo que llamamos polarización afectiva . Y lo que eso significa es que no importa lo que realmente digas, voy a estar en desacuerdo contigo por el grupo al que perteneces. O, por el contrario, digas lo que digas, voy a estar de acuerdo contigo por el grupo al que perteneces. Cuando un debate se encuentra en este estado, entonces se encuentra en una situación en la que es muy probable que el conflicto sea destructivo. Y escalar hacia la violencia.

Frischen: ¿Estás diciendo que las redes sociales complican tu trabajo porque promueven la polarización emocional?

Puig Larrauri: Sí, realmente parece que las probabilidades están en contra de nuestro trabajo. Fuera de línea puede haber espacio, pero en línea a menudo parece que no hay forma de iniciar una conversación pacífica. Recuerdo una conversación con el responsable de nuestro trabajo en África, Caleb. Me dijo durante el reciente ciclo electoral en Kenia “cuando camino por las calles siento que va a ser una elección pacífica. Pero cuando leo las redes sociales, es una zona de guerra. Lo recuerdo porque incluso para nosotros, que somos profesionales del espacio, es desestabilizador.

Frischen: La forma estándar en que las plataformas responden al discurso de odio es la moderación del contenido: detectarlo, etiquetarlo, según la jurisdicción, incluso eliminarlo. Dices que no es suficiente. ¿Por qué?

Puig Larrauri: La moderación de contenidos es útil en situaciones muy concretas: ayuda a combatir el discurso de odio, que en muchos sentidos es la punta del iceberg. Pero la polarización emocional a menudo se expresa de otras formas, por ejemplo a través del miedo. El discurso del miedo no es lo mismo que el discurso del odio. No se puede identificar tan fácilmente. Probablemente no violará los términos de servicio. Sin embargo, sabemos que fe...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow