Алгоритм YouTube выдвинул обвинения в мошенничестве на выборах сторонникам Трампа, говорится в отчете.

YouTube Алгоритм выдвинул обвинения в мошенничестве на выборах сторонникам Трампа, говорится в отчетеРазвернуть Натан Ховард/Стрингер | Getty ImagesНовости

В течение многих лет исследователи предполагали, что алгоритмы, загружающие пользовательский контент, не являются причиной онлайн-эхо-камер, а, скорее всего, связаны с активным поиском пользователями контента, который соответствует их убеждениям. На этой неделе исследователи Центра социальных сетей и политики Нью-Йоркского университета показали результаты эксперимента на YouTube, который был проведен как раз в тот момент, когда осенью 2020 года были выдвинуты обвинения в мошенничестве на выборах. исследование, демонстрирующее доказательства того, что в 2020 году алгоритм YouTube был ответственен за "непропорционально" рекомендацию контента, связанного с мошенничеством при голосовании, более "скептически настроенным" пользователям в отношении легитимности выборов с самого начала".

Соавтор исследования, политолог из Университета Вандербильта Джеймс Бисби, рассказал The Verge, что, хотя участникам было рекомендовано небольшое количество видеороликов с отрицанием выборов (максимум 12 видеороликов из сотен просмотренных участников), алгоритм сгенерировал в три раза больше видео. гораздо больше для людей, предрасположенных присоединиться к заговору, чем для людей, которые этого не сделали. "Чем более чувствительны вы к подобного рода материалам о выборах... тем больше материалов об этих материалах вам порекомендуют", – сказал Бисби.

Пресс-секретарь YouTube Елена Эрнандес сообщила Ars, что отчет команды Bisbee «неточно отражает работу наших систем». Эрнандес заявляет: «YouTube не разрешает и не рекомендует видео, в которых содержатся ложные утверждения о широко распространенном мошенничестве, ошибках или проблемах, имевших место на президентских выборах в США в 2020 году», а «самые популярные видео и каналы. Просмотры и рекомендации на YouTube, связанные с выборами, поступают из авторитетных источников. , например новостные каналы."

Команда Бисби прямо заявляет в своем отчете, что они не пытались разгадать загадку того, как работает система рекомендаций YouTube:

"Без доступа к алгоритму коммерческой тайны YouTube мы не можем с уверенностью сказать, что система рекомендаций делает вывод о склонности пользователя к контенту, связанному с мошенничеством при голосовании, на основе его истории прошлых просмотров, его демографических данных или их комбинации. Для целей наш вклад, мы относимся к алгоритму как к черному ящику, и мы просто спрашиваем, не будет ли он непропорционально рекомендовать мошеннический контент пользователям, которые более скептически относятся к легитимности выборов."

Для проведения эксперимента команда Bisbee привлекла сотни пользователей YouTube и воссоздала эксперимент с рекомендациями, попросив каждого участника завершить исследование, войдя в свою учетную запись YouTube. После того, как участники нажали на различные рекомендации, исследователи записали любой рекомендуемый контент, помеченный как поддерживающий, опровергающий или нейтрально сообщающий об обвинениях Трампа в мошенничестве на выборах. После просмотра видео участники приняли участие в длинном опросе, чтобы поделиться своими мыслями о выборах 2020 года.

Бисби сообщил Ars, что "цель нашего исследования заключалась не в том, чтобы измерить, описать или перепроектировать внутреннюю работу алгоритма YouTube, а скорее в том, чтобы описать систематическую разницу в содержании, рекомендуемом более или менее заинтересованным пользователям". о мошенничестве на выборах. Единственной целью исследования был анализ контента, предоставляемого пользователям, чтобы проверить, способствуют ли системы онлайн-рекомендаций «поляризованной информационной среде».

"Мы можем показать эту модель без обратного проектирования алгоритма черного ящика, который они используют", – сказал Бисби Ars. "Мы просто смотрели, что показывали реальным людям".

Тест системы рекомендаций YouTube

Команда Bisbee отметила это, поскольку алгоритм YouTube основан на истории просмотров и подписках. В большинстве случаев рекомендуется, чтобы рекомендуемый контент соответствовал интересам пользователей. Но из-за ужасных обстоятельств, возникших после выборов 2020 года, исследователи предположили, что рекомендательная система, естественно, будет предоставлять больше контента о мошенничестве избирателей пользователям, которые уже скептически относились к победе Джо Байдена. /p>

Чтобы проверить эту гипотезу, исследователи "тщательно отслеживали поведение реальных пользователей YouTube на платформе". Участники вошли в свои аккаунты и загрузили браузер...

Алгоритм YouTube выдвинул обвинения в мошенничестве на выборах сторонникам Трампа, говорится в отчете.
YouTube Алгоритм выдвинул обвинения в мошенничестве на выборах сторонникам Трампа, говорится в отчетеРазвернуть Натан Ховард/Стрингер | Getty ImagesНовости

В течение многих лет исследователи предполагали, что алгоритмы, загружающие пользовательский контент, не являются причиной онлайн-эхо-камер, а, скорее всего, связаны с активным поиском пользователями контента, который соответствует их убеждениям. На этой неделе исследователи Центра социальных сетей и политики Нью-Йоркского университета показали результаты эксперимента на YouTube, который был проведен как раз в тот момент, когда осенью 2020 года были выдвинуты обвинения в мошенничестве на выборах. исследование, демонстрирующее доказательства того, что в 2020 году алгоритм YouTube был ответственен за "непропорционально" рекомендацию контента, связанного с мошенничеством при голосовании, более "скептически настроенным" пользователям в отношении легитимности выборов с самого начала".

Соавтор исследования, политолог из Университета Вандербильта Джеймс Бисби, рассказал The Verge, что, хотя участникам было рекомендовано небольшое количество видеороликов с отрицанием выборов (максимум 12 видеороликов из сотен просмотренных участников), алгоритм сгенерировал в три раза больше видео. гораздо больше для людей, предрасположенных присоединиться к заговору, чем для людей, которые этого не сделали. "Чем более чувствительны вы к подобного рода материалам о выборах... тем больше материалов об этих материалах вам порекомендуют", – сказал Бисби.

Пресс-секретарь YouTube Елена Эрнандес сообщила Ars, что отчет команды Bisbee «неточно отражает работу наших систем». Эрнандес заявляет: «YouTube не разрешает и не рекомендует видео, в которых содержатся ложные утверждения о широко распространенном мошенничестве, ошибках или проблемах, имевших место на президентских выборах в США в 2020 году», а «самые популярные видео и каналы. Просмотры и рекомендации на YouTube, связанные с выборами, поступают из авторитетных источников. , например новостные каналы."

Команда Бисби прямо заявляет в своем отчете, что они не пытались разгадать загадку того, как работает система рекомендаций YouTube:

"Без доступа к алгоритму коммерческой тайны YouTube мы не можем с уверенностью сказать, что система рекомендаций делает вывод о склонности пользователя к контенту, связанному с мошенничеством при голосовании, на основе его истории прошлых просмотров, его демографических данных или их комбинации. Для целей наш вклад, мы относимся к алгоритму как к черному ящику, и мы просто спрашиваем, не будет ли он непропорционально рекомендовать мошеннический контент пользователям, которые более скептически относятся к легитимности выборов."

Для проведения эксперимента команда Bisbee привлекла сотни пользователей YouTube и воссоздала эксперимент с рекомендациями, попросив каждого участника завершить исследование, войдя в свою учетную запись YouTube. После того, как участники нажали на различные рекомендации, исследователи записали любой рекомендуемый контент, помеченный как поддерживающий, опровергающий или нейтрально сообщающий об обвинениях Трампа в мошенничестве на выборах. После просмотра видео участники приняли участие в длинном опросе, чтобы поделиться своими мыслями о выборах 2020 года.

Бисби сообщил Ars, что "цель нашего исследования заключалась не в том, чтобы измерить, описать или перепроектировать внутреннюю работу алгоритма YouTube, а скорее в том, чтобы описать систематическую разницу в содержании, рекомендуемом более или менее заинтересованным пользователям". о мошенничестве на выборах. Единственной целью исследования был анализ контента, предоставляемого пользователям, чтобы проверить, способствуют ли системы онлайн-рекомендаций «поляризованной информационной среде».

"Мы можем показать эту модель без обратного проектирования алгоритма черного ящика, который они используют", – сказал Бисби Ars. "Мы просто смотрели, что показывали реальным людям".

Тест системы рекомендаций YouTube

Команда Bisbee отметила это, поскольку алгоритм YouTube основан на истории просмотров и подписках. В большинстве случаев рекомендуется, чтобы рекомендуемый контент соответствовал интересам пользователей. Но из-за ужасных обстоятельств, возникших после выборов 2020 года, исследователи предположили, что рекомендательная система, естественно, будет предоставлять больше контента о мошенничестве избирателей пользователям, которые уже скептически относились к победе Джо Байдена. /p>

Чтобы проверить эту гипотезу, исследователи "тщательно отслеживали поведение реальных пользователей YouTube на платформе". Участники вошли в свои аккаунты и загрузили браузер...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow