Интернет скоро станет намного безопаснее
Эта статья взята из The Technocrat, еженедельного информационного бюллетеня MIT Technology Review о власти, политике и Кремниевой долине. Чтобы получать его в свой почтовый ящик каждую пятницу, зарегистрируйтесь здесь.
Если вы пользуетесь Google, Instagram, Википедией или YouTube, вы начнете замечать изменения в функциях модерации контента, прозрачности и безопасности на этих сайтах в течение следующих шести месяцев.
Почему? Это связано с важным технологическим законодательством, которое было принято в ЕС в прошлом году, но не получило должного внимания (IMO), особенно в США. Я имею в виду пару законопроектов, называемых Законом о цифровых услугах (DSA) и Законом о цифровых рынках (DMA), и это, как говорится, ваш знак, с которым нужно ознакомиться.
Эти законы на самом деле новаторские и устанавливают глобальный ориентир для технологического регулирования пользовательского контента. DSA касается цифровой безопасности и прозрачности технологических компаний, а DMA — антимонопольного законодательства и конкуренции в отрасли. Позволь мне объяснить.
Несколько недель назад ADS достигла важной вехи. По состоянию на 17 февраля 2023 года все основные технологические платформы в Европе должны были самостоятельно сообщать о своем размере, что использовалось для группировки компаний по разным уровням. Крупнейшие компании с более чем 45 миллионами активных пользователей в месяц в ЕС (около 10% населения ЕС) творчески называются «Очень крупными онлайн-платформами» (или VLOP) или «Очень крупными онлайн-поисковыми системами» (или VLOSE) и будет соответствовать самым высоким стандартам прозрачности и регулирования. У небольших онлайн-платформ гораздо меньше обязательств, что было частью политики поощрения конкуренции и инноваций при привлечении к ответственности крупных технологий.
"Если вы попросите [малый бизнес], например, нанять 30 000 модераторов, вы убьете малый бизнес", – сказал мне в прошлом году Анри Вердье, представитель Франции в области цифровых технологий.
Что на самом деле собирается делать DSA? На данный момент не менее 18 компаний объявили себя VLOP и VLOSE, в том числе самые известные игроки, такие как YouTube, TikTok, Instagram, Pinterest, Google и Snapchat. (Если вам нужен полный список, у Мартина Хусовека, профессора права в Лондонской школе экономики, есть отличный документ Google, в котором показано, что делают все основные игроки, и он написал сопроводительное пояснение.)
DSA потребует от этих компаний оценить риски на своих платформах, такие как вероятность незаконного контента или манипулирования выборами, и разработать планы по снижению этих рисков с помощью независимых аудитов для проверки безопасности. Малые предприятия (с числом пользователей менее 45 миллионов) также должны будут соответствовать новым стандартам модерации контента, в том числе «незамедлительно» удалять незаконный контент после того, как он будет помечен, уведомлять пользователей о таком удалении и обеспечивать совершенствование существующих политик компании.
Сторонники законопроекта говорят, что законопроект поможет положить конец эпохе саморегулирования технологических компаний. «Я не хочу, чтобы компании решали, что запрещено, а что нет без какого-либо разделения властей, без какой-либо ответственности, без каких-либо отношений, без какой-либо возможности оспаривания», — говорит Вердье. «Это очень опасно».
Тем не менее, в законопроекте четко указано, что платформы не несут ответственности за незаконный контент, созданный пользователями, если только они не узнают об этом контенте и не удалят его.
Возможно, важнее всего то, что DSA требует от компаний значительного повышения прозрачности за счет требований к отчетности в отношении уведомлений об «условиях обслуживания» и регулярных проверенных отчетов о модерации контента . Регуляторные органы надеются, что это будет иметь широкое значение для публичных дискуссий о социальных рисках крупных технологических платформ, таких как разжигание ненависти, дезинформация и насилие.
Что вы заметите? Вы сможете участвовать в решениях по модерации контента, принимаемых компаниями, и официально оспаривать их. DSA фактически запретит теневой бан (практику снижения приоритета контента без предварительного уведомления), обуздает...
![Интернет скоро станет намного безопаснее](https://wp.technologyreview.com/wp-content/uploads/2023/03/dsa3a.jpeg?resize=1200,600)
Эта статья взята из The Technocrat, еженедельного информационного бюллетеня MIT Technology Review о власти, политике и Кремниевой долине. Чтобы получать его в свой почтовый ящик каждую пятницу, зарегистрируйтесь здесь.
Если вы пользуетесь Google, Instagram, Википедией или YouTube, вы начнете замечать изменения в функциях модерации контента, прозрачности и безопасности на этих сайтах в течение следующих шести месяцев.
Почему? Это связано с важным технологическим законодательством, которое было принято в ЕС в прошлом году, но не получило должного внимания (IMO), особенно в США. Я имею в виду пару законопроектов, называемых Законом о цифровых услугах (DSA) и Законом о цифровых рынках (DMA), и это, как говорится, ваш знак, с которым нужно ознакомиться.
Эти законы на самом деле новаторские и устанавливают глобальный ориентир для технологического регулирования пользовательского контента. DSA касается цифровой безопасности и прозрачности технологических компаний, а DMA — антимонопольного законодательства и конкуренции в отрасли. Позволь мне объяснить.
Несколько недель назад ADS достигла важной вехи. По состоянию на 17 февраля 2023 года все основные технологические платформы в Европе должны были самостоятельно сообщать о своем размере, что использовалось для группировки компаний по разным уровням. Крупнейшие компании с более чем 45 миллионами активных пользователей в месяц в ЕС (около 10% населения ЕС) творчески называются «Очень крупными онлайн-платформами» (или VLOP) или «Очень крупными онлайн-поисковыми системами» (или VLOSE) и будет соответствовать самым высоким стандартам прозрачности и регулирования. У небольших онлайн-платформ гораздо меньше обязательств, что было частью политики поощрения конкуренции и инноваций при привлечении к ответственности крупных технологий.
"Если вы попросите [малый бизнес], например, нанять 30 000 модераторов, вы убьете малый бизнес", – сказал мне в прошлом году Анри Вердье, представитель Франции в области цифровых технологий.
Что на самом деле собирается делать DSA? На данный момент не менее 18 компаний объявили себя VLOP и VLOSE, в том числе самые известные игроки, такие как YouTube, TikTok, Instagram, Pinterest, Google и Snapchat. (Если вам нужен полный список, у Мартина Хусовека, профессора права в Лондонской школе экономики, есть отличный документ Google, в котором показано, что делают все основные игроки, и он написал сопроводительное пояснение.)
DSA потребует от этих компаний оценить риски на своих платформах, такие как вероятность незаконного контента или манипулирования выборами, и разработать планы по снижению этих рисков с помощью независимых аудитов для проверки безопасности. Малые предприятия (с числом пользователей менее 45 миллионов) также должны будут соответствовать новым стандартам модерации контента, в том числе «незамедлительно» удалять незаконный контент после того, как он будет помечен, уведомлять пользователей о таком удалении и обеспечивать совершенствование существующих политик компании.
Сторонники законопроекта говорят, что законопроект поможет положить конец эпохе саморегулирования технологических компаний. «Я не хочу, чтобы компании решали, что запрещено, а что нет без какого-либо разделения властей, без какой-либо ответственности, без каких-либо отношений, без какой-либо возможности оспаривания», — говорит Вердье. «Это очень опасно».
Тем не менее, в законопроекте четко указано, что платформы не несут ответственности за незаконный контент, созданный пользователями, если только они не узнают об этом контенте и не удалят его.
Возможно, важнее всего то, что DSA требует от компаний значительного повышения прозрачности за счет требований к отчетности в отношении уведомлений об «условиях обслуживания» и регулярных проверенных отчетов о модерации контента . Регуляторные органы надеются, что это будет иметь широкое значение для публичных дискуссий о социальных рисках крупных технологических платформ, таких как разжигание ненависти, дезинформация и насилие.
Что вы заметите? Вы сможете участвовать в решениях по модерации контента, принимаемых компаниями, и официально оспаривать их. DSA фактически запретит теневой бан (практику снижения приоритета контента без предварительного уведомления), обуздает...
What's Your Reaction?
![like](https://vidianews.com/assets/img/reactions/like.png)
![dislike](https://vidianews.com/assets/img/reactions/dislike.png)
![love](https://vidianews.com/assets/img/reactions/love.png)
![funny](https://vidianews.com/assets/img/reactions/funny.png)
![angry](https://vidianews.com/assets/img/reactions/angry.png)
![sad](https://vidianews.com/assets/img/reactions/sad.png)
![wow](https://vidianews.com/assets/img/reactions/wow.png)