В этот год больших выборов архитекторы ИИ выступают против его неправильного использования
Anthropic, OpenAI, Google, Meta и другие ключевые разработчики стараются не допустить, чтобы технологии угрожали демократиям, хотя их инструменты становятся все более мощными. /p>< p class="css-at9mc1 evys1bk0">Компании, занимающиеся искусственным интеллектом, находятся в авангарде разработки преобразующих технологий. Теперь они также работают над установлением ограничений на работу ИИ. используется в год, наполненный крупными выборами по всему миру.
В прошлом месяце OpenAI, создатель чат-бота ChatGPT, заявил, что стремится предотвратить злоупотребление своими инструментами. . во время выборов, в частности, запретив их использование для создания чат-ботов, выдающих себя за реальных людей или учреждения. В последние недели Google также объявила, что ограничит свои технологии искусственного интеллекта. чат-боту Барду отвечать на определенные запросы, связанные с выборами, «из большой осторожности». А Meta, владелец Facebook и Instagram, пообещала лучше маркировать контент, созданный искусственным интеллектом, на своих платформах, чтобы избирателям было легче различать, что реально, а что фальшиво.
В пятницу 20 технологических компаний, включая Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, TikTok и X, подписали добровольное обязательство помочь предотвратить обманный искусственный интеллект. контент, чтобы сорвать голосование в 2024 году. Соглашение, о котором было объявлено на Мюнхенской конференции по безопасности, включало обязательство компаний сотрудничать в области искусственного интеллекта. инструменты обнаружения и другие действия, но он не призывал к запрету ИИ, связанного с выборами. content.
Anthrophic также отдельно заявила в пятницу, что запретит применение своей технологии в политических кампаниях или лоббировании. В своем блоге компания, создающая чат-бота по имени Клод, заявила, что будет предупреждать или блокировать любого пользователя, который нарушает ее правила. Он добавил, что он использует обученные инструменты для автоматического обнаружения и блокирования дезинформации и операций влияния.
«История ИИ. внедрение также было полно сюрпризов и неожиданных эффектов», — заявили в компании. «Мы предсказываем, что в 2024 году мы увидим удивительное применение ИИ. системы — использование, не предусмотренное их собственными разработчиками. »
Эти усилия являются частью подталкивания компаний к освоению технологии, которую они популяризировали, когда миллиарды людей приходят на выборы. По данным консалтинговой компании Anchor Change, в этом году ожидается не менее 83 выборов во всем мире, что является самой большой концентрацией, по крайней мере, за следующие 24 года. За последние недели проголосовали жители Тайваня, Пакистана и Индонезии, а Индия, крупнейшая демократическая страна в мире, как ожидается, проведет всеобщие выборы весной.
Мы имеем сложности. получить содержимое статьи.
Включите JavaScript в настройках браузера.
Спасибо за ваше терпение, пока мы проверяем доступ . Если вы находитесь в режиме чтения, выйдите и
![В этот год больших выборов архитекторы ИИ выступают против его неправильного использования](https://static01.nyt.com/images/2024/02/16/multimedia/16Elections-AI-hjmk/16Elections-AI-hjmk-facebookJumbo.jpg)
Anthropic, OpenAI, Google, Meta и другие ключевые разработчики стараются не допустить, чтобы технологии угрожали демократиям, хотя их инструменты становятся все более мощными. /p>< p class="css-at9mc1 evys1bk0">Компании, занимающиеся искусственным интеллектом, находятся в авангарде разработки преобразующих технологий. Теперь они также работают над установлением ограничений на работу ИИ. используется в год, наполненный крупными выборами по всему миру.
В прошлом месяце OpenAI, создатель чат-бота ChatGPT, заявил, что стремится предотвратить злоупотребление своими инструментами. . во время выборов, в частности, запретив их использование для создания чат-ботов, выдающих себя за реальных людей или учреждения. В последние недели Google также объявила, что ограничит свои технологии искусственного интеллекта. чат-боту Барду отвечать на определенные запросы, связанные с выборами, «из большой осторожности». А Meta, владелец Facebook и Instagram, пообещала лучше маркировать контент, созданный искусственным интеллектом, на своих платформах, чтобы избирателям было легче различать, что реально, а что фальшиво.
В пятницу 20 технологических компаний, включая Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, TikTok и X, подписали добровольное обязательство помочь предотвратить обманный искусственный интеллект. контент, чтобы сорвать голосование в 2024 году. Соглашение, о котором было объявлено на Мюнхенской конференции по безопасности, включало обязательство компаний сотрудничать в области искусственного интеллекта. инструменты обнаружения и другие действия, но он не призывал к запрету ИИ, связанного с выборами. content.
Anthrophic также отдельно заявила в пятницу, что запретит применение своей технологии в политических кампаниях или лоббировании. В своем блоге компания, создающая чат-бота по имени Клод, заявила, что будет предупреждать или блокировать любого пользователя, который нарушает ее правила. Он добавил, что он использует обученные инструменты для автоматического обнаружения и блокирования дезинформации и операций влияния.
«История ИИ. внедрение также было полно сюрпризов и неожиданных эффектов», — заявили в компании. «Мы предсказываем, что в 2024 году мы увидим удивительное применение ИИ. системы — использование, не предусмотренное их собственными разработчиками. »
Эти усилия являются частью подталкивания компаний к освоению технологии, которую они популяризировали, когда миллиарды людей приходят на выборы. По данным консалтинговой компании Anchor Change, в этом году ожидается не менее 83 выборов во всем мире, что является самой большой концентрацией, по крайней мере, за следующие 24 года. За последние недели проголосовали жители Тайваня, Пакистана и Индонезии, а Индия, крупнейшая демократическая страна в мире, как ожидается, проведет всеобщие выборы весной.
Мы имеем сложности. получить содержимое статьи.
Включите JavaScript в настройках браузера.
Спасибо за ваше терпение, пока мы проверяем доступ . Если вы находитесь в режиме чтения, выйдите и
What's Your Reaction?
![like](https://vidianews.com/assets/img/reactions/like.png)
![dislike](https://vidianews.com/assets/img/reactions/dislike.png)
![love](https://vidianews.com/assets/img/reactions/love.png)
![funny](https://vidianews.com/assets/img/reactions/funny.png)
![angry](https://vidianews.com/assets/img/reactions/angry.png)
![sad](https://vidianews.com/assets/img/reactions/sad.png)
![wow](https://vidianews.com/assets/img/reactions/wow.png)