Bing Chat на базе искусственного интеллекта получает три разных личности

Три разных- красочные головы роботов.Expand Бендж Эдвардс / Ars Technica

В среду сотрудник Microsoft Майк Дэвидсон объявил, что компания внедрила три различных стиля личности для своего экспериментального бота Bing Chat на базе искусственного интеллекта: творческий, сбалансированный и точный. Microsoft тестирует эту функцию с 24 февраля с ограниченным числом пользователей. Переключение между режимами дает разные результаты, которые изменяют баланс между точностью и креативностью.

Bing Chat – это помощник на основе искусственного интеллекта, основанный на расширенной модели большого языка (LLM), разработанной OpenAI. Ключевой особенностью Bing Chat является то, что он может выполнять поиск в Интернете и включать результаты в свои ответы.

Microsoft анонсировала Bing Chat 7 февраля, и вскоре после того, как он был запущен, состязательные атаки неуклонно доводили раннюю версию Bing Chat до симуляции безумия, и пользователи обнаружили, что бота можно убедить угрожать им. Вскоре после этого Microsoft резко сократила переполнение чата Bing, наложив строгие ограничения на продолжительность разговоров.

С тех пор компания экспериментирует с тем, как вернуть дерзкую индивидуальность Bing Chat тем, кто этого хочет, а также позволить другим пользователям искать более конкретные ответы. В результате появился новый интерфейс с тремя вариантами диалога.

Пример «творческого» стиля общения Bing Chat. Майкрософт
Пример «точного» стиля разговора Bing Chat. Майкрософт
Пример «сбалансированного» разговорного стиля Bing Chat. Майкрософт

При тестировании всех трех стилей мы заметили, что в режиме "Креатив" предлагались более короткие и необычные предложения, которые не всегда были безопасными или практичными. «Точный» режим ошибался из-за осторожности, иногда ничего не предлагая, если не видел безопасного способа получить результат. Посередине «Сбалансированный» режим часто дает самые длинные ответы с наиболее подробными результатами поиска и цитатами веб-сайтов в своих ответах.

В больших языковых моделях частота неожиданных неточностей (галлюцинаций) часто увеличивается с повышением «креативности», что обычно означает, что модель ИИ будет еще больше отклоняться от информации, которую она изучила в своем наборе данных. Исследователи искусственного интеллекта часто называют это свойство «температурой», но члены команды Bing говорят, что новые стили разговора — это нечто большее.

По словам сотрудника Microsoft Михаила Парахина, переключение режимов в чате Bing меняет фундаментальные аспекты поведения ботов, в том числе переключение между разными моделями ИИ, которые прошли дополнительное обучение на реакциях человека на его выход. Разница...

Bing Chat на базе искусственного интеллекта получает три разных личности
Три разных- красочные головы роботов.Expand Бендж Эдвардс / Ars Technica

В среду сотрудник Microsoft Майк Дэвидсон объявил, что компания внедрила три различных стиля личности для своего экспериментального бота Bing Chat на базе искусственного интеллекта: творческий, сбалансированный и точный. Microsoft тестирует эту функцию с 24 февраля с ограниченным числом пользователей. Переключение между режимами дает разные результаты, которые изменяют баланс между точностью и креативностью.

Bing Chat – это помощник на основе искусственного интеллекта, основанный на расширенной модели большого языка (LLM), разработанной OpenAI. Ключевой особенностью Bing Chat является то, что он может выполнять поиск в Интернете и включать результаты в свои ответы.

Microsoft анонсировала Bing Chat 7 февраля, и вскоре после того, как он был запущен, состязательные атаки неуклонно доводили раннюю версию Bing Chat до симуляции безумия, и пользователи обнаружили, что бота можно убедить угрожать им. Вскоре после этого Microsoft резко сократила переполнение чата Bing, наложив строгие ограничения на продолжительность разговоров.

С тех пор компания экспериментирует с тем, как вернуть дерзкую индивидуальность Bing Chat тем, кто этого хочет, а также позволить другим пользователям искать более конкретные ответы. В результате появился новый интерфейс с тремя вариантами диалога.

Пример «творческого» стиля общения Bing Chat. Майкрософт
Пример «точного» стиля разговора Bing Chat. Майкрософт
Пример «сбалансированного» разговорного стиля Bing Chat. Майкрософт

При тестировании всех трех стилей мы заметили, что в режиме "Креатив" предлагались более короткие и необычные предложения, которые не всегда были безопасными или практичными. «Точный» режим ошибался из-за осторожности, иногда ничего не предлагая, если не видел безопасного способа получить результат. Посередине «Сбалансированный» режим часто дает самые длинные ответы с наиболее подробными результатами поиска и цитатами веб-сайтов в своих ответах.

В больших языковых моделях частота неожиданных неточностей (галлюцинаций) часто увеличивается с повышением «креативности», что обычно означает, что модель ИИ будет еще больше отклоняться от информации, которую она изучила в своем наборе данных. Исследователи искусственного интеллекта часто называют это свойство «температурой», но члены команды Bing говорят, что новые стили разговора — это нечто большее.

По словам сотрудника Microsoft Михаила Парахина, переключение режимов в чате Bing меняет фундаментальные аспекты поведения ботов, в том числе переключение между разными моделями ИИ, которые прошли дополнительное обучение на реакциях человека на его выход. Разница...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow