Bing Chat на базе искусственного интеллекта получает три разных личности
В среду сотрудник Microsoft Майк Дэвидсон объявил, что компания внедрила три различных стиля личности для своего экспериментального бота Bing Chat на базе искусственного интеллекта: творческий, сбалансированный и точный. Microsoft тестирует эту функцию с 24 февраля с ограниченным числом пользователей. Переключение между режимами дает разные результаты, которые изменяют баланс между точностью и креативностью.
Bing Chat – это помощник на основе искусственного интеллекта, основанный на расширенной модели большого языка (LLM), разработанной OpenAI. Ключевой особенностью Bing Chat является то, что он может выполнять поиск в Интернете и включать результаты в свои ответы.
Microsoft анонсировала Bing Chat 7 февраля, и вскоре после того, как он был запущен, состязательные атаки неуклонно доводили раннюю версию Bing Chat до симуляции безумия, и пользователи обнаружили, что бота можно убедить угрожать им. Вскоре после этого Microsoft резко сократила переполнение чата Bing, наложив строгие ограничения на продолжительность разговоров.
С тех пор компания экспериментирует с тем, как вернуть дерзкую индивидуальность Bing Chat тем, кто этого хочет, а также позволить другим пользователям искать более конкретные ответы. В результате появился новый интерфейс с тремя вариантами диалога.
В среду сотрудник Microsoft Майк Дэвидсон объявил, что компания внедрила три различных стиля личности для своего экспериментального бота Bing Chat на базе искусственного интеллекта: творческий, сбалансированный и точный. Microsoft тестирует эту функцию с 24 февраля с ограниченным числом пользователей. Переключение между режимами дает разные результаты, которые изменяют баланс между точностью и креативностью.
Bing Chat – это помощник на основе искусственного интеллекта, основанный на расширенной модели большого языка (LLM), разработанной OpenAI. Ключевой особенностью Bing Chat является то, что он может выполнять поиск в Интернете и включать результаты в свои ответы.
Microsoft анонсировала Bing Chat 7 февраля, и вскоре после того, как он был запущен, состязательные атаки неуклонно доводили раннюю версию Bing Chat до симуляции безумия, и пользователи обнаружили, что бота можно убедить угрожать им. Вскоре после этого Microsoft резко сократила переполнение чата Bing, наложив строгие ограничения на продолжительность разговоров.
С тех пор компания экспериментирует с тем, как вернуть дерзкую индивидуальность Bing Chat тем, кто этого хочет, а также позволить другим пользователям искать более конкретные ответы. В результате появился новый интерфейс с тремя вариантами диалога.
При тестировании всех трех стилей мы заметили, что в режиме "Креатив" предлагались более короткие и необычные предложения, которые не всегда были безопасными или практичными. «Точный» режим ошибался из-за осторожности, иногда ничего не предлагая, если не видел безопасного способа получить результат. Посередине «Сбалансированный» режим часто дает самые длинные ответы с наиболее подробными результатами поиска и цитатами веб-сайтов в своих ответах.
В больших языковых моделях частота неожиданных неточностей (галлюцинаций) часто увеличивается с повышением «креативности», что обычно означает, что модель ИИ будет еще больше отклоняться от информации, которую она изучила в своем наборе данных. Исследователи искусственного интеллекта часто называют это свойство «температурой», но члены команды Bing говорят, что новые стили разговора — это нечто большее.
По словам сотрудника Microsoft Михаила Парахина, переключение режимов в чате Bing меняет фундаментальные аспекты поведения ботов, в том числе переключение между разными моделями ИИ, которые прошли дополнительное обучение на реакциях человека на его выход. Разница...
What's Your Reaction?