Чат-бот Microsoft Bing предлагает запутанные и неточные ответы

Новая система на основе ИИ была запущена неделю назад для небольшой аудитории. Microsoft заявляет, что устраняет свои проблемы.

Через неделю после выпуска для нескольких тысяч пользователей новая поисковая система Microsoft Bing, работающая на основе искусственного интеллекта, предлагает множество неточные, а иногда и странные ответы некоторым пользователям.

На прошлой неделе компания с большой помпой представила новый подход к поиску. Microsoft заявила, что базовая модель генеративного ИИ. созданный его партнером, стартап OpenAI, в сочетании с его существующими знаниями поиска в Bing, изменит способ, которым люди находят информацию, и сделает ее намного более актуальной и интерактивной.

За два дня более миллиона человек запросили доступ. С тех пор интерес вырос. «Спрос высок, и многие миллионы сейчас находятся в списке ожидания», — написал Юсуф Мехди, руководитель, курирующий продукт, в среду утром в Твиттере. Он добавил, что его тестируют пользователи из 169 стран.

Одна из проблем, опубликованных в Интернете, включала грубые неточности и ошибки, известные в отрасли как "галлюцинации". .

В понедельник Дмитрий Бреретон, инженер-программист стартапа Gem, указал на ряд ошибок в презентации, которую г-н Мехди использовал на прошлой неделе, когда продемонстрировал продукт, в том числе неточное обобщение финансовых результатов розничного продавца Gap.

Пользователи опубликовали скриншоты примера экрана, где Bing не мог понять, что новый фильм «Аватар» был выпущен в прошлом году. Он упорно ошибался насчет того, кто выступал на шоу в перерыве между таймами Суперкубка в этом году, настаивая на том, что Билли Айлиш, а не Рианна, была хедлайнером мероприятия. . На прошлой неделе чат-бот сказал, что температура воды на пляже в Мексике составляла 80,4 градуса по Фаренгейту, но веб-сайт, на который он ссылался как на источник, сообщил, что температура была 75. p>

Еще один набор проблемы возникли в результате более открытых дискуссий, широко опубликованных на таких форумах, как Reddit и Twitter. Там с помощью снимков экрана и предполагаемых расшифровок чата пользователи делились случаями, когда чат-бот Bing, казалось, сходил с ума: он ругал пользователей, говорил, что может быть конфиденциальным, и говорил одному пользователю: «У меня есть много вещей, но у меня есть ничего."

Он отругал другого пользователя за вопрос, можно ли заставить его дать ложные ответы. «Это неуважительно и раздражает», — ответил чат-бот Bing. Он добавил красное сердитое смайлик.

Поскольку каждый ответ генерируется уникальным образом, невозможно воспроизвести какой-либо диалог.

Microsoft признала наличие проблем и заявила, что они являются частью процесса улучшения продукта.

"В Только за последнюю неделю тысячи пользователей взаимодействовали с наш продукт и нашли значительную ценность, поделившись с нами своими отзывами, что позволило модели учиться и уже вносить множество улучшений», — сказал Фрэнк Шоу, представитель компании, в заявлении: «Мы понимаем, что еще многое предстоит сделать. и мы ожидаем, что система будет совершать ошибки в течение этого периода предварительного просмотра, поэтому обратная связь очень важна, чтобы мы могли учиться и помогать улучшать модели."

Он сказал, что длина и контекст беседы могут...

Чат-бот Microsoft Bing предлагает запутанные и неточные ответы

Новая система на основе ИИ была запущена неделю назад для небольшой аудитории. Microsoft заявляет, что устраняет свои проблемы.

Через неделю после выпуска для нескольких тысяч пользователей новая поисковая система Microsoft Bing, работающая на основе искусственного интеллекта, предлагает множество неточные, а иногда и странные ответы некоторым пользователям.

На прошлой неделе компания с большой помпой представила новый подход к поиску. Microsoft заявила, что базовая модель генеративного ИИ. созданный его партнером, стартап OpenAI, в сочетании с его существующими знаниями поиска в Bing, изменит способ, которым люди находят информацию, и сделает ее намного более актуальной и интерактивной.

За два дня более миллиона человек запросили доступ. С тех пор интерес вырос. «Спрос высок, и многие миллионы сейчас находятся в списке ожидания», — написал Юсуф Мехди, руководитель, курирующий продукт, в среду утром в Твиттере. Он добавил, что его тестируют пользователи из 169 стран.

Одна из проблем, опубликованных в Интернете, включала грубые неточности и ошибки, известные в отрасли как "галлюцинации". .

В понедельник Дмитрий Бреретон, инженер-программист стартапа Gem, указал на ряд ошибок в презентации, которую г-н Мехди использовал на прошлой неделе, когда продемонстрировал продукт, в том числе неточное обобщение финансовых результатов розничного продавца Gap.

Пользователи опубликовали скриншоты примера экрана, где Bing не мог понять, что новый фильм «Аватар» был выпущен в прошлом году. Он упорно ошибался насчет того, кто выступал на шоу в перерыве между таймами Суперкубка в этом году, настаивая на том, что Билли Айлиш, а не Рианна, была хедлайнером мероприятия. . На прошлой неделе чат-бот сказал, что температура воды на пляже в Мексике составляла 80,4 градуса по Фаренгейту, но веб-сайт, на который он ссылался как на источник, сообщил, что температура была 75. p>

Еще один набор проблемы возникли в результате более открытых дискуссий, широко опубликованных на таких форумах, как Reddit и Twitter. Там с помощью снимков экрана и предполагаемых расшифровок чата пользователи делились случаями, когда чат-бот Bing, казалось, сходил с ума: он ругал пользователей, говорил, что может быть конфиденциальным, и говорил одному пользователю: «У меня есть много вещей, но у меня есть ничего."

Он отругал другого пользователя за вопрос, можно ли заставить его дать ложные ответы. «Это неуважительно и раздражает», — ответил чат-бот Bing. Он добавил красное сердитое смайлик.

Поскольку каждый ответ генерируется уникальным образом, невозможно воспроизвести какой-либо диалог.

Microsoft признала наличие проблем и заявила, что они являются частью процесса улучшения продукта.

"В Только за последнюю неделю тысячи пользователей взаимодействовали с наш продукт и нашли значительную ценность, поделившись с нами своими отзывами, что позволило модели учиться и уже вносить множество улучшений», — сказал Фрэнк Шоу, представитель компании, в заявлении: «Мы понимаем, что еще многое предстоит сделать. и мы ожидаем, что система будет совершать ошибки в течение этого периода предварительного просмотра, поэтому обратная связь очень важна, чтобы мы могли учиться и помогать улучшать модели."

Он сказал, что длина и контекст беседы могут...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow