AI21 Labs запускает функцию защиты от галлюцинаций для чат-ботов GPT

Контекстные ответы предназначены для бизнеса, но могут иметь далеко идущие последствия для индустрии генеративного ИИ.

AI21 Labs запускает функцию защиты от галлюцинаций для чат-ботов GPT Новости Присоединяйтесь к нам в социальных сетях

AI21 Labs недавно запустила «Contextual Answers» — механизм вопросов и ответов для больших языковых моделей (LLM).

При подключении к LLM новый движок позволяет пользователям загружать свои собственные библиотеки данных, чтобы ограничить вывод модели определенной информацией.

Запуск ChatGPT и аналогичных продуктов искусственного интеллекта (ИИ) изменил парадигму индустрии ИИ, но отсутствие надежности затрудняет внедрение для многих компаний.

Согласно исследованиям, сотрудники тратят почти половину своего рабочего дня на поиск информации. Это открывает огромные возможности для чат-ботов, способных выполнять поисковые функции; однако большинство чат-ботов не подходят для бизнеса.

AI21 разработала контекстные ответы, чтобы преодолеть разрыв между чат-ботами, предназначенными для общего использования, и службами вопросов и ответов корпоративного уровня, предоставив пользователям возможность направлять свои собственные библиотеки данных и документов.

Согласно сообщению в блоге AI21, контекстные ответы позволяют пользователям направлять ответы ИИ без переобучения моделей, тем самым устраняя некоторые из основных препятствий для внедрения:

"Большинство организаций изо всех сил пытаются внедрить [ИИ], ссылаясь на стоимость, сложность и отсутствие специализации моделей в своих организационных данных, что приводит к неправильным, "галлюцинирующим" или неуместным ответам."

Одной из основных проблем при разработке полезных LLM, таких как ChatGPT от OpenAI или Bard от Google, является научить их выражать недоверие.

Обычно, когда пользователь запрашивает чат-бота, он генерирует ответ, даже если в его наборе данных недостаточно информации для предоставления фактической информации. В этих случаях, вместо того, чтобы давать ненадежный ответ, такой как «Я не знаю», LLM часто выдумывают информацию без каких-либо...

AI21 Labs запускает функцию защиты от галлюцинаций для чат-ботов GPT

Контекстные ответы предназначены для бизнеса, но могут иметь далеко идущие последствия для индустрии генеративного ИИ.

AI21 Labs запускает функцию защиты от галлюцинаций для чат-ботов GPT Новости Присоединяйтесь к нам в социальных сетях

AI21 Labs недавно запустила «Contextual Answers» — механизм вопросов и ответов для больших языковых моделей (LLM).

При подключении к LLM новый движок позволяет пользователям загружать свои собственные библиотеки данных, чтобы ограничить вывод модели определенной информацией.

Запуск ChatGPT и аналогичных продуктов искусственного интеллекта (ИИ) изменил парадигму индустрии ИИ, но отсутствие надежности затрудняет внедрение для многих компаний.

Согласно исследованиям, сотрудники тратят почти половину своего рабочего дня на поиск информации. Это открывает огромные возможности для чат-ботов, способных выполнять поисковые функции; однако большинство чат-ботов не подходят для бизнеса.

AI21 разработала контекстные ответы, чтобы преодолеть разрыв между чат-ботами, предназначенными для общего использования, и службами вопросов и ответов корпоративного уровня, предоставив пользователям возможность направлять свои собственные библиотеки данных и документов.

Согласно сообщению в блоге AI21, контекстные ответы позволяют пользователям направлять ответы ИИ без переобучения моделей, тем самым устраняя некоторые из основных препятствий для внедрения:

"Большинство организаций изо всех сил пытаются внедрить [ИИ], ссылаясь на стоимость, сложность и отсутствие специализации моделей в своих организационных данных, что приводит к неправильным, "галлюцинирующим" или неуместным ответам."

Одной из основных проблем при разработке полезных LLM, таких как ChatGPT от OpenAI или Bard от Google, является научить их выражать недоверие.

Обычно, когда пользователь запрашивает чат-бота, он генерирует ответ, даже если в его наборе данных недостаточно информации для предоставления фактической информации. В этих случаях, вместо того, чтобы давать ненадежный ответ, такой как «Я не знаю», LLM часто выдумывают информацию без каких-либо...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow