AI21 Labs lanza función anti-alucinación para chatbots GPT

Las respuestas de contexto están diseñadas para empresas, pero podrían tener implicaciones de gran alcance para la industria de la IA generativa.

AI21 Labs lanza función anti-alucinaciones para chatbots GPT Noticias Únase a nosotros en las redes sociales

AI21 Labs lanzó recientemente "Respuestas contextuales", un motor de preguntas y respuestas para modelos de lenguaje extenso (LLM).

Cuando se conecta a un LLM, el nuevo motor permite a los usuarios cargar sus propias bibliotecas de datos para limitar los resultados del modelo a información específica.

El lanzamiento de ChatGPT y productos similares de inteligencia artificial (IA) ha cambiado el paradigma de la industria de la IA, pero la falta de confiabilidad dificulta la adopción para muchas empresas.

Según una investigación, los empleados pasan casi la mitad de su jornada laboral buscando información. Esto representa una gran oportunidad para los chatbots capaces de realizar funciones de búsqueda; sin embargo, la mayoría de los chatbots no son adecuados para empresas.

AI21 ha desarrollado Contextual Answers para cerrar la brecha entre los chatbots diseñados para uso general y los servicios de preguntas y respuestas de nivel empresarial al brindar a los usuarios la capacidad de canalizar sus propias bibliotecas de datos y documentos.

Según una publicación de blog de AI21, las respuestas contextuales permiten a los usuarios dirigir las respuestas de IA sin volver a capacitar a los modelos, lo que mitiga algunas de las barreras clave para la adopción:

"La mayoría de las organizaciones luchan por adoptar [IA], citando el costo, la complejidad y la falta de especialización de los modelos en sus datos organizacionales, lo que resulta en respuestas incorrectas, "alucinadas" o inapropiadas para el contexto".

Uno de los principales desafíos en el desarrollo de LLM útiles, como ChatGPT de OpenAI o Bard de Google, es enseñarles a expresar desconfianza.

Por lo general, cuando un usuario consulta un chatbot, genera una respuesta aunque no haya suficiente información en su conjunto de datos para proporcionar información objetiva. En estos casos, en lugar de producir una respuesta poco confiable como "No sé", los LLM a menudo inventan información sin ningún...

AI21 Labs lanza función anti-alucinación para chatbots GPT

Las respuestas de contexto están diseñadas para empresas, pero podrían tener implicaciones de gran alcance para la industria de la IA generativa.

AI21 Labs lanza función anti-alucinaciones para chatbots GPT Noticias Únase a nosotros en las redes sociales

AI21 Labs lanzó recientemente "Respuestas contextuales", un motor de preguntas y respuestas para modelos de lenguaje extenso (LLM).

Cuando se conecta a un LLM, el nuevo motor permite a los usuarios cargar sus propias bibliotecas de datos para limitar los resultados del modelo a información específica.

El lanzamiento de ChatGPT y productos similares de inteligencia artificial (IA) ha cambiado el paradigma de la industria de la IA, pero la falta de confiabilidad dificulta la adopción para muchas empresas.

Según una investigación, los empleados pasan casi la mitad de su jornada laboral buscando información. Esto representa una gran oportunidad para los chatbots capaces de realizar funciones de búsqueda; sin embargo, la mayoría de los chatbots no son adecuados para empresas.

AI21 ha desarrollado Contextual Answers para cerrar la brecha entre los chatbots diseñados para uso general y los servicios de preguntas y respuestas de nivel empresarial al brindar a los usuarios la capacidad de canalizar sus propias bibliotecas de datos y documentos.

Según una publicación de blog de AI21, las respuestas contextuales permiten a los usuarios dirigir las respuestas de IA sin volver a capacitar a los modelos, lo que mitiga algunas de las barreras clave para la adopción:

"La mayoría de las organizaciones luchan por adoptar [IA], citando el costo, la complejidad y la falta de especialización de los modelos en sus datos organizacionales, lo que resulta en respuestas incorrectas, "alucinadas" o inapropiadas para el contexto".

Uno de los principales desafíos en el desarrollo de LLM útiles, como ChatGPT de OpenAI o Bard de Google, es enseñarles a expresar desconfianza.

Por lo general, cuando un usuario consulta un chatbot, genera una respuesta aunque no haya suficiente información en su conjunto de datos para proporcionar información objetiva. En estos casos, en lugar de producir una respuesta poco confiable como "No sé", los LLM a menudo inventan información sin ningún...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow