Glenn AI llega con 4,9 millones de dólares de financiación para acabar con las alucinaciones de la IA utilizando los propios datos de las empresas

Visite nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrese aquí

A medida que las organizaciones de todo el mundo buscan evaluar, probar e implementar rápidamente IA generativa en sus flujos de trabajo, ya sea en el back-end, front-end (de cara al cliente) o ambos, muchos tomadores de decisiones siguen preocupados, con razón, por algunas de las cuestiones. Problemas persistentes, entre los que se encuentra el problema de las alucinaciones de la IA.

Pero una nueva startup, Gleen AI, ha irrumpido en escena afirmando "resolver alucinaciones", según Ashu Dubey, CEO y cofundador de Gleen, que habló en exclusiva con VentureBeat en una entrevista a través de videollamada.< /p>

Hoy, Gleen AI anuncia una ronda de financiación de 4,9 millones de dólares de Slow Ventures, 6th Man Ventures, South Park Commons, Spartan Group y otros capitalistas de riesgo e inversores ángeles, incluido el ex vicepresidente de gestión de productos de Facebook/Meta Platforms, Sam Lessin, para continuar. está desarrollando su software de capa de datos antialucinaciones para empresas, cuyo objetivo inicial es ayudarlas a configurar modelos de IA para brindar atención al cliente.

El problema de las alucinaciones

Las herramientas de IA generativa, como los modelos de lenguaje grande (LLM) populares y disponibles comercialmente, como ChatGPT, Claude 2, LLaMA 2, Bard y otros, están entrenadas para responder a indicaciones y consultas ingresadas por humanos produciendo datos que se han asociado con las palabras e ideas ingresadas por el usuario humano.

Evento

VB Transform 2023 bajo demanda

¿Te perdiste una sesión de VB Transform 2023? Regístrese para acceder a la biblioteca bajo demanda de todas nuestras sesiones destacadas.

Regístrate ahora

Pero los modelos de IA de generación no siempre logran hacerlo bien y, en muchos casos, producen información inexacta o irrelevante, pero el entrenamiento del modelo se ha asociado previamente con algo que dijo el usuario humano.

Un buen ejemplo reciente: ChatGPT intenta responder: "¿Cuándo la Tierra eclipsó a Marte?" y proporcione una explicación convincente que sea completamente inexacta (la premisa misma de la pregunta es defectuosa e inexacta: la Tierra no puede eclipsar a Marte).

Si bien estas respuestas inexactas a veces pueden resultar divertidas o interesantes, para las empresas que intentan confiar en ellas para producir datos precisos para los empleados o usuarios, los resultados pueden ser extremadamente riesgosos, especialmente para información altamente regulada de vida o muerte. en los campos de la salud, la medicina, la salud...

Glenn AI llega con 4,9 millones de dólares de financiación para acabar con las alucinaciones de la IA utilizando los propios datos de las empresas

Visite nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrese aquí

A medida que las organizaciones de todo el mundo buscan evaluar, probar e implementar rápidamente IA generativa en sus flujos de trabajo, ya sea en el back-end, front-end (de cara al cliente) o ambos, muchos tomadores de decisiones siguen preocupados, con razón, por algunas de las cuestiones. Problemas persistentes, entre los que se encuentra el problema de las alucinaciones de la IA.

Pero una nueva startup, Gleen AI, ha irrumpido en escena afirmando "resolver alucinaciones", según Ashu Dubey, CEO y cofundador de Gleen, que habló en exclusiva con VentureBeat en una entrevista a través de videollamada.< /p>

Hoy, Gleen AI anuncia una ronda de financiación de 4,9 millones de dólares de Slow Ventures, 6th Man Ventures, South Park Commons, Spartan Group y otros capitalistas de riesgo e inversores ángeles, incluido el ex vicepresidente de gestión de productos de Facebook/Meta Platforms, Sam Lessin, para continuar. está desarrollando su software de capa de datos antialucinaciones para empresas, cuyo objetivo inicial es ayudarlas a configurar modelos de IA para brindar atención al cliente.

El problema de las alucinaciones

Las herramientas de IA generativa, como los modelos de lenguaje grande (LLM) populares y disponibles comercialmente, como ChatGPT, Claude 2, LLaMA 2, Bard y otros, están entrenadas para responder a indicaciones y consultas ingresadas por humanos produciendo datos que se han asociado con las palabras e ideas ingresadas por el usuario humano.

Evento

VB Transform 2023 bajo demanda

¿Te perdiste una sesión de VB Transform 2023? Regístrese para acceder a la biblioteca bajo demanda de todas nuestras sesiones destacadas.

Regístrate ahora

Pero los modelos de IA de generación no siempre logran hacerlo bien y, en muchos casos, producen información inexacta o irrelevante, pero el entrenamiento del modelo se ha asociado previamente con algo que dijo el usuario humano.

Un buen ejemplo reciente: ChatGPT intenta responder: "¿Cuándo la Tierra eclipsó a Marte?" y proporcione una explicación convincente que sea completamente inexacta (la premisa misma de la pregunta es defectuosa e inexacta: la Tierra no puede eclipsar a Marte).

Si bien estas respuestas inexactas a veces pueden resultar divertidas o interesantes, para las empresas que intentan confiar en ellas para producir datos precisos para los empleados o usuarios, los resultados pueden ser extremadamente riesgosos, especialmente para información altamente regulada de vida o muerte. en los campos de la salud, la medicina, la salud...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow