Cómo minimizar el riesgo de datos para la IA generativa y los LLM en la empresa

Visite nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrese aquí

Las empresas han reconocido rápidamente el poder de la IA generativa para descubrir nuevas ideas y aumentar la productividad tanto para desarrolladores como para no desarrolladores. Pero trasladar datos confidenciales y propietarios a modelos de lenguaje extendido (LLM) alojados públicamente crea importantes riesgos de seguridad, privacidad y gobernanza. Las empresas deben abordar estos riesgos antes de poder comenzar a aprovechar estas nuevas y poderosas tecnologías.

Como señala IDC, las empresas están preocupadas, con razón, de que los LLM puedan "aprender" de sus indicaciones y filtrar información patentada a otras empresas que acepten indicaciones similares. A las empresas también les preocupa que los datos confidenciales que comparten puedan almacenarse en línea y quedar expuestos a piratas informáticos o hacerse públicos accidentalmente.

Esto hace que la introducción de datos y sugerencias en LLM alojados públicamente sea un fracaso para la mayoría de las empresas, especialmente aquellas que operan en espacios regulados. Entonces, ¿cómo pueden las empresas extraer valor de los LLM y al mismo tiempo mitigar suficientemente el riesgo?

Trabaje dentro de su perímetro de seguridad y gobierno existente

En lugar de enviar sus datos a un LLM, lleve el LLM a sus datos. Este es el modelo que utilizarán la mayoría de las empresas para equilibrar la necesidad de innovación con la importancia de proteger la información personal de los clientes y otros datos confidenciales. La mayoría de las grandes empresas ya mantienen fuertes límites de seguridad y gobernanza en torno a sus datos, y deberían alojar e implementar LLM dentro de este entorno protegido. Esto permite a los equipos de datos desarrollar y personalizar aún más el LLM y a los empleados interactuar con él, todo dentro del perímetro de seguridad existente de la organización.

Evento

VB Transform 2023 bajo demanda

¿Te perdiste una sesión de VB Transform 2023? Regístrese para acceder a la biblioteca bajo demanda de todas nuestras sesiones destacadas.

Regístrate ahora

Una estrategia de IA sólida requiere una estrategia de datos sólida desde el principio. Esto significa romper con los silos y establecer políticas simples y consistentes que brinden a los equipos acceso a los datos que necesitan dentro de un marco sólido de seguridad y gobernanza. El objetivo final es tener datos procesables y confiables que sean fácilmente accesibles y utilizables con un LLM en un entorno seguro y gobernado.

Crear LLM específicos de dominio

Los LLM formados en la Web presentan algo más que problemas de privacidad. Son propensos a sufrir “alucinaciones” y otras imprecisiones y pueden reproducir sesgos y generar respuestas ofensivas que crean riesgos adicionales para las empresas. Además, los LLM fundamentales no han estado expuestos a los sistemas y datos internos de su organización, lo que significa que no pueden responder preguntas específicas de su empresa, sus clientes y quizás incluso su industria.

La respuesta es ampliar y personalizar una plantilla para que sea inteligente para su propio negocio. Mientras eres anfitrión...

Cómo minimizar el riesgo de datos para la IA generativa y los LLM en la empresa

Visite nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrese aquí

Las empresas han reconocido rápidamente el poder de la IA generativa para descubrir nuevas ideas y aumentar la productividad tanto para desarrolladores como para no desarrolladores. Pero trasladar datos confidenciales y propietarios a modelos de lenguaje extendido (LLM) alojados públicamente crea importantes riesgos de seguridad, privacidad y gobernanza. Las empresas deben abordar estos riesgos antes de poder comenzar a aprovechar estas nuevas y poderosas tecnologías.

Como señala IDC, las empresas están preocupadas, con razón, de que los LLM puedan "aprender" de sus indicaciones y filtrar información patentada a otras empresas que acepten indicaciones similares. A las empresas también les preocupa que los datos confidenciales que comparten puedan almacenarse en línea y quedar expuestos a piratas informáticos o hacerse públicos accidentalmente.

Esto hace que la introducción de datos y sugerencias en LLM alojados públicamente sea un fracaso para la mayoría de las empresas, especialmente aquellas que operan en espacios regulados. Entonces, ¿cómo pueden las empresas extraer valor de los LLM y al mismo tiempo mitigar suficientemente el riesgo?

Trabaje dentro de su perímetro de seguridad y gobierno existente

En lugar de enviar sus datos a un LLM, lleve el LLM a sus datos. Este es el modelo que utilizarán la mayoría de las empresas para equilibrar la necesidad de innovación con la importancia de proteger la información personal de los clientes y otros datos confidenciales. La mayoría de las grandes empresas ya mantienen fuertes límites de seguridad y gobernanza en torno a sus datos, y deberían alojar e implementar LLM dentro de este entorno protegido. Esto permite a los equipos de datos desarrollar y personalizar aún más el LLM y a los empleados interactuar con él, todo dentro del perímetro de seguridad existente de la organización.

Evento

VB Transform 2023 bajo demanda

¿Te perdiste una sesión de VB Transform 2023? Regístrese para acceder a la biblioteca bajo demanda de todas nuestras sesiones destacadas.

Regístrate ahora

Una estrategia de IA sólida requiere una estrategia de datos sólida desde el principio. Esto significa romper con los silos y establecer políticas simples y consistentes que brinden a los equipos acceso a los datos que necesitan dentro de un marco sólido de seguridad y gobernanza. El objetivo final es tener datos procesables y confiables que sean fácilmente accesibles y utilizables con un LLM en un entorno seguro y gobernado.

Crear LLM específicos de dominio

Los LLM formados en la Web presentan algo más que problemas de privacidad. Son propensos a sufrir “alucinaciones” y otras imprecisiones y pueden reproducir sesgos y generar respuestas ofensivas que crean riesgos adicionales para las empresas. Además, los LLM fundamentales no han estado expuestos a los sistemas y datos internos de su organización, lo que significa que no pueden responder preguntas específicas de su empresa, sus clientes y quizás incluso su industria.

La respuesta es ampliar y personalizar una plantilla para que sea inteligente para su propio negocio. Mientras eres anfitrión...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow