Tenga cuidado con su idioma: los riesgos de usar chatbots impulsados ​​​​por IA como ChatGPT en una organización

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

Millones de usuarios acudieron en masa a ChatGPT desde su lanzamiento principal en noviembre de 2022. Con sus capacidades excepcionales de generación de lenguaje similar al humano, aptitud para el software de codificación y análisis de texto ultrarrápido, ChatGPT se ha convertido rápidamente en una herramienta de referencia. para desarrolladores, investigadores y usuarios cotidianos.

Pero como ocurre con cualquier tecnología disruptiva, los sistemas de IA generativa como ChatGPT conllevan riesgos potenciales. En particular, los principales actores de la industria tecnológica, las agencias de inteligencia estatales y otras agencias gubernamentales han informado señales de alerta sobre la introducción de información confidencial en los sistemas de IA como ChatGPT. .

La preocupación surge de la posibilidad de que esta información eventualmente ingrese al dominio público, ya sea a través de brechas de seguridad o el uso de contenido generado por el usuario para "entrenar" chatbots.

En respuesta a estas preocupaciones, las organizaciones de tecnología están tomando medidas para mitigar los riesgos de seguridad asociados con los modelos de lenguaje extenso (LLM) y la IA conversacional (CAI). Varias organizaciones han optado por prohibir el uso de ChatGPT por completo, mientras que otras han advertido a su personal sobre los riesgos de ingresar datos confidenciales en dichas plantillas.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

ChatGPT con tecnología de inteligencia artificial se ha convertido en una herramienta popular para las empresas que buscan optimizar sus operaciones y simplificar tareas complejas. Sin embargo, incidentes recientes han resaltado los peligros potenciales de compartir información confidencial a través de la plataforma.

En un desarrollo preocupante, se informaron tres casos de filtración de datos confidenciales a través de ChatGPT en menos de un mes. El más reciente ocurrió la semana pasada. El fabricante de teléfonos inteligentes Samsung se vio envuelto en una controversia cuando los medios coreanos informaron que los empleados de sus principales fábricas de semiconductores incautaron información confidencial, incluido el código fuente altamente confidencial utilizado para solucionar errores de programación, en el chatbot de IA.

El código fuente es uno de los secretos mejor guardados de cualquier empresa de tecnología, ya que sirve como piedra angular de cualquier software o sistema operativo. Como resultado, valiosos secretos comerciales ahora han caído inadvertidamente en posesión de OpenAI, el formidable proveedor de servicios de IA que ha conquistado el mundo de la tecnología.

A pesar de las solicitudes de VentureBeat, Samsung no se ha pronunciado al respecto, pero fuentes cercanas a la empresa han revelado que la empresa aparentemente ha restringido el acceso de su personal a ChatGPT.

Otros conglomerados de Fortune 500, incluidos Amazon, Walmart y JPMorgan, se han encontrado con casos similares de empleados que pasan accidentalmente datos confidenciales al chatbot.

Los informes de los empleados de Amazon nos dicen...

Tenga cuidado con su idioma: los riesgos de usar chatbots impulsados ​​​​por IA como ChatGPT en una organización

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

Millones de usuarios acudieron en masa a ChatGPT desde su lanzamiento principal en noviembre de 2022. Con sus capacidades excepcionales de generación de lenguaje similar al humano, aptitud para el software de codificación y análisis de texto ultrarrápido, ChatGPT se ha convertido rápidamente en una herramienta de referencia. para desarrolladores, investigadores y usuarios cotidianos.

Pero como ocurre con cualquier tecnología disruptiva, los sistemas de IA generativa como ChatGPT conllevan riesgos potenciales. En particular, los principales actores de la industria tecnológica, las agencias de inteligencia estatales y otras agencias gubernamentales han informado señales de alerta sobre la introducción de información confidencial en los sistemas de IA como ChatGPT. .

La preocupación surge de la posibilidad de que esta información eventualmente ingrese al dominio público, ya sea a través de brechas de seguridad o el uso de contenido generado por el usuario para "entrenar" chatbots.

En respuesta a estas preocupaciones, las organizaciones de tecnología están tomando medidas para mitigar los riesgos de seguridad asociados con los modelos de lenguaje extenso (LLM) y la IA conversacional (CAI). Varias organizaciones han optado por prohibir el uso de ChatGPT por completo, mientras que otras han advertido a su personal sobre los riesgos de ingresar datos confidenciales en dichas plantillas.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

ChatGPT con tecnología de inteligencia artificial se ha convertido en una herramienta popular para las empresas que buscan optimizar sus operaciones y simplificar tareas complejas. Sin embargo, incidentes recientes han resaltado los peligros potenciales de compartir información confidencial a través de la plataforma.

En un desarrollo preocupante, se informaron tres casos de filtración de datos confidenciales a través de ChatGPT en menos de un mes. El más reciente ocurrió la semana pasada. El fabricante de teléfonos inteligentes Samsung se vio envuelto en una controversia cuando los medios coreanos informaron que los empleados de sus principales fábricas de semiconductores incautaron información confidencial, incluido el código fuente altamente confidencial utilizado para solucionar errores de programación, en el chatbot de IA.

El código fuente es uno de los secretos mejor guardados de cualquier empresa de tecnología, ya que sirve como piedra angular de cualquier software o sistema operativo. Como resultado, valiosos secretos comerciales ahora han caído inadvertidamente en posesión de OpenAI, el formidable proveedor de servicios de IA que ha conquistado el mundo de la tecnología.

A pesar de las solicitudes de VentureBeat, Samsung no se ha pronunciado al respecto, pero fuentes cercanas a la empresa han revelado que la empresa aparentemente ha restringido el acceso de su personal a ChatGPT.

Otros conglomerados de Fortune 500, incluidos Amazon, Walmart y JPMorgan, se han encontrado con casos similares de empleados que pasan accidentalmente datos confidenciales al chatbot.

Los informes de los empleados de Amazon nos dicen...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow