Los modelos de base podrían ayudarnos a alcanzar el "secreto perfecto"

Consulte todas las sesiones bajo demanda de Smart Security Summit aquí.

Los asistentes digitales del futuro prometen hacer el día a día más fácil. Podemos pedirles que completen tareas como reservar alojamiento para un viaje de negocios fuera de la ciudad en función del contenido de un correo electrónico o responder preguntas abiertas que requieren una combinación de contexto personal y conocimiento público. (Por ejemplo: "¿Está mi presión arterial dentro del rango normal para alguien de mi edad?")

Pero antes de que podamos lograr nuevos niveles de eficiencia en el trabajo y en el hogar, es necesario responder una gran pregunta: ¿cómo podemos proporcionar a los usuarios protecciones de privacidad sólidas y transparentes sobre la información personal subyacente utilizada por los modelos de aprendizaje automático (ML)? ? llegar a estas respuestas?

Si esperamos que los asistentes digitales faciliten las tareas personales que involucran una combinación de datos públicos y privados, necesitaremos la tecnología para brindar "secreto perfecto", o el nivel más alto de confidencialidad posible, en ciertas situaciones. Hasta ahora, los métodos anteriores ignoraban el problema de la privacidad u ofrecían garantías de privacidad más débiles.

Doctorado de tercer año en informática en Stanford. El estudiante Simran Arora estudió la intersección de ML y la privacidad con el profesor asociado Christopher Ré como asesor. Recientemente, se propusieron determinar si los modelos de referencia emergentes (grandes modelos de ML entrenados en cantidades masivas de datos públicos) tienen la respuesta a esta pregunta apremiante sobre privacidad. El documento resultante se publicó en mayo de 2022 en el servicio de preimpresión ArXiv, con un marco propuesto y una prueba de concepto para usar ML en el contexto de tareas personales.

Evento

Cumbre de seguridad inteligente bajo demanda

Obtenga más información sobre el papel esencial de la IA y el ML en la ciberseguridad y los estudios de casos específicos de la industria. Mira las sesiones a pedido hoy.

mira aquí El secreto perfecto definido

Según Arora, una perfecta garantía de confidencialidad cumple dos condiciones. Primero, a medida que los usuarios interactúan con el sistema, la probabilidad de que los adversarios obtengan información privada no aumenta. En segundo lugar, debido a que se realizan múltiples tareas personales utilizando los mismos datos privados, la probabilidad de que los datos se compartan accidentalmente no aumenta.

Con esta definición en mente, identificó tres criterios para evaluar un sistema de privacidad frente al objetivo del secreto perfecto:

Privacidad: ¿Qué tan bien previene el sistema la fuga de datos privados? Calidad: ¿Cómo realiza el modelo una determinada tarea cuando se garantiza el secreto perfecto? Factibilidad: ¿Es el enfoque realista en términos de tiempo y costo incurrido para ejecutar el modelo?

Hoy en día, los sistemas de privacidad de última generación utilizan un enfoque denominado aprendizaje federado, que facilita la formación de patrones colectivos entre varias partes y evita el intercambio de datos sin procesar. En este método, el modelo se envía a cada usuario y luego se envía de vuelta a un servidor central con las actualizaciones de ese usuario. Los datos de origen nunca se revelan a los participantes, en teoría. Pero desafortunadamente, otros investigadores han descubierto que es posible recuperar datos de un modelo expuesto.

La popular tecnología utilizada para mejorar la garantía de privacidad del aprendizaje federado se denomina privacidad diferencial, que es un enfoque estadístico para proteger la información privada. Esta tecnología requiere que el implementador establezca parámetros de privacidad, que gobiernan una compensación entre el rendimiento del modelo y la privacidad de la información....

Los modelos de base podrían ayudarnos a alcanzar el "secreto perfecto"

Consulte todas las sesiones bajo demanda de Smart Security Summit aquí.

Los asistentes digitales del futuro prometen hacer el día a día más fácil. Podemos pedirles que completen tareas como reservar alojamiento para un viaje de negocios fuera de la ciudad en función del contenido de un correo electrónico o responder preguntas abiertas que requieren una combinación de contexto personal y conocimiento público. (Por ejemplo: "¿Está mi presión arterial dentro del rango normal para alguien de mi edad?")

Pero antes de que podamos lograr nuevos niveles de eficiencia en el trabajo y en el hogar, es necesario responder una gran pregunta: ¿cómo podemos proporcionar a los usuarios protecciones de privacidad sólidas y transparentes sobre la información personal subyacente utilizada por los modelos de aprendizaje automático (ML)? ? llegar a estas respuestas?

Si esperamos que los asistentes digitales faciliten las tareas personales que involucran una combinación de datos públicos y privados, necesitaremos la tecnología para brindar "secreto perfecto", o el nivel más alto de confidencialidad posible, en ciertas situaciones. Hasta ahora, los métodos anteriores ignoraban el problema de la privacidad u ofrecían garantías de privacidad más débiles.

Doctorado de tercer año en informática en Stanford. El estudiante Simran Arora estudió la intersección de ML y la privacidad con el profesor asociado Christopher Ré como asesor. Recientemente, se propusieron determinar si los modelos de referencia emergentes (grandes modelos de ML entrenados en cantidades masivas de datos públicos) tienen la respuesta a esta pregunta apremiante sobre privacidad. El documento resultante se publicó en mayo de 2022 en el servicio de preimpresión ArXiv, con un marco propuesto y una prueba de concepto para usar ML en el contexto de tareas personales.

Evento

Cumbre de seguridad inteligente bajo demanda

Obtenga más información sobre el papel esencial de la IA y el ML en la ciberseguridad y los estudios de casos específicos de la industria. Mira las sesiones a pedido hoy.

mira aquí El secreto perfecto definido

Según Arora, una perfecta garantía de confidencialidad cumple dos condiciones. Primero, a medida que los usuarios interactúan con el sistema, la probabilidad de que los adversarios obtengan información privada no aumenta. En segundo lugar, debido a que se realizan múltiples tareas personales utilizando los mismos datos privados, la probabilidad de que los datos se compartan accidentalmente no aumenta.

Con esta definición en mente, identificó tres criterios para evaluar un sistema de privacidad frente al objetivo del secreto perfecto:

Privacidad: ¿Qué tan bien previene el sistema la fuga de datos privados? Calidad: ¿Cómo realiza el modelo una determinada tarea cuando se garantiza el secreto perfecto? Factibilidad: ¿Es el enfoque realista en términos de tiempo y costo incurrido para ejecutar el modelo?

Hoy en día, los sistemas de privacidad de última generación utilizan un enfoque denominado aprendizaje federado, que facilita la formación de patrones colectivos entre varias partes y evita el intercambio de datos sin procesar. En este método, el modelo se envía a cada usuario y luego se envía de vuelta a un servidor central con las actualizaciones de ese usuario. Los datos de origen nunca se revelan a los participantes, en teoría. Pero desafortunadamente, otros investigadores han descubierto que es posible recuperar datos de un modelo expuesto.

La popular tecnología utilizada para mejorar la garantía de privacidad del aprendizaje federado se denomina privacidad diferencial, que es un enfoque estadístico para proteger la información privada. Esta tecnología requiere que el implementador establezca parámetros de privacidad, que gobiernan una compensación entre el rendimiento del modelo y la privacidad de la información....

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow