La IA socialmente consciente se adapta haciendo preguntas a los humanos

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

Por muy buenos que sean, los agentes de inteligencia artificial (IA) siguen siendo tan buenos como los datos con los que fueron entrenados. No saben lo que no saben.

En el mundo real, las personas en situaciones y entornos desconocidos se adaptan observando lo que hacen los demás a su alrededor y haciendo preguntas. Cuando en Roma, como dicen. Los expertos en psicología educativa llaman a esto "aprendizaje socialmente situado".

Hasta ahora, los agentes de IA carecían de esta capacidad de aprender sobre la marcha, pero los investigadores de la Universidad de Stanford anunciaron recientemente que han desarrollado agentes de IA capaces de buscar nuevos conocimientos haciendo preguntas a las personas.

"Hemos creado un agente que mira fotos y aprende a hacer preguntas en lenguaje natural sobre ellas para expandir su conocimiento más allá de los conjuntos de datos en los que fueron entrenados originalmente", dijo Ranjay Krishna, primer autor de un estudio reciente en la revista. Actas de la Academia Nacional de Ciencias.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

Krishna obtuvo su doctorado en Stanford y ahora forma parte del cuerpo docente de la Universidad de Washington.

conciencia extraña

El nuevo enfoque combina aspectos de la visión artificial y la ciencia cognitiva y del comportamiento humano para llevar el aprendizaje automático (ML) en una nueva dirección. Lo llaman "IA socialmente situada".

Lea el estudio completo, "La inteligencia artificial ubicada socialmente permite aprender de la interacción humana".

Lo que es más importante, cuando las personas no están dispuestas o no están dispuestas a responder preguntas de IA, que a menudo pueden parecer simplistas o triviales, la IA se adapta.

Por ejemplo, al analizar una foto de una persona y un animal desconocido de cuatro patas, el algoritmo podría preguntar primero: "¿Qué tipo de animal es este?" Esto puede provocar respuestas irónicas o sarcásticas ("Es un humano"). O, peor aún, es posible que no reciba ninguna respuesta. En cambio, el algoritmo puede preguntar: "¿Es este un perro lo que veo?" Hacer la pregunta de esta manera es más probable que obtenga una respuesta veraz: "No, es un ciervo".

“Si bien nos gustaría pensar que las personas son encuestados serios, listos para responder cualquier pregunta que la IA pueda hacer, a menudo no lo son”, dijo Krishna. "Nuestro agente detecta esto y modifica sus preguntas en función de sus observaciones socialmente conscientes de qué preguntas responderá y no responderá la gente".

El nuevo agente logra múltiples objetivos a la vez. Primero, por supuesto, aprende nuevos conceptos visuales, que es el objetivo principal. Pero, en segundo lugar, también aprende a leer las normas sociales. Además, observa Krishna, hay un efecto acumulativo. Después de hacer preguntas y aprender nueva información, la IA se vuelve a entrenar. La próxima vez hará preguntas diferentes porque habrá aprendido más sobre el mundo.

“Solo hay un número limitado de formas de describir una mesa”, dijo Krishna. "Una persona, naturalmente, puede no querer responder preguntas que se consideran engañosas, sin sentido o simplemente b...

La IA socialmente consciente se adapta haciendo preguntas a los humanos

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

Por muy buenos que sean, los agentes de inteligencia artificial (IA) siguen siendo tan buenos como los datos con los que fueron entrenados. No saben lo que no saben.

En el mundo real, las personas en situaciones y entornos desconocidos se adaptan observando lo que hacen los demás a su alrededor y haciendo preguntas. Cuando en Roma, como dicen. Los expertos en psicología educativa llaman a esto "aprendizaje socialmente situado".

Hasta ahora, los agentes de IA carecían de esta capacidad de aprender sobre la marcha, pero los investigadores de la Universidad de Stanford anunciaron recientemente que han desarrollado agentes de IA capaces de buscar nuevos conocimientos haciendo preguntas a las personas.

"Hemos creado un agente que mira fotos y aprende a hacer preguntas en lenguaje natural sobre ellas para expandir su conocimiento más allá de los conjuntos de datos en los que fueron entrenados originalmente", dijo Ranjay Krishna, primer autor de un estudio reciente en la revista. Actas de la Academia Nacional de Ciencias.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

Krishna obtuvo su doctorado en Stanford y ahora forma parte del cuerpo docente de la Universidad de Washington.

conciencia extraña

El nuevo enfoque combina aspectos de la visión artificial y la ciencia cognitiva y del comportamiento humano para llevar el aprendizaje automático (ML) en una nueva dirección. Lo llaman "IA socialmente situada".

Lea el estudio completo, "La inteligencia artificial ubicada socialmente permite aprender de la interacción humana".

Lo que es más importante, cuando las personas no están dispuestas o no están dispuestas a responder preguntas de IA, que a menudo pueden parecer simplistas o triviales, la IA se adapta.

Por ejemplo, al analizar una foto de una persona y un animal desconocido de cuatro patas, el algoritmo podría preguntar primero: "¿Qué tipo de animal es este?" Esto puede provocar respuestas irónicas o sarcásticas ("Es un humano"). O, peor aún, es posible que no reciba ninguna respuesta. En cambio, el algoritmo puede preguntar: "¿Es este un perro lo que veo?" Hacer la pregunta de esta manera es más probable que obtenga una respuesta veraz: "No, es un ciervo".

“Si bien nos gustaría pensar que las personas son encuestados serios, listos para responder cualquier pregunta que la IA pueda hacer, a menudo no lo son”, dijo Krishna. "Nuestro agente detecta esto y modifica sus preguntas en función de sus observaciones socialmente conscientes de qué preguntas responderá y no responderá la gente".

El nuevo agente logra múltiples objetivos a la vez. Primero, por supuesto, aprende nuevos conceptos visuales, que es el objetivo principal. Pero, en segundo lugar, también aprende a leer las normas sociales. Además, observa Krishna, hay un efecto acumulativo. Después de hacer preguntas y aprender nueva información, la IA se vuelve a entrenar. La próxima vez hará preguntas diferentes porque habrá aprendido más sobre el mundo.

“Solo hay un número limitado de formas de describir una mesa”, dijo Krishna. "Una persona, naturalmente, puede no querer responder preguntas que se consideran engañosas, sin sentido o simplemente b...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow