3 capacidades esenciales que faltan en la IA

¿No pudiste asistir a Transform 2022? ¡Vea todas las sesiones de la cumbre en nuestra biblioteca a pedido ahora! Mira aquí.

Durante la última década, el aprendizaje profundo ha recorrido un largo camino, pasando de ser un área prometedora de investigación de inteligencia artificial (IA) a un pilar de muchas aplicaciones. Sin embargo, a pesar de los avances en el aprendizaje profundo, algunos de sus problemas no han desaparecido. Entre ellas se encuentran tres habilidades esenciales: comprender conceptos, formar abstracciones y hacer analogías, según Melanie Mitchell, profesora del Instituto Santa Fe y autora de "Inteligencia artificial: una guía para pensar humanos".

En un seminario reciente en el Instituto de Investigación Avanzada en Inteligencia Artificial, Mitchell explicó por qué la abstracción y la analogía son claves para crear sistemas de IA sólidos. Si bien la noción de abstracción ha existido desde que se acuñó el término "inteligencia artificial" en 1955, este campo ha permanecido poco estudiado, dice Mitchell.

A medida que la comunidad de IA otorga cada vez más importancia y recursos a los enfoques basados ​​en datos y el aprendizaje profundo, Mitchell advierte que lo que parece ser un rendimiento similar al humano mediante redes de neuronas es, de hecho, una imitación superficial que pierde la clave. componentes de la inteligencia.

De los conceptos a las analogías

"Hay muchas definiciones diferentes de 'concepto' en la literatura de ciencia cognitiva, pero me gusta especialmente la de Lawrence Barsalou: un concepto es 'una habilidad o disposición para generar infinitas conceptualizaciones de una categoría'", dijo Mitchell a VentureBeat. .

Evento

MetaBeat 2022

MetaBeat reunirá a líderes de opinión para asesorar sobre cómo la tecnología del metaverso transformará la forma en que todas las industrias se comunican y hacen negocios el 4 de octubre en San Francisco, CA.

registrarse aquí

Por ejemplo, cuando pensamos en una categoría como "árboles", podemos pensar en todo tipo de árboles diferentes, tanto reales como imaginarios, realistas o caricaturescos, concretos o metafóricos. Podemos pensar en árboles naturales, árboles genealógicos o árboles organizacionales.

"Existe una similitud esencial, llámese 'árbol', entre todos estos", dijo Mitchell. "Básicamente, un concepto es un modelo mental generativo que forma parte de una gran red de otros conceptos".

Si bien los científicos y los investigadores de IA a menudo se refieren a las redes neuronales como conceptos de aprendizaje, la principal diferencia que señala Mitchell es qué aprenden estas arquitecturas informáticas. Mientras que los humanos crean modelos "generativos" que pueden formar abstracciones y usarlas de formas novedosas, los sistemas de aprendizaje profundo son modelos "discriminatorios" que solo pueden aprender diferencias superficiales entre diferentes categorías.

Por ejemplo, un modelo de aprendizaje profundo entrenado en muchas imágenes etiquetadas de puentes podrá detectar nuevos puentes, pero no podrá examinar otros elementos basados ​​en el mismo concepto, como un tronco que conecta dos orillas de un río o hormigas formando un puente para cerrar un vacío, o nociones abstractas de "puente", como cerrar una brecha social.

Los modelos discriminadores tienen categorías predefinidas entre las que el sistema puede elegir: por ejemplo, ¿la foto representa un perro, un gato o un coyote? Más bien, para aplicar con flexibilidad su conocimiento a una nueva situación, explicó Mitchell.

"Tienes que generar una analogía; por ejemplo, si sé algo sobre árboles y veo una imagen de un pulmón humano, con toda su estructura ramificada, no lo clasifico como un árbol, pero reconozco similitudes en un nivel abstracto: tomo lo que sé y lo mapeo en una nueva situación”, dijo.

¿Por qué es esto importante? El mundo real está lleno de situaciones nunca antes vistas. Es importante aprender de como...

3 capacidades esenciales que faltan en la IA

¿No pudiste asistir a Transform 2022? ¡Vea todas las sesiones de la cumbre en nuestra biblioteca a pedido ahora! Mira aquí.

Durante la última década, el aprendizaje profundo ha recorrido un largo camino, pasando de ser un área prometedora de investigación de inteligencia artificial (IA) a un pilar de muchas aplicaciones. Sin embargo, a pesar de los avances en el aprendizaje profundo, algunos de sus problemas no han desaparecido. Entre ellas se encuentran tres habilidades esenciales: comprender conceptos, formar abstracciones y hacer analogías, según Melanie Mitchell, profesora del Instituto Santa Fe y autora de "Inteligencia artificial: una guía para pensar humanos".

En un seminario reciente en el Instituto de Investigación Avanzada en Inteligencia Artificial, Mitchell explicó por qué la abstracción y la analogía son claves para crear sistemas de IA sólidos. Si bien la noción de abstracción ha existido desde que se acuñó el término "inteligencia artificial" en 1955, este campo ha permanecido poco estudiado, dice Mitchell.

A medida que la comunidad de IA otorga cada vez más importancia y recursos a los enfoques basados ​​en datos y el aprendizaje profundo, Mitchell advierte que lo que parece ser un rendimiento similar al humano mediante redes de neuronas es, de hecho, una imitación superficial que pierde la clave. componentes de la inteligencia.

De los conceptos a las analogías

"Hay muchas definiciones diferentes de 'concepto' en la literatura de ciencia cognitiva, pero me gusta especialmente la de Lawrence Barsalou: un concepto es 'una habilidad o disposición para generar infinitas conceptualizaciones de una categoría'", dijo Mitchell a VentureBeat. .

Evento

MetaBeat 2022

MetaBeat reunirá a líderes de opinión para asesorar sobre cómo la tecnología del metaverso transformará la forma en que todas las industrias se comunican y hacen negocios el 4 de octubre en San Francisco, CA.

registrarse aquí

Por ejemplo, cuando pensamos en una categoría como "árboles", podemos pensar en todo tipo de árboles diferentes, tanto reales como imaginarios, realistas o caricaturescos, concretos o metafóricos. Podemos pensar en árboles naturales, árboles genealógicos o árboles organizacionales.

"Existe una similitud esencial, llámese 'árbol', entre todos estos", dijo Mitchell. "Básicamente, un concepto es un modelo mental generativo que forma parte de una gran red de otros conceptos".

Si bien los científicos y los investigadores de IA a menudo se refieren a las redes neuronales como conceptos de aprendizaje, la principal diferencia que señala Mitchell es qué aprenden estas arquitecturas informáticas. Mientras que los humanos crean modelos "generativos" que pueden formar abstracciones y usarlas de formas novedosas, los sistemas de aprendizaje profundo son modelos "discriminatorios" que solo pueden aprender diferencias superficiales entre diferentes categorías.

Por ejemplo, un modelo de aprendizaje profundo entrenado en muchas imágenes etiquetadas de puentes podrá detectar nuevos puentes, pero no podrá examinar otros elementos basados ​​en el mismo concepto, como un tronco que conecta dos orillas de un río o hormigas formando un puente para cerrar un vacío, o nociones abstractas de "puente", como cerrar una brecha social.

Los modelos discriminadores tienen categorías predefinidas entre las que el sistema puede elegir: por ejemplo, ¿la foto representa un perro, un gato o un coyote? Más bien, para aplicar con flexibilidad su conocimiento a una nueva situación, explicó Mitchell.

"Tienes que generar una analogía; por ejemplo, si sé algo sobre árboles y veo una imagen de un pulmón humano, con toda su estructura ramificada, no lo clasifico como un árbol, pero reconozco similitudes en un nivel abstracto: tomo lo que sé y lo mapeo en una nueva situación”, dijo.

¿Por qué es esto importante? El mundo real está lleno de situaciones nunca antes vistas. Es importante aprender de como...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow