Por qué los avances en renderizado 3D neuronal no llegan al mercado

¿No pudiste asistir a Transform 2022? ¡Vea todas las sesiones de la cumbre en nuestra biblioteca a pedido ahora! Mira aquí.

Durante los últimos 10 años, las redes neuronales han dado un gran salto desde el reconocimiento de objetos visuales simples hasta la creación de texto uniforme y representaciones 3D fotorrealistas. A medida que los gráficos por computadora se vuelven más sofisticados, las redes neuronales ayudan a automatizar una parte importante del flujo de trabajo. El mercado demanda nuevas soluciones eficientes para crear imágenes 3D para llenar el espacio hiperrealista del metaverso.

Pero, ¿qué tecnologías vamos a utilizar para construir este espacio y nos ayudará la inteligencia artificial?

Las redes neuronales están emergiendo

Las redes neuronales llegaron por primera vez a la industria de la visión artificial en septiembre de 2012, cuando la red neuronal convolucional de AlexNet ganó la competencia de reconocimiento visual a gran escala de ImageNet. Se descubrió que AlexNet podía reconocer, analizar y clasificar imágenes. Esta habilidad revolucionaria provocó la ola de entusiasmo que el arte de la IA todavía está montando.

A continuación, en 2017 se publicó un artículo científico titulado Attention Is All You Need. El artículo describía el diseño y la arquitectura de un "Transformador", una red neuronal creada para el procesamiento del lenguaje natural (PNL). OpenAI demostró la eficacia de esta arquitectura al crear GPT-3 en 2020. Muchos gigantes tecnológicos se apresuraron a embarcarse en la búsqueda de un resultado y una calidad similares, y comenzaron a formar redes de neuronas basadas en Transformers.

Evento

Próximo GamesBeat Summit 2022

Únase a los líderes del juego en vivo del 25 al 26 de octubre en San Francisco para examinar las próximas grandes oportunidades dentro de la industria del juego.

registrarse aquí

La capacidad de reconocer imágenes y objetos y crear texto coherente a partir de ellos condujo al siguiente paso lógico en la evolución de las redes neuronales: convertir la entrada de texto en imágenes. Esto inició una extensa investigación sobre los modelos de texto a imagen. Como resultado, en enero de 2021 se creó la primera versión de DALL-E, un logro revolucionario en aprendizaje profundo para la generación de imágenes 2D.

De 2D a 3D

Poco antes de DALL-E, otro gran avance permitió que las redes neuronales comenzaran a crear imágenes en 3D con casi la misma calidad y velocidad que podían crear en 2D. Esto fue posible gracias al método Neural Radiance Fields (NeRF), que utiliza una red neuronal para recrear escenas 3D realistas a partir de una colección de imágenes 2D.

El CGI clásico ha exigido durante mucho tiempo una solución más económica y flexible para escenas 3D. Por contexto, cada escena en un videojuego se compone de millones de triángulos, y se necesita mucho tiempo, energía y capacidad de procesamiento para renderizarlos. Por lo tanto, las industrias de desarrollo de juegos y visión por computadora siempre están tratando de lograr un equilibrio entre la cantidad de triángulos (cuanto menor sea el número, más rápido se pueden renderizar) y la calidad de la salida.

A diferencia del modelado poligonal convencional, el renderizado neuronal reproduce una escena 3D basándose únicamente en la óptica y...

Por qué los avances en renderizado 3D neuronal no llegan al mercado

¿No pudiste asistir a Transform 2022? ¡Vea todas las sesiones de la cumbre en nuestra biblioteca a pedido ahora! Mira aquí.

Durante los últimos 10 años, las redes neuronales han dado un gran salto desde el reconocimiento de objetos visuales simples hasta la creación de texto uniforme y representaciones 3D fotorrealistas. A medida que los gráficos por computadora se vuelven más sofisticados, las redes neuronales ayudan a automatizar una parte importante del flujo de trabajo. El mercado demanda nuevas soluciones eficientes para crear imágenes 3D para llenar el espacio hiperrealista del metaverso.

Pero, ¿qué tecnologías vamos a utilizar para construir este espacio y nos ayudará la inteligencia artificial?

Las redes neuronales están emergiendo

Las redes neuronales llegaron por primera vez a la industria de la visión artificial en septiembre de 2012, cuando la red neuronal convolucional de AlexNet ganó la competencia de reconocimiento visual a gran escala de ImageNet. Se descubrió que AlexNet podía reconocer, analizar y clasificar imágenes. Esta habilidad revolucionaria provocó la ola de entusiasmo que el arte de la IA todavía está montando.

A continuación, en 2017 se publicó un artículo científico titulado Attention Is All You Need. El artículo describía el diseño y la arquitectura de un "Transformador", una red neuronal creada para el procesamiento del lenguaje natural (PNL). OpenAI demostró la eficacia de esta arquitectura al crear GPT-3 en 2020. Muchos gigantes tecnológicos se apresuraron a embarcarse en la búsqueda de un resultado y una calidad similares, y comenzaron a formar redes de neuronas basadas en Transformers.

Evento

Próximo GamesBeat Summit 2022

Únase a los líderes del juego en vivo del 25 al 26 de octubre en San Francisco para examinar las próximas grandes oportunidades dentro de la industria del juego.

registrarse aquí

La capacidad de reconocer imágenes y objetos y crear texto coherente a partir de ellos condujo al siguiente paso lógico en la evolución de las redes neuronales: convertir la entrada de texto en imágenes. Esto inició una extensa investigación sobre los modelos de texto a imagen. Como resultado, en enero de 2021 se creó la primera versión de DALL-E, un logro revolucionario en aprendizaje profundo para la generación de imágenes 2D.

De 2D a 3D

Poco antes de DALL-E, otro gran avance permitió que las redes neuronales comenzaran a crear imágenes en 3D con casi la misma calidad y velocidad que podían crear en 2D. Esto fue posible gracias al método Neural Radiance Fields (NeRF), que utiliza una red neuronal para recrear escenas 3D realistas a partir de una colección de imágenes 2D.

El CGI clásico ha exigido durante mucho tiempo una solución más económica y flexible para escenas 3D. Por contexto, cada escena en un videojuego se compone de millones de triángulos, y se necesita mucho tiempo, energía y capacidad de procesamiento para renderizarlos. Por lo tanto, las industrias de desarrollo de juegos y visión por computadora siempre están tratando de lograr un equilibrio entre la cantidad de triángulos (cuanto menor sea el número, más rápido se pueden renderizar) y la calidad de la salida.

A diferencia del modelado poligonal convencional, el renderizado neuronal reproduce una escena 3D basándose únicamente en la óptica y...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow