El jefe de OpenAI dice que la era de los modelos gigantes de IA está llegando a su fin; una crisis de GPU podría ser una de las razones por las que

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

La era de los modelos de IA cada vez más grandes está llegando a su fin, según el director ejecutivo de OpenAI, Sam Altman, ya que las restricciones de costos y los rendimientos decrecientes obstaculizan el escalamiento implacable que ha definido el progreso en el campo.

Hablando en un evento del MIT la semana pasada, Altman sugirió que los "modelos gigantes, gigantes" no generarán más avances. Según un informe reciente de Wired, dijo: “Creo que estamos al final de la era en la que habrá estos modelos gigantes, gigantes. Vamos a mejorarlos de otras formas".

Aunque el Sr. Altman no lo citó directamente, un factor clave del pivote "la escalabilidad es todo lo que necesita" es el costo exorbitante e insostenible de capacitar y ejecutar los poderosos procesos gráficos necesarios para los modelos de lenguaje grande (LLM). ChatGPT, por ejemplo, habría requerido más de 10 000 GPU para entrenar y requeriría incluso más recursos para ejecutarse de forma continua.

Nvidia domina el mercado de GPU, con una participación de mercado de alrededor del 88 %, según John Peddie Research. Las últimas GPU H100 de Nvidia, diseñadas específicamente para IA y computación de alto rendimiento (HPC), pueden costar hasta $30,603 por unidad, e incluso más en eBay.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

Entrenar a un LLM de última generación puede requerir cientos de millones de dólares en computación, dijo Ronen Dar, cofundador y CTO de Run AI, una plataforma de orquestación de computación que acelera las iniciativas de ciencia de datos al agrupar GPU.

A medida que los costos se dispararon y los beneficios se estabilizaron, las economías de escala fracasaron en modelos cada vez más grandes. Más bien, el progreso provendrá de la mejora de las arquitecturas de modelos, la mejora de la eficiencia de los datos y el avance de las técnicas algorítmicas más allá de la escala de cortar y pegar. La era de la uni...

El jefe de OpenAI dice que la era de los modelos gigantes de IA está llegando a su fin; una crisis de GPU podría ser una de las razones por las que

Únase a altos ejecutivos en San Francisco los días 11 y 12 de julio para conocer cómo los líderes están integrando y optimizando las inversiones en IA para lograr el éxito. Más información

La era de los modelos de IA cada vez más grandes está llegando a su fin, según el director ejecutivo de OpenAI, Sam Altman, ya que las restricciones de costos y los rendimientos decrecientes obstaculizan el escalamiento implacable que ha definido el progreso en el campo.

Hablando en un evento del MIT la semana pasada, Altman sugirió que los "modelos gigantes, gigantes" no generarán más avances. Según un informe reciente de Wired, dijo: “Creo que estamos al final de la era en la que habrá estos modelos gigantes, gigantes. Vamos a mejorarlos de otras formas".

Aunque el Sr. Altman no lo citó directamente, un factor clave del pivote "la escalabilidad es todo lo que necesita" es el costo exorbitante e insostenible de capacitar y ejecutar los poderosos procesos gráficos necesarios para los modelos de lenguaje grande (LLM). ChatGPT, por ejemplo, habría requerido más de 10 000 GPU para entrenar y requeriría incluso más recursos para ejecutarse de forma continua.

Nvidia domina el mercado de GPU, con una participación de mercado de alrededor del 88 %, según John Peddie Research. Las últimas GPU H100 de Nvidia, diseñadas específicamente para IA y computación de alto rendimiento (HPC), pueden costar hasta $30,603 por unidad, e incluso más en eBay.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos hablarán sobre cómo han integrado y optimizado las inversiones en IA para lograr el éxito y cómo evitar errores comunes.

Regístrate ahora

Entrenar a un LLM de última generación puede requerir cientos de millones de dólares en computación, dijo Ronen Dar, cofundador y CTO de Run AI, una plataforma de orquestación de computación que acelera las iniciativas de ciencia de datos al agrupar GPU.

A medida que los costos se dispararon y los beneficios se estabilizaron, las economías de escala fracasaron en modelos cada vez más grandes. Más bien, el progreso provendrá de la mejora de las arquitecturas de modelos, la mejora de la eficiencia de los datos y el avance de las técnicas algorítmicas más allá de la escala de cortar y pegar. La era de la uni...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow