Nvidia entra en la carrera por la inteligencia artificial uniéndose a Meta y Google

Únase a nosotros el 9 de noviembre para aprender cómo innovar con éxito y obtener eficiencias al mejorar y escalar a los desarrolladores ciudadanos en Low-Code/No-Code Summit. Regístrate aquí.

Durante la cumbre Speech AI de Nvidia, la compañía anunció hoy su nuevo ecosistema de inteligencia artificial (IA) del habla, que ha desarrollado a través de una asociación con Mozilla Common Voice. El ecosistema se centra en el desarrollo de corpus de habla multilingüe subcontratados y modelos preentrenados de código abierto. Nvidia y Mozilla Common Voice tienen como objetivo acelerar el crecimiento de los modelos de reconocimiento automático de voz que funcionan universalmente para todos los hablantes de idiomas del mundo.

Nvidia descubrió que los asistentes de voz estándar, como Amazon Alexa y Google Home, admiten menos del 1 % de los idiomas que se hablan en todo el mundo. Para abordar esto, la empresa tiene como objetivo mejorar la inclusión de idiomas en la IA de voz y ampliar la disponibilidad de datos de voz para idiomas globales y de bajos recursos.

Nvidia se une a una carrera que Meta y Google ya lideran: recientemente, las dos empresas lanzaron modelos de IA de voz para facilitar la comunicación entre personas que hablan diferentes idiomas. El modelo de traducción de voz a voz con IA de Google, Translation Hub, puede traducir un gran volumen de documentos a muchos idiomas diferentes. Google también acaba de anunciar que está construyendo un traductor de voz universal, entrenado en más de 400 idiomas, con la afirmación de que es la "cobertura de modelo de idioma más amplia vista en un modelo de voz en la actualidad".

Mientras tanto, el proyecto Universal Speech Translator (UST) de Meta AI está ayudando a crear sistemas de IA que permiten la traducción de voz a voz en tiempo real en todos los idiomas, incluso aquellos que se hablan pero no se escriben comúnmente.

Evento

Vértice de código bajo/sin código

Aprenda a crear, escalar y administrar programas de código bajo de una manera fácil que genere éxito para todos este 9 de noviembre. Regístrese para obtener su pase gratis hoy.

registrarse aquí Un ecosistema para usuarios de idiomas de todo el mundo

Según Nvidia, la inclusión de idiomas para la inteligencia artificial de voz tiene beneficios integrales para la salud de los datos, incluida la ayuda a los modelos de inteligencia artificial a comprender la diversidad de hablantes y una variedad de perfiles de ruido. El nuevo ecosistema de Speech AI ayuda a los desarrolladores a crear, mantener y mejorar modelos y conjuntos de datos de Speech AI para la inclusión, la usabilidad y la experiencia del lenguaje. Los usuarios pueden entrenar sus modelos en conjuntos de datos de Mozilla Common Voice y luego ofrecer estos modelos previamente entrenados como arquitecturas de reconocimiento de voz automático de alta calidad. Luego, otras organizaciones e individuos de todo el mundo pueden adaptar y utilizar estas arquitecturas para crear sus aplicaciones de IA de voz.

“La diversidad demográfica es clave para capturar la diversidad lingüística”, dijo Caroline de Brito Gottlieb, gerente de producto de Nvidia. “Hay varios factores vitales que afectan la variación del habla, como dialectos, sociolectos, pidgins y acentos desatendidos. A través de esta asociación, nuestro objetivo es crear un ecosistema de conjuntos de datos que ayude a las comunidades a crear conjuntos de datos y modelos de voz para cualquier idioma o contexto.

La plataforma Mozilla Common Voice actualmente admite 100 idiomas, con 24 000 horas de datos de voz disponibles de 500 000 colaboradores en todo el mundo. La última versión del conjunto de datos de Common Voice también incluye seis nuevos idiomas: tigre, taiwanés (Minnan), Meadow Mari, bengalí, toki pona y cantonés, así como más datos de voz de hablantes femeninas.

Gracias a la plataforma Mozilla Common Voice...

Nvidia entra en la carrera por la inteligencia artificial uniéndose a Meta y Google

Únase a nosotros el 9 de noviembre para aprender cómo innovar con éxito y obtener eficiencias al mejorar y escalar a los desarrolladores ciudadanos en Low-Code/No-Code Summit. Regístrate aquí.

Durante la cumbre Speech AI de Nvidia, la compañía anunció hoy su nuevo ecosistema de inteligencia artificial (IA) del habla, que ha desarrollado a través de una asociación con Mozilla Common Voice. El ecosistema se centra en el desarrollo de corpus de habla multilingüe subcontratados y modelos preentrenados de código abierto. Nvidia y Mozilla Common Voice tienen como objetivo acelerar el crecimiento de los modelos de reconocimiento automático de voz que funcionan universalmente para todos los hablantes de idiomas del mundo.

Nvidia descubrió que los asistentes de voz estándar, como Amazon Alexa y Google Home, admiten menos del 1 % de los idiomas que se hablan en todo el mundo. Para abordar esto, la empresa tiene como objetivo mejorar la inclusión de idiomas en la IA de voz y ampliar la disponibilidad de datos de voz para idiomas globales y de bajos recursos.

Nvidia se une a una carrera que Meta y Google ya lideran: recientemente, las dos empresas lanzaron modelos de IA de voz para facilitar la comunicación entre personas que hablan diferentes idiomas. El modelo de traducción de voz a voz con IA de Google, Translation Hub, puede traducir un gran volumen de documentos a muchos idiomas diferentes. Google también acaba de anunciar que está construyendo un traductor de voz universal, entrenado en más de 400 idiomas, con la afirmación de que es la "cobertura de modelo de idioma más amplia vista en un modelo de voz en la actualidad".

Mientras tanto, el proyecto Universal Speech Translator (UST) de Meta AI está ayudando a crear sistemas de IA que permiten la traducción de voz a voz en tiempo real en todos los idiomas, incluso aquellos que se hablan pero no se escriben comúnmente.

Evento

Vértice de código bajo/sin código

Aprenda a crear, escalar y administrar programas de código bajo de una manera fácil que genere éxito para todos este 9 de noviembre. Regístrese para obtener su pase gratis hoy.

registrarse aquí Un ecosistema para usuarios de idiomas de todo el mundo

Según Nvidia, la inclusión de idiomas para la inteligencia artificial de voz tiene beneficios integrales para la salud de los datos, incluida la ayuda a los modelos de inteligencia artificial a comprender la diversidad de hablantes y una variedad de perfiles de ruido. El nuevo ecosistema de Speech AI ayuda a los desarrolladores a crear, mantener y mejorar modelos y conjuntos de datos de Speech AI para la inclusión, la usabilidad y la experiencia del lenguaje. Los usuarios pueden entrenar sus modelos en conjuntos de datos de Mozilla Common Voice y luego ofrecer estos modelos previamente entrenados como arquitecturas de reconocimiento de voz automático de alta calidad. Luego, otras organizaciones e individuos de todo el mundo pueden adaptar y utilizar estas arquitecturas para crear sus aplicaciones de IA de voz.

“La diversidad demográfica es clave para capturar la diversidad lingüística”, dijo Caroline de Brito Gottlieb, gerente de producto de Nvidia. “Hay varios factores vitales que afectan la variación del habla, como dialectos, sociolectos, pidgins y acentos desatendidos. A través de esta asociación, nuestro objetivo es crear un ecosistema de conjuntos de datos que ayude a las comunidades a crear conjuntos de datos y modelos de voz para cualquier idioma o contexto.

La plataforma Mozilla Common Voice actualmente admite 100 idiomas, con 24 000 horas de datos de voz disponibles de 500 000 colaboradores en todo el mundo. La última versión del conjunto de datos de Common Voice también incluye seis nuevos idiomas: tigre, taiwanés (Minnan), Meadow Mari, bengalí, toki pona y cantonés, así como más datos de voz de hablantes femeninas.

Gracias a la plataforma Mozilla Common Voice...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow