La version MLops de Domino se concentre sur les GPU et l'apprentissage en profondeur, offre un aperçu multicloud

Pour renforcer encore notre engagement à fournir une couverture de pointe de la technologie des données, VentureBeat est ravi d'accueillir Andrew Brust et Tony Baer en tant que contributeurs réguliers. Surveillez leurs articles dans le pipeline de données.

Capture d'écran Domino Nexus

Capture d'écran Domino Nexus, montrant le déploiement de l'environnement sur l'infrastructure AWS, Google Cloud, Microsoft Azure et Nvidia sur site, avec un choix d'IDE

Domino Data Lab, créateur d'une plate-forme MLops (opérations d'apprentissage automatique) de bout en bout, annonce aujourd'hui sa dernière version, la version 5.3. La livraison inclut une nouvelle prise en charge de l'inférence de modèle ML sur les systèmes GPU (unité de traitement graphique) et une collection de nouveaux connecteurs. Parallèlement à cela, la société lance un aperçu privé de ses capacités hybrides et multicloud Nexus, annoncées pour la première fois en juin.

[A lire également : Domino Data Lab annonce la dernière plate-forme MLops pour satisfaire à la fois la science des données et l'informatique]

Les GPU accélèrent l'apprentissage en profondeur

Les GPU peuvent accélérer de nombreuses opérations de ML et d'apprentissage en profondeur, car ils parallélisent des charges de travail massives, ce qui est exactement ce qu'implique la formation de modèles d'apprentissage en profondeur complexes ou de nombreux modèles de ML. C'est pourquoi Domino prend depuis longtemps en charge les GPU pour l'entraînement des modèles.

Mais dans le cas spécifique de l'apprentissage en profondeur, les GPU peuvent également bénéficier de l'inférence (génération de prédictions à partir du modèle entraîné), et c'est ce scénario que Domino prend en charge depuis la version 5.3. Une façon peut-être plus simple de penser à cela est que Domino prend désormais en charge l'opérationnalisation de l'apprentissage en profondeur au-delà du développement, s'étendant jusqu'au déploiement en production. Compte tenu de toutes les nouvelles annonces issues de la conférence sur la technologie GPU (GTC) de Nvidia le mois dernier, le timing de Domino est particulièrement bon.

Événement

Sommet Low-Code/No-Code

Rejoignez les principaux dirigeants d'aujourd'hui au sommet Low-Code/No-Code virtuellement le 9 novembre. Inscrivez-vous pour obtenir votre pass gratuit dès aujourd'hui.

Inscrivez-vous ici

[Voir aussi : Nvidia fait passer les GPU Hopper pour l'IA en pleine production]

Connectivité aux plates-formes anciennes et nouvelles

Ensuite, il y a la question des nouveaux connecteurs, y compris une connectivité améliorée pour Amazon Web Services S3 et de tout nouveaux connecteurs pour Teradata et Trino. Habituellement, les nouveaux connecteurs ne sont pas dignes d'intérêt... leur livraison n'est qu'une amélioration incrémentielle typique que la plupart des plates-formes de données ajoutent à intervalles réguliers. Mais il y a quelques détails ici qui méritent d'être soulignés.

La couverture d'une plate-forme d'entrepôt de données mature et bien établie comme Teradata montre une maturation dans MLops lui-même. Étant donné que les plates-formes MLops sont nouvelles, elles donnent souvent la priorité à la connectivité aux plates-formes de données plus récentes, comme Snowflake, pour lesquelles Domino avait déjà un support. Mais l'ajout d'un connecteur Teradata signifie que MLops et Domino s'adressent même aux comptes d'entreprise les plus conservateurs, où l'impact de l'intelligence artificielle (IA) aura sans doute le plus grand impact, même s'il n'est pas le plus précoce. Il est bon de voir la rigueur de MLops faire son chemin dans toutes les parties du marché.

[Doit lire :

La version MLops de Domino se concentre sur les GPU et l'apprentissage en profondeur, offre un aperçu multicloud

Pour renforcer encore notre engagement à fournir une couverture de pointe de la technologie des données, VentureBeat est ravi d'accueillir Andrew Brust et Tony Baer en tant que contributeurs réguliers. Surveillez leurs articles dans le pipeline de données.

Capture d'écran Domino Nexus

Capture d'écran Domino Nexus, montrant le déploiement de l'environnement sur l'infrastructure AWS, Google Cloud, Microsoft Azure et Nvidia sur site, avec un choix d'IDE

Domino Data Lab, créateur d'une plate-forme MLops (opérations d'apprentissage automatique) de bout en bout, annonce aujourd'hui sa dernière version, la version 5.3. La livraison inclut une nouvelle prise en charge de l'inférence de modèle ML sur les systèmes GPU (unité de traitement graphique) et une collection de nouveaux connecteurs. Parallèlement à cela, la société lance un aperçu privé de ses capacités hybrides et multicloud Nexus, annoncées pour la première fois en juin.

[A lire également : Domino Data Lab annonce la dernière plate-forme MLops pour satisfaire à la fois la science des données et l'informatique]

Les GPU accélèrent l'apprentissage en profondeur

Les GPU peuvent accélérer de nombreuses opérations de ML et d'apprentissage en profondeur, car ils parallélisent des charges de travail massives, ce qui est exactement ce qu'implique la formation de modèles d'apprentissage en profondeur complexes ou de nombreux modèles de ML. C'est pourquoi Domino prend depuis longtemps en charge les GPU pour l'entraînement des modèles.

Mais dans le cas spécifique de l'apprentissage en profondeur, les GPU peuvent également bénéficier de l'inférence (génération de prédictions à partir du modèle entraîné), et c'est ce scénario que Domino prend en charge depuis la version 5.3. Une façon peut-être plus simple de penser à cela est que Domino prend désormais en charge l'opérationnalisation de l'apprentissage en profondeur au-delà du développement, s'étendant jusqu'au déploiement en production. Compte tenu de toutes les nouvelles annonces issues de la conférence sur la technologie GPU (GTC) de Nvidia le mois dernier, le timing de Domino est particulièrement bon.

Événement

Sommet Low-Code/No-Code

Rejoignez les principaux dirigeants d'aujourd'hui au sommet Low-Code/No-Code virtuellement le 9 novembre. Inscrivez-vous pour obtenir votre pass gratuit dès aujourd'hui.

Inscrivez-vous ici

[Voir aussi : Nvidia fait passer les GPU Hopper pour l'IA en pleine production]

Connectivité aux plates-formes anciennes et nouvelles

Ensuite, il y a la question des nouveaux connecteurs, y compris une connectivité améliorée pour Amazon Web Services S3 et de tout nouveaux connecteurs pour Teradata et Trino. Habituellement, les nouveaux connecteurs ne sont pas dignes d'intérêt... leur livraison n'est qu'une amélioration incrémentielle typique que la plupart des plates-formes de données ajoutent à intervalles réguliers. Mais il y a quelques détails ici qui méritent d'être soulignés.

La couverture d'une plate-forme d'entrepôt de données mature et bien établie comme Teradata montre une maturation dans MLops lui-même. Étant donné que les plates-formes MLops sont nouvelles, elles donnent souvent la priorité à la connectivité aux plates-formes de données plus récentes, comme Snowflake, pour lesquelles Domino avait déjà un support. Mais l'ajout d'un connecteur Teradata signifie que MLops et Domino s'adressent même aux comptes d'entreprise les plus conservateurs, où l'impact de l'intelligence artificielle (IA) aura sans doute le plus grand impact, même s'il n'est pas le plus précoce. Il est bon de voir la rigueur de MLops faire son chemin dans toutes les parties du marché.

[Doit lire :

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow