Deux ans après les débuts de DALL-E, son inventeur est "surpris" par l'impact

Découvrez toutes les sessions à la demande du Sommet sur la sécurité intelligente ici.

Avant DALL-E 2, Stable Diffusion and Midjourney, il n'existait qu'un document de recherche intitulé "Zero-Shot Text-to-Image Generation".

Avec cet article et une démonstration de site Web contrôlé, le 5 janvier 2021 (il y a deux ans aujourd'hui) OpenAI a présenté DALL-E, un réseau de neurones qui "crée des images à partir de légendes de texte pour un large éventail de concepts exprimables en langage naturel. ”

La version à 12 milliards de paramètres du modèle de langage Transformer GPT–3 a été entraînée pour générer des images à partir de descriptions textuelles, à l'aide d'un ensemble de données de paires texte-image. Le journaliste de VentureBeat, Khari Johnson, a décrit le nom comme "destiné à évoquer l'artiste Salvador Dali et le robot WALL-E" et a inclus une illustration générée par DALL-E d'un "bébé radis daikon dans un tutu promenant un chien".

Image par DALL-E

Depuis lors, les choses ont évolué rapidement, selon Aditya Ramesh, chercheur OpenAI, inventeur de DALL-E et co-inventeur de DALL-E 2. C'est plus qu'un euphémisme, étant donné le rythme vertigineux du développement dans l'espace de l'IA générative au cours de l'année écoulée. Ensuite, il y a eu l'ascension fulgurante des modèles de diffusion, qui ont changé la donne pour DALL-E 2, sorti en avril dernier, et ses homologues open source, Stable Diffusion et Midjourney.

Événement

Sommet sur la sécurité intelligente à la demande

Découvrez le rôle essentiel de l'IA et du ML dans la cybersécurité et des études de cas spécifiques à l'industrie. Regardez les sessions à la demande dès aujourd'hui.

Regardez ici

"Il n'y a pas si longtemps, nous avons eu l'impression d'essayer cette direction de recherche pour voir ce qui pouvait être fait", a déclaré Ramesh à VentureBeat. "Je savais que la technologie allait arriver à un point où elle aurait un impact sur les consommateurs et serait utile pour de nombreuses applications différentes, mais j'ai quand même été surpris par la rapidité."

Maintenant, la modélisation générative approche du point où "il y aura une sorte de moment de type iPhone pour la génération d'images et d'autres modalités", a-t-il déclaré. "Je suis ...

Deux ans après les débuts de DALL-E, son inventeur est "surpris" par l'impact

Découvrez toutes les sessions à la demande du Sommet sur la sécurité intelligente ici.

Avant DALL-E 2, Stable Diffusion and Midjourney, il n'existait qu'un document de recherche intitulé "Zero-Shot Text-to-Image Generation".

Avec cet article et une démonstration de site Web contrôlé, le 5 janvier 2021 (il y a deux ans aujourd'hui) OpenAI a présenté DALL-E, un réseau de neurones qui "crée des images à partir de légendes de texte pour un large éventail de concepts exprimables en langage naturel. ”

La version à 12 milliards de paramètres du modèle de langage Transformer GPT–3 a été entraînée pour générer des images à partir de descriptions textuelles, à l'aide d'un ensemble de données de paires texte-image. Le journaliste de VentureBeat, Khari Johnson, a décrit le nom comme "destiné à évoquer l'artiste Salvador Dali et le robot WALL-E" et a inclus une illustration générée par DALL-E d'un "bébé radis daikon dans un tutu promenant un chien".

Image par DALL-E

Depuis lors, les choses ont évolué rapidement, selon Aditya Ramesh, chercheur OpenAI, inventeur de DALL-E et co-inventeur de DALL-E 2. C'est plus qu'un euphémisme, étant donné le rythme vertigineux du développement dans l'espace de l'IA générative au cours de l'année écoulée. Ensuite, il y a eu l'ascension fulgurante des modèles de diffusion, qui ont changé la donne pour DALL-E 2, sorti en avril dernier, et ses homologues open source, Stable Diffusion et Midjourney.

Événement

Sommet sur la sécurité intelligente à la demande

Découvrez le rôle essentiel de l'IA et du ML dans la cybersécurité et des études de cas spécifiques à l'industrie. Regardez les sessions à la demande dès aujourd'hui.

Regardez ici

"Il n'y a pas si longtemps, nous avons eu l'impression d'essayer cette direction de recherche pour voir ce qui pouvait être fait", a déclaré Ramesh à VentureBeat. "Je savais que la technologie allait arriver à un point où elle aurait un impact sur les consommateurs et serait utile pour de nombreuses applications différentes, mais j'ai quand même été surpris par la rapidité."

Maintenant, la modélisation générative approche du point où "il y aura une sorte de moment de type iPhone pour la génération d'images et d'autres modalités", a-t-il déclaré. "Je suis ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow