Wie Diffusionsmodelle neue Möglichkeiten für generative Kreativität eröffnen

Registrieren Sie sich jetzt für Ihren kostenlosen virtuellen Pass für den Low-Code/No-Code Summit am 9. November. Hören Sie von den führenden Anbietern von Service Now, Credit Karma, Stitch Fix, Appian und mehr. Weitere Informationen.

Modelle der generativen künstlichen Intelligenz (KI) erfreuen sich immer größerer Beliebtheit und Anerkennung. Jüngste Fortschritte in der Technologie und ihr Erfolg bei der Bildgenerierung haben eine Welle des Interesses bei Technologieunternehmen und Praktikern des maschinellen Lernens (ML) ausgelöst, die nun regelmäßig KI-Modelle übernehmen, die für mehrere geschäftliche Anwendungsfälle generativ sind.

Das Aufkommen von Textkonvertierungsarchitekturen fördert diese Einführung weiter, mit generativen KI-Modellen wie Googles Imagen Video, Metas Make-A-Video und anderen wie DALL-E, MidJourney und Stable Spread.

Ein gemeinsamer Nenner aller generativen KI-Architekturen ist die Verwendung eines als Diffusionsmodell bekannten Verfahrens, das vom physikalischen Prozess der Diffusion von Gasmolekülen inspiriert ist, bei dem Moleküle Bereiche mit hoher Dichte in Bereiche mit geringer Dichte diffundieren.

Ähnlich wie beim wissenschaftlichen Prozess beginnt das Modell mit dem Sammeln von zufälligem Rauschen aus den bereitgestellten Eingabedaten, das in einer Reihe von Schritten subtrahiert wird, wodurch ein ästhetisch ansprechendes und ideal konsistentes Bild entsteht. Indem die Rauschunterdrückung so gesteuert wird, dass die Übereinstimmung mit einer Textaufforderung gefördert wird, können Sendemodelle Bilder mit größerer Wiedergabetreue erzeugen.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Für die Implementierung der generativen KI ist die Verwendung von Diffusionsmodellen in letzter Zeit offensichtlich geworden und zeigt Anzeichen dafür, dass sie frühere Methoden wie Generative Adversarial Networks (GANs) und Transformatoren im Bereich der bedingten Bildsynthese ersetzen, da Diffusionsmodelle Zustände erzeugen können -modernste Bildzustände unter Beibehaltung der Qualität und semantischen Struktur der Daten - und unbeeinflusst von Trainingsnachteilen wie dem Modekollaps.

Eine neue Synthesemethode basierend auf KI

Einer der jüngsten Fortschritte in Computer Vision und ML war die Erfindung von GANs, bei denen es sich um zweiteilige KI-Modelle handelt, die aus einem Generator bestehen, der Samples erstellt, und einem Diskriminator, der versucht, zwischen generierten Samples und realen Samples zu unterscheiden. Diese Methode wurde zum Sprungbrett für ein neues Gebiet, das als generative Modellierung bekannt ist. Nach einer Boomphase begannen GANs jedoch zu stagnieren, da die meisten Methoden Schwierigkeiten hatten, die Engpässe zu lösen, auf die kontradiktorische Techniken, eine überwachte Brute-Force-Lernmethode, bei der so viele wie möglich Beispiele zum Trainieren des Modells eingespeist werden, zu lösen waren.

GANs funktionieren gut für verschiedene Anwendungen, aber sie sind schwierig zu trainieren und ihre Ausgabe ist nicht vielfältig. Beispielsweise leiden GANs oft unter instabiler Formation und Modenkollaps, ein Problem, bei dem der Generator lernen kann, eine einzelne Ausgabe zu erzeugen, die am plausibelsten erscheint, während autoregressive Modelle normalerweise unter einer langsamen Synthesegeschwindigkeit leiden.

Aufbauend auf diesen Verzögerungen entwickelte sich die Diffusionsmodelltechnik aus der probabilistischen Wahrscheinlichkeitsschätzung, einer Methode zur Schätzung der Ausgabe eines statistischen Modells durch Beobachtungen aus Daten, indem Parameterwerte gefunden werden, die die Wahrscheinlichkeit der Vorhersage maximieren.

Diffusionsmodelle sind generative Modelle (ein ...

Wie Diffusionsmodelle neue Möglichkeiten für generative Kreativität eröffnen

Registrieren Sie sich jetzt für Ihren kostenlosen virtuellen Pass für den Low-Code/No-Code Summit am 9. November. Hören Sie von den führenden Anbietern von Service Now, Credit Karma, Stitch Fix, Appian und mehr. Weitere Informationen.

Modelle der generativen künstlichen Intelligenz (KI) erfreuen sich immer größerer Beliebtheit und Anerkennung. Jüngste Fortschritte in der Technologie und ihr Erfolg bei der Bildgenerierung haben eine Welle des Interesses bei Technologieunternehmen und Praktikern des maschinellen Lernens (ML) ausgelöst, die nun regelmäßig KI-Modelle übernehmen, die für mehrere geschäftliche Anwendungsfälle generativ sind.

Das Aufkommen von Textkonvertierungsarchitekturen fördert diese Einführung weiter, mit generativen KI-Modellen wie Googles Imagen Video, Metas Make-A-Video und anderen wie DALL-E, MidJourney und Stable Spread.

Ein gemeinsamer Nenner aller generativen KI-Architekturen ist die Verwendung eines als Diffusionsmodell bekannten Verfahrens, das vom physikalischen Prozess der Diffusion von Gasmolekülen inspiriert ist, bei dem Moleküle Bereiche mit hoher Dichte in Bereiche mit geringer Dichte diffundieren.

Ähnlich wie beim wissenschaftlichen Prozess beginnt das Modell mit dem Sammeln von zufälligem Rauschen aus den bereitgestellten Eingabedaten, das in einer Reihe von Schritten subtrahiert wird, wodurch ein ästhetisch ansprechendes und ideal konsistentes Bild entsteht. Indem die Rauschunterdrückung so gesteuert wird, dass die Übereinstimmung mit einer Textaufforderung gefördert wird, können Sendemodelle Bilder mit größerer Wiedergabetreue erzeugen.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Für die Implementierung der generativen KI ist die Verwendung von Diffusionsmodellen in letzter Zeit offensichtlich geworden und zeigt Anzeichen dafür, dass sie frühere Methoden wie Generative Adversarial Networks (GANs) und Transformatoren im Bereich der bedingten Bildsynthese ersetzen, da Diffusionsmodelle Zustände erzeugen können -modernste Bildzustände unter Beibehaltung der Qualität und semantischen Struktur der Daten - und unbeeinflusst von Trainingsnachteilen wie dem Modekollaps.

Eine neue Synthesemethode basierend auf KI

Einer der jüngsten Fortschritte in Computer Vision und ML war die Erfindung von GANs, bei denen es sich um zweiteilige KI-Modelle handelt, die aus einem Generator bestehen, der Samples erstellt, und einem Diskriminator, der versucht, zwischen generierten Samples und realen Samples zu unterscheiden. Diese Methode wurde zum Sprungbrett für ein neues Gebiet, das als generative Modellierung bekannt ist. Nach einer Boomphase begannen GANs jedoch zu stagnieren, da die meisten Methoden Schwierigkeiten hatten, die Engpässe zu lösen, auf die kontradiktorische Techniken, eine überwachte Brute-Force-Lernmethode, bei der so viele wie möglich Beispiele zum Trainieren des Modells eingespeist werden, zu lösen waren.

GANs funktionieren gut für verschiedene Anwendungen, aber sie sind schwierig zu trainieren und ihre Ausgabe ist nicht vielfältig. Beispielsweise leiden GANs oft unter instabiler Formation und Modenkollaps, ein Problem, bei dem der Generator lernen kann, eine einzelne Ausgabe zu erzeugen, die am plausibelsten erscheint, während autoregressive Modelle normalerweise unter einer langsamen Synthesegeschwindigkeit leiden.

Aufbauend auf diesen Verzögerungen entwickelte sich die Diffusionsmodelltechnik aus der probabilistischen Wahrscheinlichkeitsschätzung, einer Methode zur Schätzung der Ausgabe eines statistischen Modells durch Beobachtungen aus Daten, indem Parameterwerte gefunden werden, die die Wahrscheinlichkeit der Vorhersage maximieren.

Diffusionsmodelle sind generative Modelle (ein ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow