Databricks veröffentlicht ChatGPT-ähnliches Dolly, einen Klon, den jedes Unternehmen besitzen kann

Treffen Sie sich vom 11. bis 12. Juli in San Francisco mit Führungskräften, um zu erfahren, wie Führungskräfte KI-Investitionen für den Erfolg integrieren und optimieren. Erfahren Sie mehr

Ist die Data Lakehouse-Plattform Databricks zu einem OpenAI-Rivalen auf der Bingokarte 2023 geworden? Nun, hallo, Dolly.

Heute hat Databricks im Bestreben, auf seiner langjährigen Mission aufzubauen, KI für Unternehmen zu demokratisieren, Code für ein Open-Source-Large-Language-Model (LLM) namens Dolly veröffentlicht, das nach Dolly, dem ersten geklonten Schaf, benannt ist Säugetier - das Unternehmen verwenden können, um Chatbots zu erstellen, indem sie Anweisungen ähnlich wie ChatGPT folgen.

Das Modell lässt sich mit sehr wenigen Daten und in sehr kurzer Zeit trainieren, erklärt das Unternehmen in einem Blogbeitrag. „Mit 30 US-Dollar, einem Server und drei Stunden können wir [Dolly] beibringen, mit der Interaktivität auf menschlicher Ebene zu beginnen“, sagte Ali Ghodsi, CEO von Databricks.

Es gibt viele Gründe, warum ein Unternehmen es vorziehen würde, sein eigenes LLM-Modell zu erstellen, anstatt Daten an einen zentralisierten LLM-Anbieter zu senden, der ein proprietäres Modell hinter einer API bedient, erklärt der Blogbeitrag. Die Weitergabe vertraulicher Daten an Dritte ist möglicherweise keine Option, während Organisationen möglicherweise spezifische Anforderungen in Bezug auf Modellqualität, Kosten und gewünschtes Verhalten haben.

Fall

Transformation 2023

Besuchen Sie uns vom 11. bis 12. Juli in San Francisco, wo Führungskräfte diskutieren, wie sie KI-Investitionen für den Erfolg integriert und optimiert und häufige Fallstricke vermieden haben.

Jetzt registrieren

"Wir glauben, dass den meisten ML-Benutzern langfristig am besten gedient ist, wenn sie ihre Modelle direkt besitzen", heißt es in dem Blogpost.

Databricks entdeckte, dass ChatGPT-ähnliche Noten nicht das letzte oder beste LLM erfordern

Laut der Ankündigung sagte Databricks, Dolly soll zeigen, dass jeder „ein großes Open-Source-Sprachmodell von der Stange nehmen und ihm magische ChatGPT-ähnliche Anweisungen geben kann“. Überraschenderweise, sagt er, scheint das Befolgen von Anweisungen nicht die neuesten oder besten Modelle zu erfordern – Dolly besteht nur aus 6 Milliarden Parametern, verglichen mit 175 Milliarden bei GPT-3.

„Wir bezeichnen uns seit 2013 als Daten- und KI-Unternehmen und wir haben fast 1.000 Kunden, die eine Art großes Sprachmodell auf Databricks verwenden“, sagte Ghodsi, der gegenüber VentureBeat sagte, dass er beim ChatGPT „umgehauen“ war wurde Ende November 2022 eingeführt, stellte jedoch fest, dass nur wenige Unternehmen auf der Welt über die umfangreichen Sprachmodelle verfügten, die für die Fähigkeit auf ChatGPT-Ebene erforderlich sind.

"Die meisten Leute dachten, sollten wir alle von diesen proprietären Modellen profitieren, die nur sehr wenige Unternehmen haben? Und wenn ja, sollten wir ihnen unsere Daten geben?", sagt er.

Die Antwort auf beide Fragen ist nein: Im Februar veröffentlichte Meta die Gewichtungen einer Reihe hochwertiger (aber nicht lehrreicher) Sprachmodelle namens LLaMA für akademische Forscher, die jeweils über 80.000 GPU-Stunden trainiert wurden. . Dann, im März, baute Stanford das Alpaka-Modell, das ...

Databricks veröffentlicht ChatGPT-ähnliches Dolly, einen Klon, den jedes Unternehmen besitzen kann

Treffen Sie sich vom 11. bis 12. Juli in San Francisco mit Führungskräften, um zu erfahren, wie Führungskräfte KI-Investitionen für den Erfolg integrieren und optimieren. Erfahren Sie mehr

Ist die Data Lakehouse-Plattform Databricks zu einem OpenAI-Rivalen auf der Bingokarte 2023 geworden? Nun, hallo, Dolly.

Heute hat Databricks im Bestreben, auf seiner langjährigen Mission aufzubauen, KI für Unternehmen zu demokratisieren, Code für ein Open-Source-Large-Language-Model (LLM) namens Dolly veröffentlicht, das nach Dolly, dem ersten geklonten Schaf, benannt ist Säugetier - das Unternehmen verwenden können, um Chatbots zu erstellen, indem sie Anweisungen ähnlich wie ChatGPT folgen.

Das Modell lässt sich mit sehr wenigen Daten und in sehr kurzer Zeit trainieren, erklärt das Unternehmen in einem Blogbeitrag. „Mit 30 US-Dollar, einem Server und drei Stunden können wir [Dolly] beibringen, mit der Interaktivität auf menschlicher Ebene zu beginnen“, sagte Ali Ghodsi, CEO von Databricks.

Es gibt viele Gründe, warum ein Unternehmen es vorziehen würde, sein eigenes LLM-Modell zu erstellen, anstatt Daten an einen zentralisierten LLM-Anbieter zu senden, der ein proprietäres Modell hinter einer API bedient, erklärt der Blogbeitrag. Die Weitergabe vertraulicher Daten an Dritte ist möglicherweise keine Option, während Organisationen möglicherweise spezifische Anforderungen in Bezug auf Modellqualität, Kosten und gewünschtes Verhalten haben.

Fall

Transformation 2023

Besuchen Sie uns vom 11. bis 12. Juli in San Francisco, wo Führungskräfte diskutieren, wie sie KI-Investitionen für den Erfolg integriert und optimiert und häufige Fallstricke vermieden haben.

Jetzt registrieren

"Wir glauben, dass den meisten ML-Benutzern langfristig am besten gedient ist, wenn sie ihre Modelle direkt besitzen", heißt es in dem Blogpost.

Databricks entdeckte, dass ChatGPT-ähnliche Noten nicht das letzte oder beste LLM erfordern

Laut der Ankündigung sagte Databricks, Dolly soll zeigen, dass jeder „ein großes Open-Source-Sprachmodell von der Stange nehmen und ihm magische ChatGPT-ähnliche Anweisungen geben kann“. Überraschenderweise, sagt er, scheint das Befolgen von Anweisungen nicht die neuesten oder besten Modelle zu erfordern – Dolly besteht nur aus 6 Milliarden Parametern, verglichen mit 175 Milliarden bei GPT-3.

„Wir bezeichnen uns seit 2013 als Daten- und KI-Unternehmen und wir haben fast 1.000 Kunden, die eine Art großes Sprachmodell auf Databricks verwenden“, sagte Ghodsi, der gegenüber VentureBeat sagte, dass er beim ChatGPT „umgehauen“ war wurde Ende November 2022 eingeführt, stellte jedoch fest, dass nur wenige Unternehmen auf der Welt über die umfangreichen Sprachmodelle verfügten, die für die Fähigkeit auf ChatGPT-Ebene erforderlich sind.

"Die meisten Leute dachten, sollten wir alle von diesen proprietären Modellen profitieren, die nur sehr wenige Unternehmen haben? Und wenn ja, sollten wir ihnen unsere Daten geben?", sagt er.

Die Antwort auf beide Fragen ist nein: Im Februar veröffentlichte Meta die Gewichtungen einer Reihe hochwertiger (aber nicht lehrreicher) Sprachmodelle namens LLaMA für akademische Forscher, die jeweils über 80.000 GPU-Stunden trainiert wurden. . Dann, im März, baute Stanford das Alpaka-Modell, das ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow