Databricks erleichtert das Erstellen von Echtzeit-ML-Apps mit einem neuen Dienst

Databricks mit Hauptsitz in San Francisco, das eine Data Lakehouse-Plattform zum Speichern und Mobilisieren unterschiedlicher Daten bereitstellt, hat heute serverlose Echtzeit-Inferenzfunktionen eingeführt. Das Unternehmen sagt, dass dieser Schritt es einfacher machen wird, Anwendungen für maschinelles Lernen (ML) in Echtzeit für angeschlagene Unternehmen bereitzustellen und auszuführen.

Heute ist Echtzeit-ML der Schlüssel zum Produkterfolg. Unternehmen setzen es in einer Reihe von Anwendungsfällen ein – von Empfehlungen bis hin zur Personalisierung von Chats –, um basierend auf Streaming-Daten sofort Maßnahmen zu ergreifen und den Umsatz zu steigern. Wenn es jedoch darum geht, den gesamten Lebenszyklus von KI-Anwendungssystemen zu unterstützen, kann es schwierig werden.

Teams sollten ihre ML-Modelle in der Cloud oder lokal hosten und dann ihre Funktionen über die API zugänglich machen, damit sie innerhalb des Anwendungssystems funktionieren. Der Prozess wird oft als „Musterservice“ bezeichnet. Dies erfordert den Aufbau einer schnellen und skalierbaren Infrastruktur, die nicht nur den Kerndienstbedarf unterstützt, sondern auch Funktionen für Suche, Überwachung, automatisierte Bereitstellung und Modellrecycling. Dies führt dazu, dass Teams unterschiedliche Tools integrieren, was die betriebliche Komplexität erhöht und Wartungsaufwand verursacht.

Tatsächlich verbringen die meisten Data Scientists, die diese Aufgabe übernehmen, viel Zeit und Ressourcen damit, die Daten-, ML- und Dienstinfrastruktur im ML-Lebenszyklus zusammenzustellen und zu warten.

Um diese spezielle Lücke für seine Kunden zu schließen, hat Databricks Model Serving mit serverloser Echtzeit-Inferenz in GA eingeführt. Dies ist ein Meilenstein für ein Unternehmen, das die Entwicklung von Cloud-basierten Spark-Datenverarbeitungsmethoden angeführt hat.

Wie Databricks erklärt, ist der neue Dienst ein vollständig verwalteter Produktionsdienst, der MLflow-Modelle für maschinelles Lernen als skalierbare REST-API-Endpunkte verfügbar macht. Es übernimmt die gesamte mit dem Prozess verbundene schwere Arbeit, von der Einrichtung der Infrastruktur über die Verwaltung von Instanzen bis hin zur Aufrechterhaltung der Versionskompatibilität und der Behebung von Versionen. Der Dienst skaliert Ressourcen dynamisch nach oben und unten und gewährleistet maximale Kosteneffizienz und Skalierbarkeit bei gleichzeitig hoher Verfügbarkeit und geringer Latenz.

Mit diesem Angebot, so Databricks, können Unternehmen den Infrastrukturaufwand reduzieren und ihre Teams schneller in die Produktion bringen. Darüber hinaus gewährleistet die tiefe Integration mit verschiedenen Data Lakehouse-Diensten wie dem Feature Store die automatische Herkunft, Steuerung und Überwachung von Modelldaten, Funktionen und Lebenszyklen. Dies bedeutet, dass Teams den gesamten ML-Prozess verwalten können, von der Datenaufnahme und Schulung bis hin zur Bereitstellung und Überwachung auf einer einzigen Plattform, wodurch eine konsistente Ansicht über den gesamten ML-Lebenszyklus erstellt wird, die Fehler minimiert und das Debugging beschleunigt.

Databricks Model Server

Gestreamtes Modell mit serverloser Echtzeit-Inferenz. Bildquelle: Databricks.

Die durch die Bereitstellung von Modellen eingesparte Zeit und Ressourcen können stattdessen verwendet werden, um qualitativ hochwertigere Modelle schneller zu erstellen, stellte Databricks fest. Gyuhyeon Sim, CEO von Letsur AI, stellte ebenfalls ähnliche Vorteile fest.

Sim sagte, dass die schnelle automatische Skalierung des Dienstes dazu beiträgt, die Kosten zu senken und gleichzeitig eine Skalierung bei steigender Verkehrsnachfrage zu ermöglichen. „Unser Team verbringt jetzt mehr Zeit mit dem Erstellen von Modellen, um Kundenprobleme zu lösen, als mit dem Debuggen in...

Databricks erleichtert das Erstellen von Echtzeit-ML-Apps mit einem neuen Dienst

Databricks mit Hauptsitz in San Francisco, das eine Data Lakehouse-Plattform zum Speichern und Mobilisieren unterschiedlicher Daten bereitstellt, hat heute serverlose Echtzeit-Inferenzfunktionen eingeführt. Das Unternehmen sagt, dass dieser Schritt es einfacher machen wird, Anwendungen für maschinelles Lernen (ML) in Echtzeit für angeschlagene Unternehmen bereitzustellen und auszuführen.

Heute ist Echtzeit-ML der Schlüssel zum Produkterfolg. Unternehmen setzen es in einer Reihe von Anwendungsfällen ein – von Empfehlungen bis hin zur Personalisierung von Chats –, um basierend auf Streaming-Daten sofort Maßnahmen zu ergreifen und den Umsatz zu steigern. Wenn es jedoch darum geht, den gesamten Lebenszyklus von KI-Anwendungssystemen zu unterstützen, kann es schwierig werden.

Teams sollten ihre ML-Modelle in der Cloud oder lokal hosten und dann ihre Funktionen über die API zugänglich machen, damit sie innerhalb des Anwendungssystems funktionieren. Der Prozess wird oft als „Musterservice“ bezeichnet. Dies erfordert den Aufbau einer schnellen und skalierbaren Infrastruktur, die nicht nur den Kerndienstbedarf unterstützt, sondern auch Funktionen für Suche, Überwachung, automatisierte Bereitstellung und Modellrecycling. Dies führt dazu, dass Teams unterschiedliche Tools integrieren, was die betriebliche Komplexität erhöht und Wartungsaufwand verursacht.

Tatsächlich verbringen die meisten Data Scientists, die diese Aufgabe übernehmen, viel Zeit und Ressourcen damit, die Daten-, ML- und Dienstinfrastruktur im ML-Lebenszyklus zusammenzustellen und zu warten.

Um diese spezielle Lücke für seine Kunden zu schließen, hat Databricks Model Serving mit serverloser Echtzeit-Inferenz in GA eingeführt. Dies ist ein Meilenstein für ein Unternehmen, das die Entwicklung von Cloud-basierten Spark-Datenverarbeitungsmethoden angeführt hat.

Wie Databricks erklärt, ist der neue Dienst ein vollständig verwalteter Produktionsdienst, der MLflow-Modelle für maschinelles Lernen als skalierbare REST-API-Endpunkte verfügbar macht. Es übernimmt die gesamte mit dem Prozess verbundene schwere Arbeit, von der Einrichtung der Infrastruktur über die Verwaltung von Instanzen bis hin zur Aufrechterhaltung der Versionskompatibilität und der Behebung von Versionen. Der Dienst skaliert Ressourcen dynamisch nach oben und unten und gewährleistet maximale Kosteneffizienz und Skalierbarkeit bei gleichzeitig hoher Verfügbarkeit und geringer Latenz.

Mit diesem Angebot, so Databricks, können Unternehmen den Infrastrukturaufwand reduzieren und ihre Teams schneller in die Produktion bringen. Darüber hinaus gewährleistet die tiefe Integration mit verschiedenen Data Lakehouse-Diensten wie dem Feature Store die automatische Herkunft, Steuerung und Überwachung von Modelldaten, Funktionen und Lebenszyklen. Dies bedeutet, dass Teams den gesamten ML-Prozess verwalten können, von der Datenaufnahme und Schulung bis hin zur Bereitstellung und Überwachung auf einer einzigen Plattform, wodurch eine konsistente Ansicht über den gesamten ML-Lebenszyklus erstellt wird, die Fehler minimiert und das Debugging beschleunigt.

Databricks Model Server

Gestreamtes Modell mit serverloser Echtzeit-Inferenz. Bildquelle: Databricks.

Die durch die Bereitstellung von Modellen eingesparte Zeit und Ressourcen können stattdessen verwendet werden, um qualitativ hochwertigere Modelle schneller zu erstellen, stellte Databricks fest. Gyuhyeon Sim, CEO von Letsur AI, stellte ebenfalls ähnliche Vorteile fest.

Sim sagte, dass die schnelle automatische Skalierung des Dienstes dazu beiträgt, die Kosten zu senken und gleichzeitig eine Skalierung bei steigender Verkehrsnachfrage zu ermöglichen. „Unser Team verbringt jetzt mehr Zeit mit dem Erstellen von Modellen, um Kundenprobleme zu lösen, als mit dem Debuggen in...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow