Wie Google die ML-Entwicklung beschleunigt

Haben Sie eine MetaBeat 2022-Sitzung verpasst? Besuchen Sie die On-Demand-Bibliothek für alle unsere vorgestellten Sitzungen hier.

Die Beschleunigung der Entwicklung von maschinellem Lernen (ML) und künstlicher Intelligenz (KI) mit optimierter Leistung und Kosten ist ein Hauptziel von Google.

Google startete seine Next 2022-Konferenz diese Woche mit einer Reihe von Ankündigungen zu den neuen KI-Funktionen seiner Plattform, einschließlich Computer Vision as a Service mit Vertex AI Vision und dem neuen Open-Source-ML OpenXLA. Während einer Sitzung auf der Next 2022-Veranstaltung sprach Mikhail Chrestkha, scheidender Produktmanager bei Google Cloud, über zusätzliche inkrementelle KI-Verbesserungen, darunter die Unterstützung für das Nvidia Merlin-Recommender-System-Framework, AlphaFold-Batch-Inferenz sowie TabNet-Unterstützung.

[Verfolgen Sie die fortlaufende Berichterstattung von VentureBeat über Google Cloud Next 2022]

Anwender der neuen Technologie erläuterten ihre Anwendungsfälle und Erfahrungen während der Sitzung.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

"Der Zugriff auf eine solide KI-Infrastruktur wird zu einem Wettbewerbsvorteil, um das Beste aus KI herauszuholen", sagte Chrestkha.

Uber verwendet TabNet, um die Essenslieferung zu verbessern

TabNet ist ein umfassender Lernansatz für tabellarische Daten, der Transformationstechniken verwendet, um die Geschwindigkeit und Relevanz zu verbessern.

Chrestkha erklärte, dass TabNet jetzt auf der KI-Plattform von Google Vertex verfügbar ist, was es Benutzern erleichtert, erklärbare Modelle in großem Maßstab zu erstellen. Er wies darauf hin, dass Googles Implementierung von TabNet automatisch geeignete Feature-Transformationen basierend auf Eingabedaten, Datengröße und Vorhersagetyp auswählt, um die besten Ergebnisse zu erzielen.

TabNet ist kein theoretischer Ansatz zur Verbesserung von KI-Vorhersagen, sondern ein Ansatz, der bereits positive Ergebnisse in realen Anwendungsfällen liefert. Zu den ersten Nutzern von TabNet gehörte Uber.

Kai Wang, Senior Product Manager bei Uber, erklärte, dass eine von seinem Unternehmen geschaffene Plattform namens Michelangelo nun 100 % der ML-Anwendungsfälle von Uber abwickelt. Diese Anwendungsfälle umfassen die voraussichtliche Ankunftszeit der Fahrt (ETA), die geschätzte UberEats-Lieferzeit (ETD) sowie die Zuordnung von Fahrgästen und Fahrern.

Die Grundidee hinter Michelangelo ist es, Uber ML-Entwicklern eine Infrastruktur bereitzustellen, auf der Modelle bereitgestellt werden können. Wang sagte, Uber evaluiere und integriere ständig Komponenten von Drittanbietern und investiere selektiv in wichtige Plattformbereiche, um sie intern zu bauen. Eines der grundlegenden Tools von Drittanbietern, auf das sich Uber verlässt, ist Vertex AI, um das ML-Training zu unterstützen.

Wang merkte an, dass Uber TabNet mit tatsächlichen Uber-Anwendungsfällen evaluiert hat. Ein beispielhafter Anwendungsfall ist das Vorbereitungszeitmodell von UberEat, das verwendet wird, um abzuschätzen, wie lange ein Restaurant braucht, um Essen nach Eingang einer Bestellung zuzubereiten. Wang wies darauf hin, dass das Vorbereitungszeitmodell eines der wichtigsten Modelle ist, die heute bei UberEats verwendet werden.

"Wir haben die Ergebnisse von TabNet mit dem Referenzmodell verglichen und das TabNet-Modell zeigte eine beträchtliche Verbesserung der Modellleistung", sagte Wang.

Nur das FAX für Cohere

Wie Google die ML-Entwicklung beschleunigt

Haben Sie eine MetaBeat 2022-Sitzung verpasst? Besuchen Sie die On-Demand-Bibliothek für alle unsere vorgestellten Sitzungen hier.

Die Beschleunigung der Entwicklung von maschinellem Lernen (ML) und künstlicher Intelligenz (KI) mit optimierter Leistung und Kosten ist ein Hauptziel von Google.

Google startete seine Next 2022-Konferenz diese Woche mit einer Reihe von Ankündigungen zu den neuen KI-Funktionen seiner Plattform, einschließlich Computer Vision as a Service mit Vertex AI Vision und dem neuen Open-Source-ML OpenXLA. Während einer Sitzung auf der Next 2022-Veranstaltung sprach Mikhail Chrestkha, scheidender Produktmanager bei Google Cloud, über zusätzliche inkrementelle KI-Verbesserungen, darunter die Unterstützung für das Nvidia Merlin-Recommender-System-Framework, AlphaFold-Batch-Inferenz sowie TabNet-Unterstützung.

[Verfolgen Sie die fortlaufende Berichterstattung von VentureBeat über Google Cloud Next 2022]

Anwender der neuen Technologie erläuterten ihre Anwendungsfälle und Erfahrungen während der Sitzung.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

"Der Zugriff auf eine solide KI-Infrastruktur wird zu einem Wettbewerbsvorteil, um das Beste aus KI herauszuholen", sagte Chrestkha.

Uber verwendet TabNet, um die Essenslieferung zu verbessern

TabNet ist ein umfassender Lernansatz für tabellarische Daten, der Transformationstechniken verwendet, um die Geschwindigkeit und Relevanz zu verbessern.

Chrestkha erklärte, dass TabNet jetzt auf der KI-Plattform von Google Vertex verfügbar ist, was es Benutzern erleichtert, erklärbare Modelle in großem Maßstab zu erstellen. Er wies darauf hin, dass Googles Implementierung von TabNet automatisch geeignete Feature-Transformationen basierend auf Eingabedaten, Datengröße und Vorhersagetyp auswählt, um die besten Ergebnisse zu erzielen.

TabNet ist kein theoretischer Ansatz zur Verbesserung von KI-Vorhersagen, sondern ein Ansatz, der bereits positive Ergebnisse in realen Anwendungsfällen liefert. Zu den ersten Nutzern von TabNet gehörte Uber.

Kai Wang, Senior Product Manager bei Uber, erklärte, dass eine von seinem Unternehmen geschaffene Plattform namens Michelangelo nun 100 % der ML-Anwendungsfälle von Uber abwickelt. Diese Anwendungsfälle umfassen die voraussichtliche Ankunftszeit der Fahrt (ETA), die geschätzte UberEats-Lieferzeit (ETD) sowie die Zuordnung von Fahrgästen und Fahrern.

Die Grundidee hinter Michelangelo ist es, Uber ML-Entwicklern eine Infrastruktur bereitzustellen, auf der Modelle bereitgestellt werden können. Wang sagte, Uber evaluiere und integriere ständig Komponenten von Drittanbietern und investiere selektiv in wichtige Plattformbereiche, um sie intern zu bauen. Eines der grundlegenden Tools von Drittanbietern, auf das sich Uber verlässt, ist Vertex AI, um das ML-Training zu unterstützen.

Wang merkte an, dass Uber TabNet mit tatsächlichen Uber-Anwendungsfällen evaluiert hat. Ein beispielhafter Anwendungsfall ist das Vorbereitungszeitmodell von UberEat, das verwendet wird, um abzuschätzen, wie lange ein Restaurant braucht, um Essen nach Eingang einer Bestellung zuzubereiten. Wang wies darauf hin, dass das Vorbereitungszeitmodell eines der wichtigsten Modelle ist, die heute bei UberEats verwendet werden.

"Wir haben die Ergebnisse von TabNet mit dem Referenzmodell verglichen und das TabNet-Modell zeigte eine beträchtliche Verbesserung der Modellleistung", sagte Wang.

Nur das FAX für Cohere

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow