Big-Tech-Cloud-KI-Kriege eskalieren | Der Rhythmus der KI

Haben Sie eine MetaBeat 2022-Sitzung verpasst? Besuchen Sie die On-Demand-Bibliothek für alle unsere vorgestellten Sitzungen hier.

Willkommen bei AI Beat – meiner neuen Kolumne, die einige der KI-Neuigkeiten der Woche untersucht und versucht, sie in einen Kontext zu setzen.

Als ich den Gartner-Analysten Sid Nag fragte, warum die KI-bezogenen Cloud-News, die diese Woche auf Google Cloud Next und Microsoft Ignite veröffentlicht wurden, wie ein „Tsunami“ von Produktankündigungen klangen, lachte er.

Während keiner von uns die Kamera für das Interview eingeschaltet hatte, konnte ich fühlen, wie Nag, der sich auf Cloud-Dienste und -Technologien konzentriert, weise nickte. „Ich glaube, ich weiß warum“, sagte er.

Ich brauchte definitiv einen Expertenrat. Immerhin bin ich jetzt seit sechs Monaten auf dem KI-Beat bei VentureBeat, aber ich habe mich noch nicht vollständig an die saisonalen PR-Routinen von Big Tech angepasst – tatsächlich war das Sperrfeuer dieser Woche eines, das mich immer an diesen Comic erinnert aus Die Haferflocken.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Während der Google Cloud Next gab es Ankündigungen, die von seinem neuen Vertex AI Vision-Dienst, einer Computer-Vision-as-a-Service-Funktion, bis hin zu einem neuen AI Agents-Dienst und dem OpenXLA-Open-Source-Projekt reichten. Weitere KI-Verbesserungen wurden auf der Next angekündigt, darunter die Unterstützung für das Nvidia Merlin Recommender System Framework, AlphaFold-Batch-Inferenz und TabNet-Unterstützung.

Als Nächstes folgen viele Neuigkeiten zu Azure AI von Microsoft Ignite rund um die Produktivität, darunter vorgefertigte AI-Modelle, die in Form Recognizer verfügbar sind, erweiterte Synthese und Sprachunterstützung in Azure Cognitive Services, neue Text-to-Speech- und Text-to-Speech-Funktionen Merkmale. -speech und das Debüt von DALL-E 2 als Teil des nur auf Einladung zugänglichen OpenAI-Dienstes von Azure.

Mit KI die Cloud zu einer intelligenten Plattform machen

Big-Tech-Cloud-Anbieter, erklärte Nag – Google, Microsoft und AWS sind die ersten drei, IBM und Oracle runden die ersten fünf ab – sind der Ära standardisierter Infrastrukturfunktionen wie Rechenspeicher und Netzwerk mit einem neuen entwachsen Ziel, die gesamte Infrastruktur intelligenter und berechenbarer zu machen. Der neue Trend, sagte er, sei die Anwendung von KI auf diese Infrastrukturanforderungen.

"Ich denke, dass die Verwendung von KI durch Fußgänger allgegenwärtig geworden ist, was ich in den letzten drei oder vier Jahren mit Hyperscalern befürwortet habe", sagte er.

Big Tech, erklärte er, möchte KI von oben nach unten im Cloud-Stack effektiv nutzen, um die Cloud zu einer intelligenten Plattform zu machen, und eine Ebene anwenden, die Cloud Computing demokratisiert .

Viele Zutaten, aber kein klares Rezept

Das Problem bei so vielen Cloud-Ankündigungen über KI-bezogene Fähigkeiten ist jedoch, dass Big Tech nicht richtig darüber kommuniziert, wie diese Fähigkeiten intelligent kombiniert werden können, betonte Nag.

"Wenn ich Hähnchen-Parmesan zubereiten möchte", erklärte er, "welche Zutaten benötige ich und welchen Anteil dieser Zutaten? Welches Rezept sollte ich verwenden? Es gibt viele Dinge, die von Cloud-Anbietern beworben werden, aber sie sollten es wirklich tun Machen Sie sich ein Bild davon, wie Sie diese Dinge intelligent einsetzen können, um Ergebnisse zu erzielen.

Angst, in einer Multicloud-Ära ins Hintertreffen zu geraten

Die...

Big-Tech-Cloud-KI-Kriege eskalieren | Der Rhythmus der KI

Haben Sie eine MetaBeat 2022-Sitzung verpasst? Besuchen Sie die On-Demand-Bibliothek für alle unsere vorgestellten Sitzungen hier.

Willkommen bei AI Beat – meiner neuen Kolumne, die einige der KI-Neuigkeiten der Woche untersucht und versucht, sie in einen Kontext zu setzen.

Als ich den Gartner-Analysten Sid Nag fragte, warum die KI-bezogenen Cloud-News, die diese Woche auf Google Cloud Next und Microsoft Ignite veröffentlicht wurden, wie ein „Tsunami“ von Produktankündigungen klangen, lachte er.

Während keiner von uns die Kamera für das Interview eingeschaltet hatte, konnte ich fühlen, wie Nag, der sich auf Cloud-Dienste und -Technologien konzentriert, weise nickte. „Ich glaube, ich weiß warum“, sagte er.

Ich brauchte definitiv einen Expertenrat. Immerhin bin ich jetzt seit sechs Monaten auf dem KI-Beat bei VentureBeat, aber ich habe mich noch nicht vollständig an die saisonalen PR-Routinen von Big Tech angepasst – tatsächlich war das Sperrfeuer dieser Woche eines, das mich immer an diesen Comic erinnert aus Die Haferflocken.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Während der Google Cloud Next gab es Ankündigungen, die von seinem neuen Vertex AI Vision-Dienst, einer Computer-Vision-as-a-Service-Funktion, bis hin zu einem neuen AI Agents-Dienst und dem OpenXLA-Open-Source-Projekt reichten. Weitere KI-Verbesserungen wurden auf der Next angekündigt, darunter die Unterstützung für das Nvidia Merlin Recommender System Framework, AlphaFold-Batch-Inferenz und TabNet-Unterstützung.

Als Nächstes folgen viele Neuigkeiten zu Azure AI von Microsoft Ignite rund um die Produktivität, darunter vorgefertigte AI-Modelle, die in Form Recognizer verfügbar sind, erweiterte Synthese und Sprachunterstützung in Azure Cognitive Services, neue Text-to-Speech- und Text-to-Speech-Funktionen Merkmale. -speech und das Debüt von DALL-E 2 als Teil des nur auf Einladung zugänglichen OpenAI-Dienstes von Azure.

Mit KI die Cloud zu einer intelligenten Plattform machen

Big-Tech-Cloud-Anbieter, erklärte Nag – Google, Microsoft und AWS sind die ersten drei, IBM und Oracle runden die ersten fünf ab – sind der Ära standardisierter Infrastrukturfunktionen wie Rechenspeicher und Netzwerk mit einem neuen entwachsen Ziel, die gesamte Infrastruktur intelligenter und berechenbarer zu machen. Der neue Trend, sagte er, sei die Anwendung von KI auf diese Infrastrukturanforderungen.

"Ich denke, dass die Verwendung von KI durch Fußgänger allgegenwärtig geworden ist, was ich in den letzten drei oder vier Jahren mit Hyperscalern befürwortet habe", sagte er.

Big Tech, erklärte er, möchte KI von oben nach unten im Cloud-Stack effektiv nutzen, um die Cloud zu einer intelligenten Plattform zu machen, und eine Ebene anwenden, die Cloud Computing demokratisiert .

Viele Zutaten, aber kein klares Rezept

Das Problem bei so vielen Cloud-Ankündigungen über KI-bezogene Fähigkeiten ist jedoch, dass Big Tech nicht richtig darüber kommuniziert, wie diese Fähigkeiten intelligent kombiniert werden können, betonte Nag.

"Wenn ich Hähnchen-Parmesan zubereiten möchte", erklärte er, "welche Zutaten benötige ich und welchen Anteil dieser Zutaten? Welches Rezept sollte ich verwenden? Es gibt viele Dinge, die von Cloud-Anbietern beworben werden, aber sie sollten es wirklich tun Machen Sie sich ein Bild davon, wie Sie diese Dinge intelligent einsetzen können, um Ergebnisse zu erzielen.

Angst, in einer Multicloud-Ära ins Hintertreffen zu geraten

Die...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow