3 Gründe, warum die zentralisierte Cloud Ihr datengesteuertes Unternehmen scheitert

Schließen Sie sich vom 26. bis 28. Juli der Transform AI und der Edge Week an. Hören Sie hochrangige Führungskräfte, die Themen rund um AL/ML-Technologie, Konversations-KI, IVA, NLP, Edge und mehr diskutieren. Buchen Sie jetzt Ihren kostenlosen Pass!

Ich habe kürzlich den Satz gehört: "Eine Sekunde ist für einen Menschen in Ordnung; für eine Maschine ist es eine Ewigkeit." Dies brachte mich dazu, über die grundlegende Bedeutung der Datengeschwindigkeit nachzudenken. Nicht nur aus philosophischer, sondern aus praktischer Sicht. Benutzern ist es egal, wie weit die Daten transportiert werden müssen, sondern dass sie schnell ankommen. Bei der Ereignisverarbeitung ist die Geschwindigkeit, mit der Daten erfasst, verarbeitet und analysiert werden, kaum wahrnehmbar. Die Datengeschwindigkeit wirkt sich auch auf die Datenqualität aus.

Daten kommen von überall her. Wir leben bereits in einer neuen Ära der Datendezentralisierung, angetrieben von Geräten und Technologien der nächsten Generation, 5G, Computer Vision, IoT, KI/ML, ganz zu schweigen von den aktuellen geopolitischen Trends rund um den Datenschutz. Die Menge der generierten Daten ist riesig, 90 % davon sind Rauschen, aber all diese Daten müssen noch analysiert werden. Daten sind wichtig, sie sind geografisch verteilt und wir müssen sie verstehen.

Damit Unternehmen wertvolle Einblicke in ihre Daten gewinnen können, müssen sie sich vom Cloud-nativen Ansatz verabschieden und den neuen Edge-nativen Ansatz annehmen. Ich werde auch die Einschränkungen der zentralisierten Cloud und drei Gründe erörtern, warum sie für datengesteuerte Unternehmen scheitert.

Die Nachteile der zentralisierten Cloud

Im Geschäftskontext müssen Daten drei Kriterien erfüllen: schnell, verwertbar und verfügbar. Für immer mehr global agierende Unternehmen kann die zentralisierte Cloud diese Anforderungen nicht kostengünstig erfüllen, womit wir beim ersten Grund wären.

Vorfall

Transformation 2022

Melden Sie sich jetzt an, um Ihren kostenlosen virtuellen Pass für die Transform AI Week vom 26. bis 28. Juli zu erhalten. Hören Sie von den KI- und Datenführern von Visa, Lowe's eBay, Credit Karma, Kaiser, Honeywell, Google, Nissan, Toyota, John Deere und mehr.

hier registrieren Es ist wirklich teuer

Die Cloud wurde entwickelt, um alle Daten an einem Ort zu sammeln, damit wir etwas Nützliches damit machen können. Aber das Verschieben von Daten kostet Zeit, Energie und Geld – Zeit ist Latenz, Energie ist Bandbreite und Kosten sind Speicher, Verbrauch usw. Die Welt generiert jeden Tag fast 2,5 Quintillionen Bytes an Daten. Je nachdem, wen Sie fragen, könnte es weltweit über 75 Milliarden IoT-Geräte geben, die alle riesige Datenmengen erzeugen und eine Echtzeitanalyse erfordern. Abgesehen von den größten Unternehmen wird der Rest der Welt größtenteils außerhalb der zentralisierten Cloud sein.

Es kann sich nicht entwickeln

In den letzten zwei Jahrzehnten hat sich die Welt durch den Bau riesiger Rechenzentren an die neue datengesteuerte Welt angepasst. Und innerhalb dieser Wolken ist die Datenbank im Wesentlichen „übertaktet“, um global über immense Entfernungen zu funktionieren. Die Hoffnung ist, dass die aktuelle Iteration verteilter Datenbanken und verbundener Rechenzentren die Gesetze von Raum und Zeit überwinden und zu geoverteilten Multi-Master-Datenbanken werden wird.

Die Billionen-Dollar-Frage lautet: Wie koordinieren und synchronisieren Sie Daten über mehrere Regionen oder Knoten hinweg und synchronisieren unter Beibehaltung der Konsistenz? Ohne Konsistenzgarantien sehen Apps, Geräte und Benutzer unterschiedliche Versionen der Daten. Dies wiederum führt zu unzuverlässigen Daten, Datenbeschädigung und Datenverlust. Das Maß an Koordination, das in dieser zentralisierten Architektur erforderlich ist, macht die Skalierung zu einer Herkulesaufgabe. Und nur dann können Unternehmen Analysen und Erkenntnisse aus diesen Daten überhaupt in Betracht ziehen, vorausgesetzt, sie sind zu dem Zeitpunkt, zu dem sie fertig sind, nicht bereits veraltet, was uns zum nächsten Punkt bringt.

Es ist langsam

Manchmal unerträglich langsam.

Für Unternehmen, die für Geschäftsentscheidungen nicht auf Echtzeitinformationen angewiesen sind, und solange sich die Ressourcen im selben Rechenzentrum und in derselben Region befinden, skaliert alles wie erwartet. Wenn Sie keine Echtzeit- oder Geodaten benötigen ...

3 Gründe, warum die zentralisierte Cloud Ihr datengesteuertes Unternehmen scheitert

Schließen Sie sich vom 26. bis 28. Juli der Transform AI und der Edge Week an. Hören Sie hochrangige Führungskräfte, die Themen rund um AL/ML-Technologie, Konversations-KI, IVA, NLP, Edge und mehr diskutieren. Buchen Sie jetzt Ihren kostenlosen Pass!

Ich habe kürzlich den Satz gehört: "Eine Sekunde ist für einen Menschen in Ordnung; für eine Maschine ist es eine Ewigkeit." Dies brachte mich dazu, über die grundlegende Bedeutung der Datengeschwindigkeit nachzudenken. Nicht nur aus philosophischer, sondern aus praktischer Sicht. Benutzern ist es egal, wie weit die Daten transportiert werden müssen, sondern dass sie schnell ankommen. Bei der Ereignisverarbeitung ist die Geschwindigkeit, mit der Daten erfasst, verarbeitet und analysiert werden, kaum wahrnehmbar. Die Datengeschwindigkeit wirkt sich auch auf die Datenqualität aus.

Daten kommen von überall her. Wir leben bereits in einer neuen Ära der Datendezentralisierung, angetrieben von Geräten und Technologien der nächsten Generation, 5G, Computer Vision, IoT, KI/ML, ganz zu schweigen von den aktuellen geopolitischen Trends rund um den Datenschutz. Die Menge der generierten Daten ist riesig, 90 % davon sind Rauschen, aber all diese Daten müssen noch analysiert werden. Daten sind wichtig, sie sind geografisch verteilt und wir müssen sie verstehen.

Damit Unternehmen wertvolle Einblicke in ihre Daten gewinnen können, müssen sie sich vom Cloud-nativen Ansatz verabschieden und den neuen Edge-nativen Ansatz annehmen. Ich werde auch die Einschränkungen der zentralisierten Cloud und drei Gründe erörtern, warum sie für datengesteuerte Unternehmen scheitert.

Die Nachteile der zentralisierten Cloud

Im Geschäftskontext müssen Daten drei Kriterien erfüllen: schnell, verwertbar und verfügbar. Für immer mehr global agierende Unternehmen kann die zentralisierte Cloud diese Anforderungen nicht kostengünstig erfüllen, womit wir beim ersten Grund wären.

Vorfall

Transformation 2022

Melden Sie sich jetzt an, um Ihren kostenlosen virtuellen Pass für die Transform AI Week vom 26. bis 28. Juli zu erhalten. Hören Sie von den KI- und Datenführern von Visa, Lowe's eBay, Credit Karma, Kaiser, Honeywell, Google, Nissan, Toyota, John Deere und mehr.

hier registrieren Es ist wirklich teuer

Die Cloud wurde entwickelt, um alle Daten an einem Ort zu sammeln, damit wir etwas Nützliches damit machen können. Aber das Verschieben von Daten kostet Zeit, Energie und Geld – Zeit ist Latenz, Energie ist Bandbreite und Kosten sind Speicher, Verbrauch usw. Die Welt generiert jeden Tag fast 2,5 Quintillionen Bytes an Daten. Je nachdem, wen Sie fragen, könnte es weltweit über 75 Milliarden IoT-Geräte geben, die alle riesige Datenmengen erzeugen und eine Echtzeitanalyse erfordern. Abgesehen von den größten Unternehmen wird der Rest der Welt größtenteils außerhalb der zentralisierten Cloud sein.

Es kann sich nicht entwickeln

In den letzten zwei Jahrzehnten hat sich die Welt durch den Bau riesiger Rechenzentren an die neue datengesteuerte Welt angepasst. Und innerhalb dieser Wolken ist die Datenbank im Wesentlichen „übertaktet“, um global über immense Entfernungen zu funktionieren. Die Hoffnung ist, dass die aktuelle Iteration verteilter Datenbanken und verbundener Rechenzentren die Gesetze von Raum und Zeit überwinden und zu geoverteilten Multi-Master-Datenbanken werden wird.

Die Billionen-Dollar-Frage lautet: Wie koordinieren und synchronisieren Sie Daten über mehrere Regionen oder Knoten hinweg und synchronisieren unter Beibehaltung der Konsistenz? Ohne Konsistenzgarantien sehen Apps, Geräte und Benutzer unterschiedliche Versionen der Daten. Dies wiederum führt zu unzuverlässigen Daten, Datenbeschädigung und Datenverlust. Das Maß an Koordination, das in dieser zentralisierten Architektur erforderlich ist, macht die Skalierung zu einer Herkulesaufgabe. Und nur dann können Unternehmen Analysen und Erkenntnisse aus diesen Daten überhaupt in Betracht ziehen, vorausgesetzt, sie sind zu dem Zeitpunkt, zu dem sie fertig sind, nicht bereits veraltet, was uns zum nächsten Punkt bringt.

Es ist langsam

Manchmal unerträglich langsam.

Für Unternehmen, die für Geschäftsentscheidungen nicht auf Echtzeitinformationen angewiesen sind, und solange sich die Ressourcen im selben Rechenzentrum und in derselben Region befinden, skaliert alles wie erwartet. Wenn Sie keine Echtzeit- oder Geodaten benötigen ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow