Was KI und Kraftwerke gemeinsam haben

Wir freuen uns, Transform 2022 persönlich am 19. Juli und virtuell vom 20. bis 28. Juli zu präsentieren. Schließen Sie sich führenden KI- und Datenexperten an, um eingehende Diskussionen und spannende Networking-Möglichkeiten zu erhalten. Melden Sie sich noch heute an!

Die Geschichte der Entwicklung der künstlichen Intelligenz (KI) in den letzten fünf Jahren wurde von Größenordnungen dominiert. Bei der Verarbeitung natürlicher Sprache (NLP), dem Bildverständnis, der Spracherkennung und mehr wurden enorme Fortschritte erzielt, indem Mitte der 2010er Jahre entwickelte Strategien übernommen und mehr Rechenleistung und mehr Daten eingesetzt wurden. Dies hat zu einigen interessanten Machtdynamiken bei der Nutzung und Verbreitung von KI-Systemen geführt; die, die KI wie das Stromnetz aussehen lässt.

Für NLP ist größer besser

Der aktuelle Stand der NLP-Technik basiert auf neuronalen Netzwerken mit Milliarden von Parametern, die auf Terabytes an Text trainiert wurden. Um diese Netzwerke einfach im Speicher zu halten, sind mehrere hochmoderne GPUs erforderlich, und das Trainieren dieser Netzwerke erfordert Cluster von Supercomputern, die weit über die Reichweite aller außer den größten Unternehmen hinausgehen.

Man könnte mit denselben Techniken ein viel kleineres neuronales Netzwerk mit viel weniger Text trainieren, aber die Leistung wäre viel schlechter. So viel schlimmer sogar, dass es zu einem Unterschied in der Art statt zu einem bloßen Unterschied im Grad wird; Es gibt Aufgaben wie Textklassifikation, -synthese und Entitätsextraktion, bei denen sich große Sprachmodelle auszeichnen und kleine Sprachmodelle nicht besser als der Zufall sind.

Als jemand, der seit etwa einem Jahrzehnt mit neuronalen Netzen arbeitet, bin ich von dieser Entwicklung wirklich überrascht. Es ist technisch nicht offensichtlich, dass eine Erhöhung der Anzahl von Parametern in einem neuronalen Netzwerk zu einer solch drastischen Verbesserung der Fähigkeiten führen würde. Hier sind wir jedoch im Jahr 2022 und trainieren neuronale Netze, die fast identisch mit Architekturen sind, die erstmals 2017 veröffentlicht wurden, aber mit Größenordnungen mehr Rechenleistung und besseren Ergebnissen erzielen.

Vorfall

Transformation 2022

Nehmen Sie am 19. Juli und virtuell vom 20. bis 28. Juli an der führenden Veranstaltung für angewandte KI für Entscheidungsträger in Unternehmen und Technologie teil.

hier registrieren

Dies weist auf eine neue und interessante Dynamik in diesem Bereich hin. Modernste Modelle sind für fast jedes Unternehmen – geschweige denn für eine Einzelperson – zu rechenintensiv, um sie zu erstellen oder sogar einzusetzen. Damit ein Unternehmen solche Modelle verwenden kann, muss es eines verwenden, das von jemand anderem erstellt und gehostet wird – so wie heute Strom erzeugt und verteilt wird.

Teilen Sie KI, als wäre es ein gemessenes Dienstprogramm

Jedes Bürogebäude benötigt Strom, aber kein Bürogebäude kann die Infrastruktur zur eigenen Stromerzeugung beherbergen. Stattdessen sind sie an ein zentrales Stromnetz angeschlossen und zahlen für den verbrauchten Strom.

In ähnlicher Weise kann eine Vielzahl von Unternehmen von der Integration von NLP in ihren Betrieb profitieren, auch wenn nur wenige über die Ressourcen verfügen, um ihre eigenen KI-Modelle zu erstellen. Genau aus diesem Grund haben Unternehmen großartige KI-Modelle erstellt und sie über eine benutzerfreundliche API verfügbar gemacht. Indem Unternehmen die Möglichkeit erhalten, sich an das sprichwörtliche NLP-Stromnetz anzuschließen, amortisieren sich die Kosten für die Schulung dieser hochmodernen Modelle in großem Maßstab für verschiedene Kunden, wodurch ...

Was KI und Kraftwerke gemeinsam haben

Wir freuen uns, Transform 2022 persönlich am 19. Juli und virtuell vom 20. bis 28. Juli zu präsentieren. Schließen Sie sich führenden KI- und Datenexperten an, um eingehende Diskussionen und spannende Networking-Möglichkeiten zu erhalten. Melden Sie sich noch heute an!

Die Geschichte der Entwicklung der künstlichen Intelligenz (KI) in den letzten fünf Jahren wurde von Größenordnungen dominiert. Bei der Verarbeitung natürlicher Sprache (NLP), dem Bildverständnis, der Spracherkennung und mehr wurden enorme Fortschritte erzielt, indem Mitte der 2010er Jahre entwickelte Strategien übernommen und mehr Rechenleistung und mehr Daten eingesetzt wurden. Dies hat zu einigen interessanten Machtdynamiken bei der Nutzung und Verbreitung von KI-Systemen geführt; die, die KI wie das Stromnetz aussehen lässt.

Für NLP ist größer besser

Der aktuelle Stand der NLP-Technik basiert auf neuronalen Netzwerken mit Milliarden von Parametern, die auf Terabytes an Text trainiert wurden. Um diese Netzwerke einfach im Speicher zu halten, sind mehrere hochmoderne GPUs erforderlich, und das Trainieren dieser Netzwerke erfordert Cluster von Supercomputern, die weit über die Reichweite aller außer den größten Unternehmen hinausgehen.

Man könnte mit denselben Techniken ein viel kleineres neuronales Netzwerk mit viel weniger Text trainieren, aber die Leistung wäre viel schlechter. So viel schlimmer sogar, dass es zu einem Unterschied in der Art statt zu einem bloßen Unterschied im Grad wird; Es gibt Aufgaben wie Textklassifikation, -synthese und Entitätsextraktion, bei denen sich große Sprachmodelle auszeichnen und kleine Sprachmodelle nicht besser als der Zufall sind.

Als jemand, der seit etwa einem Jahrzehnt mit neuronalen Netzen arbeitet, bin ich von dieser Entwicklung wirklich überrascht. Es ist technisch nicht offensichtlich, dass eine Erhöhung der Anzahl von Parametern in einem neuronalen Netzwerk zu einer solch drastischen Verbesserung der Fähigkeiten führen würde. Hier sind wir jedoch im Jahr 2022 und trainieren neuronale Netze, die fast identisch mit Architekturen sind, die erstmals 2017 veröffentlicht wurden, aber mit Größenordnungen mehr Rechenleistung und besseren Ergebnissen erzielen.

Vorfall

Transformation 2022

Nehmen Sie am 19. Juli und virtuell vom 20. bis 28. Juli an der führenden Veranstaltung für angewandte KI für Entscheidungsträger in Unternehmen und Technologie teil.

hier registrieren

Dies weist auf eine neue und interessante Dynamik in diesem Bereich hin. Modernste Modelle sind für fast jedes Unternehmen – geschweige denn für eine Einzelperson – zu rechenintensiv, um sie zu erstellen oder sogar einzusetzen. Damit ein Unternehmen solche Modelle verwenden kann, muss es eines verwenden, das von jemand anderem erstellt und gehostet wird – so wie heute Strom erzeugt und verteilt wird.

Teilen Sie KI, als wäre es ein gemessenes Dienstprogramm

Jedes Bürogebäude benötigt Strom, aber kein Bürogebäude kann die Infrastruktur zur eigenen Stromerzeugung beherbergen. Stattdessen sind sie an ein zentrales Stromnetz angeschlossen und zahlen für den verbrauchten Strom.

In ähnlicher Weise kann eine Vielzahl von Unternehmen von der Integration von NLP in ihren Betrieb profitieren, auch wenn nur wenige über die Ressourcen verfügen, um ihre eigenen KI-Modelle zu erstellen. Genau aus diesem Grund haben Unternehmen großartige KI-Modelle erstellt und sie über eine benutzerfreundliche API verfügbar gemacht. Indem Unternehmen die Möglichkeit erhalten, sich an das sprichwörtliche NLP-Stromnetz anzuschließen, amortisieren sich die Kosten für die Schulung dieser hochmodernen Modelle in großem Maßstab für verschiedene Kunden, wodurch ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow