Holen Sie sich zuverlässige generative KI

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Der Begriff „generative KI“ ist in letzter Zeit in aller Munde. Generative KI gibt es in vielen Varianten, aber alle haben die Idee gemeinsam, dass der Computer automatisch viele intelligente und nützliche Inhalte generieren kann, basierend auf relativ wenig Eingaben des Benutzers.

Ein Großteil der jüngsten Aufregung wurde durch visuelle generative KI-Systeme wie DALL·E 2 und Stable Diffusion angeheizt, bei denen die Maschine neue Bilder basierend auf kurzen Textbeschreibungen generiert. Willst du ein Bild von "Esel auf dem Mond, der Tolstoi liest"? Dort ! In wenigen Sekunden erhalten Sie ein beispielloses Bild dieses gelehrten und reisenden Esels.

Diese Systeme bieten endlosen Spaß und sind atemberaubend. Es ist schwer, das Gefühl abzuschütteln, dass sie klug sein müssen, um Ihre Absicht zu verstehen, und kreativ genug, um darauf basierend ein ästhetisch ansprechendes neues Bild zu erstellen. Außerdem gibt es einen überzeugenden Wertaustausch: Sie geben ein paar Wörter ein und erhalten im Gegenzug ein Bild im Wert von Tausend. Endlich eine intelligente, kreative und nützliche KI!

Aber das ist irreführend, da es die Vorstellung verstärkt, dass der Computer die ganze Arbeit erledigt. Wenn Sie tatsächlich nur ein ästhetisches Bild eines gelehrten Esels wollen, werden Sie mit dem Ergebnis wahrscheinlich zufrieden sein; Es gibt viele solcher Bilder oder Teile davon, und die Systeme sind gut genug, um eines zu produzieren. Aber wenn Sie ein Künstler sind, haben Sie eine nuanciertere Absicht und würden das generative System bestenfalls als interaktives Werkzeug verwenden, um Bilder basierend auf vielen Eingabeaufforderungen zu erzeugen, die Sie erleben – und Sie werden sich wahrscheinlich auch selbst massieren – sogar die Bild danach.

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

Dies ist im Fall der textuellen generativen KI noch auffälliger, d. h. bei Systemen, bei denen Eingabe und Ausgabe Text sind. Auch hier deutet das Versprechen von Modellen wie GPT-3 auf eine Zukunft von Ideen-zu-Text hin, in der der Benutzer einige Schlüsselideen aufschreibt und das System übernimmt und den größten Teil des Schreibens übernimmt. Und in der Tat, die aktuellen Systeme können sich sehen lassen. Sie schreiben Gedichte, Blogbeiträge, E-Mails, Marketingtexte – die Liste geht weiter. Die Systeme können manchmal sogar lange Texte produzieren, die überraschend konsistent und zielgerichtet sind und viele korrekte und relevante Fakten enthalten, die nicht in den Anweisungen erwähnt werden.

Außer wenn es nicht so ist. Und oft werden sie es nicht. In der Praxis generiert textbasierte generative KI, wenn sie ohne angemessene Kontrollen eingesetzt wird, ebenso viele unsinnige Inhalte wie nützliche Inhalte. Das bemerkenswerteste aktuelle Beispiel dafür ist Metas Galactica, die behauptete, aufschlussreiche wissenschaftliche Inhalte generieren zu können, aber nach zwei Tagen abgeschaltet wurde, als sich herausstellte, dass sie ebenso viel Pseudowissenschaft wie glaubwürdige wissenschaftliche Inhalte produzierte.

Eine schwache Qualität

Die Anfälligkeit textbasierter generativer KI wurde schon früh erkannt. Als GPT-2 im Jahr 2019 eingeführt wurde, schrieb der Kolumnist Tiernan Ray: „[GPT-2 zeigt] brillante Blitze gemischt mit […] Kauderwelsch. Und als ein Jahr später GPT-3 veröffentlicht wurde, schrieb mein Kollege Andrew Ng: „Manchmal schreibt GPT-3 wie ein passabler Essayist, [aber] es ist sehr wie eine Persönlichkeit des öffentlichen Lebens, die selbstbewusst über Themen spricht, von denen sie wenig wissen.“

Sicherlich sind sich diejenigen von uns, die in der Region arbeiten, dieser Fragilität bewusst. In Wirklichkeit sind textuelle generative Systeme ein ...

Holen Sie sich zuverlässige generative KI

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Der Begriff „generative KI“ ist in letzter Zeit in aller Munde. Generative KI gibt es in vielen Varianten, aber alle haben die Idee gemeinsam, dass der Computer automatisch viele intelligente und nützliche Inhalte generieren kann, basierend auf relativ wenig Eingaben des Benutzers.

Ein Großteil der jüngsten Aufregung wurde durch visuelle generative KI-Systeme wie DALL·E 2 und Stable Diffusion angeheizt, bei denen die Maschine neue Bilder basierend auf kurzen Textbeschreibungen generiert. Willst du ein Bild von "Esel auf dem Mond, der Tolstoi liest"? Dort ! In wenigen Sekunden erhalten Sie ein beispielloses Bild dieses gelehrten und reisenden Esels.

Diese Systeme bieten endlosen Spaß und sind atemberaubend. Es ist schwer, das Gefühl abzuschütteln, dass sie klug sein müssen, um Ihre Absicht zu verstehen, und kreativ genug, um darauf basierend ein ästhetisch ansprechendes neues Bild zu erstellen. Außerdem gibt es einen überzeugenden Wertaustausch: Sie geben ein paar Wörter ein und erhalten im Gegenzug ein Bild im Wert von Tausend. Endlich eine intelligente, kreative und nützliche KI!

Aber das ist irreführend, da es die Vorstellung verstärkt, dass der Computer die ganze Arbeit erledigt. Wenn Sie tatsächlich nur ein ästhetisches Bild eines gelehrten Esels wollen, werden Sie mit dem Ergebnis wahrscheinlich zufrieden sein; Es gibt viele solcher Bilder oder Teile davon, und die Systeme sind gut genug, um eines zu produzieren. Aber wenn Sie ein Künstler sind, haben Sie eine nuanciertere Absicht und würden das generative System bestenfalls als interaktives Werkzeug verwenden, um Bilder basierend auf vielen Eingabeaufforderungen zu erzeugen, die Sie erleben – und Sie werden sich wahrscheinlich auch selbst massieren – sogar die Bild danach.

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

Dies ist im Fall der textuellen generativen KI noch auffälliger, d. h. bei Systemen, bei denen Eingabe und Ausgabe Text sind. Auch hier deutet das Versprechen von Modellen wie GPT-3 auf eine Zukunft von Ideen-zu-Text hin, in der der Benutzer einige Schlüsselideen aufschreibt und das System übernimmt und den größten Teil des Schreibens übernimmt. Und in der Tat, die aktuellen Systeme können sich sehen lassen. Sie schreiben Gedichte, Blogbeiträge, E-Mails, Marketingtexte – die Liste geht weiter. Die Systeme können manchmal sogar lange Texte produzieren, die überraschend konsistent und zielgerichtet sind und viele korrekte und relevante Fakten enthalten, die nicht in den Anweisungen erwähnt werden.

Außer wenn es nicht so ist. Und oft werden sie es nicht. In der Praxis generiert textbasierte generative KI, wenn sie ohne angemessene Kontrollen eingesetzt wird, ebenso viele unsinnige Inhalte wie nützliche Inhalte. Das bemerkenswerteste aktuelle Beispiel dafür ist Metas Galactica, die behauptete, aufschlussreiche wissenschaftliche Inhalte generieren zu können, aber nach zwei Tagen abgeschaltet wurde, als sich herausstellte, dass sie ebenso viel Pseudowissenschaft wie glaubwürdige wissenschaftliche Inhalte produzierte.

Eine schwache Qualität

Die Anfälligkeit textbasierter generativer KI wurde schon früh erkannt. Als GPT-2 im Jahr 2019 eingeführt wurde, schrieb der Kolumnist Tiernan Ray: „[GPT-2 zeigt] brillante Blitze gemischt mit […] Kauderwelsch. Und als ein Jahr später GPT-3 veröffentlicht wurde, schrieb mein Kollege Andrew Ng: „Manchmal schreibt GPT-3 wie ein passabler Essayist, [aber] es ist sehr wie eine Persönlichkeit des öffentlichen Lebens, die selbstbewusst über Themen spricht, von denen sie wenig wissen.“

Sicherlich sind sich diejenigen von uns, die in der Region arbeiten, dieser Fragilität bewusst. In Wirklichkeit sind textuelle generative Systeme ein ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow