Die versteckte Gefahr von ChatGPT und generativer KI | Der Rhythmus der KI

Schauen Sie sich die On-Demand-Sessions vom Low-Code/No-Code Summit an, um zu erfahren, wie Sie erfolgreich innovativ sein und die Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Jetzt ansehen em>.

Seit OpenAI letzten Mittwoch seine erste Demo von ChatGPT gestartet hat, hat das Tool laut CEO Sam Altman bereits mehr als eine Million Benutzer – ein Meilenstein, betont er, der fast 24 Monate gedauert hat, um GPT-3 und DALL zu erreichen -E über 2 Monate.

Das „interaktive und dialogorientierte Modell“, das auf dem Textgenerator GPT-3.5 des Unternehmens basiert, versetzt die Tech-Welt sicherlich in Ohnmacht. Aaron Levie, CEO von Box, twitterte: „ChatGPT ist eine dieser seltenen Zeiten in der Technik, in der man einen Schimmer davon sieht, wie in Zukunft alles anders sein wird.“ Paul Graham, Mitbegründer von Y Combinator, twitterte, dass „eindeutig etwas Großes passiert“. Alberto Romero, Autor von The Algorithmic Bridge, nennt ihn den „mit Abstand besten Chatbot der Welt“. Und sogar Elon Musk mischte sich ein und twitterte, dass ChatGPT „beängstigend gut“ sei. Wir sind nicht weit von einer gefährlich mächtigen KI entfernt.

Aber in ChatGPT lauert ein verstecktes Problem: Das heißt, es spuckt schnell eloquente und selbstbewusste Antworten aus, die oft plausibel und wahr klingen, obwohl sie es nicht sind.

Wie andere großartige generative Sprachmodelle erfindet ChatGPT Fakten. Manche nennen es „Halluzination“ oder „stochastische Wiederholung“, aber diese Modelle sind darauf trainiert, das nächste Wort für eine gegebene Eingabe vorherzusagen, nicht um festzustellen, ob eine Tatsache richtig ist oder nicht.

Vorfall

Smart Security Summit

Erfahren Sie am 8. Dezember mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

Jetzt registrieren

Einige haben festgestellt, dass das Besondere an ChatGPT darin besteht, dass es so gut darin ist, seine Halluzinationen vernünftig zu machen.

Tech-Analyst Benedict Evans bat ChatGPT beispielsweise, „eine Biografie für Benedict Evans zu schreiben“. Das Ergebnis, so twitterte er, sei „plausibel, fast vollständig falsch“.

Noch beunruhigender ist die Tatsache, dass es offensichtlich unzählige Anfragen gibt, bei denen der Benutzer nur dann weiß, ob die Antwort falsch ist, wenn er die Antwort auf die gestellte Frage bereits kennt.

Das ist es, worauf Arvind Narayanan, Professor für Informatik in Princeton, in einem Tweet hinwies: „Die Leute sind begeistert, ChatGPT zum Lernen zu verwenden. Es ist oft sehr gut. Aber die Gefahr besteht darin, dass man nicht erkennen kann, wann es falsch ist, es sei denn Sie kennen die Antwort bereits. Ich habe einige grundlegende Fragen zur Informationssicherheit ausprobiert. In den meisten Fällen klangen die Antworten plausibel, waren aber tatsächlich BS .

Generative KI-Faktenprüfung

Während des Niedergangs von Printmagazinen in den 2000er Jahren verbrachte ich mehrere Jahre als Faktenprüfer für Publikationen wie GQ und Rolling Stone em>. Jeder Fakt musste verbindliche Primär- oder Sekundärquellen enthalten – und Wikipedia war verpönt.

Nur wenige Publikationen haben jetzt Faktenprüfer, die Journalisten und Redakteure unter Druck setzen, sicherzustellen, dass sie die Fakten klarstellen, insbesondere in einer Zeit, in der sich Fehlinformationen bereits wie ein Blitz verbreiten. .

Die versteckte Gefahr von ChatGPT und generativer KI | Der Rhythmus der KI

Schauen Sie sich die On-Demand-Sessions vom Low-Code/No-Code Summit an, um zu erfahren, wie Sie erfolgreich innovativ sein und die Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Jetzt ansehen em>.

Seit OpenAI letzten Mittwoch seine erste Demo von ChatGPT gestartet hat, hat das Tool laut CEO Sam Altman bereits mehr als eine Million Benutzer – ein Meilenstein, betont er, der fast 24 Monate gedauert hat, um GPT-3 und DALL zu erreichen -E über 2 Monate.

Das „interaktive und dialogorientierte Modell“, das auf dem Textgenerator GPT-3.5 des Unternehmens basiert, versetzt die Tech-Welt sicherlich in Ohnmacht. Aaron Levie, CEO von Box, twitterte: „ChatGPT ist eine dieser seltenen Zeiten in der Technik, in der man einen Schimmer davon sieht, wie in Zukunft alles anders sein wird.“ Paul Graham, Mitbegründer von Y Combinator, twitterte, dass „eindeutig etwas Großes passiert“. Alberto Romero, Autor von The Algorithmic Bridge, nennt ihn den „mit Abstand besten Chatbot der Welt“. Und sogar Elon Musk mischte sich ein und twitterte, dass ChatGPT „beängstigend gut“ sei. Wir sind nicht weit von einer gefährlich mächtigen KI entfernt.

Aber in ChatGPT lauert ein verstecktes Problem: Das heißt, es spuckt schnell eloquente und selbstbewusste Antworten aus, die oft plausibel und wahr klingen, obwohl sie es nicht sind.

Wie andere großartige generative Sprachmodelle erfindet ChatGPT Fakten. Manche nennen es „Halluzination“ oder „stochastische Wiederholung“, aber diese Modelle sind darauf trainiert, das nächste Wort für eine gegebene Eingabe vorherzusagen, nicht um festzustellen, ob eine Tatsache richtig ist oder nicht.

Vorfall

Smart Security Summit

Erfahren Sie am 8. Dezember mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

Jetzt registrieren

Einige haben festgestellt, dass das Besondere an ChatGPT darin besteht, dass es so gut darin ist, seine Halluzinationen vernünftig zu machen.

Tech-Analyst Benedict Evans bat ChatGPT beispielsweise, „eine Biografie für Benedict Evans zu schreiben“. Das Ergebnis, so twitterte er, sei „plausibel, fast vollständig falsch“.

Noch beunruhigender ist die Tatsache, dass es offensichtlich unzählige Anfragen gibt, bei denen der Benutzer nur dann weiß, ob die Antwort falsch ist, wenn er die Antwort auf die gestellte Frage bereits kennt.

Das ist es, worauf Arvind Narayanan, Professor für Informatik in Princeton, in einem Tweet hinwies: „Die Leute sind begeistert, ChatGPT zum Lernen zu verwenden. Es ist oft sehr gut. Aber die Gefahr besteht darin, dass man nicht erkennen kann, wann es falsch ist, es sei denn Sie kennen die Antwort bereits. Ich habe einige grundlegende Fragen zur Informationssicherheit ausprobiert. In den meisten Fällen klangen die Antworten plausibel, waren aber tatsächlich BS .

Generative KI-Faktenprüfung

Während des Niedergangs von Printmagazinen in den 2000er Jahren verbrachte ich mehrere Jahre als Faktenprüfer für Publikationen wie GQ und Rolling Stone em>. Jeder Fakt musste verbindliche Primär- oder Sekundärquellen enthalten – und Wikipedia war verpönt.

Nur wenige Publikationen haben jetzt Faktenprüfer, die Journalisten und Redakteure unter Druck setzen, sicherzustellen, dass sie die Fakten klarstellen, insbesondere in einer Zeit, in der sich Fehlinformationen bereits wie ein Blitz verbreiten. .

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow