Studie von OpenAI, Georgetown und Stanford zeigt, dass LLMs die Manipulation der öffentlichen Meinung fördern können

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Fortschritte bei großen KI-gestützten Sprachmodellen versprechen neue Anwendungen in naher und ferner Zukunft, wobei Programmierer, Autoren, Vermarkter und andere Fachleute von fortgeschrittenen LLMs profitieren werden. Aber eine neue Studie von Wissenschaftlern der Stanford University, der Georgetown University und OpenAI hebt die Auswirkungen hervor, die LLMs auf die Arbeit von Akteuren haben können, die versuchen, die öffentliche Meinung durch die Verbreitung von Online-Inhalten zu manipulieren.

Untersuchungen haben ergeben, dass LLMs Maßnahmen zur politischen Einflussnahme fördern können, indem sie die Erstellung von Inhalten in großem Umfang ermöglichen, die Arbeitskosten senken und es schwieriger machen, die Aktivität von Bots zu erkennen.

Die Studie wurde durchgeführt, nachdem das Center for Security and Emerging Technology (CSET) an der Georgetown University, OpenAI und das Stanford Internet Observatory (SIO) 2021 gemeinsam einen Workshop veranstaltet hatten, um den möglichen Missbrauch von LLMs für Propagandazwecke zu untersuchen. Und da sich LLMs weiter verbessern, gibt es Befürchtungen, dass böswillige Akteure keinen Grund mehr haben werden, sie für schändliche Zwecke zu verwenden.

Studie findet heraus, dass LLMs Akteure, Verhaltensweisen und Inhalte beeinflussen

Einflussoperationen werden durch drei Schlüsselelemente definiert: Akteure, Verhaltensweisen und Inhalt. Die von Stanford, Georgetown und OpenAI durchgeführte Studie zeigt, dass LLMs einen Einfluss auf alle drei Aspekte haben können.

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

Da LLMs es einfacher machen, lange, kohärente Texte zu erstellen, werden es mehr Akteure interessant finden, sie für Einflussoperationen zu verwenden. Die Erstellung von Inhalten erforderte früher menschliche Autoren, was teuer, schlecht skalierbar und riskant sein kann, wenn Akteure versuchen, ihre Operationen zu verbergen. LLMs sind nicht perfekt und können beim Generieren von Text dumme Fehler machen. Aber ein Autor, der mit einem LLM gekoppelt ist, kann viel produktiver werden, wenn er computergenerierten Text bearbeitet, anstatt von Grund auf neu zu schreiben. Dies macht Autoren viel produktiver und senkt die Arbeitskosten.

"Wir argumentieren, dass Sprachgenerierungstools für Propagandisten wahrscheinlich nützlich sind: Sie können die Kosten für die Inhaltsgenerierung senken und die Anzahl der Menschen reduzieren, die benötigt werden, um die gleiche Menge an Inhalten zu erstellen", Dr. Josh A. Goldstein, Co- Autor des Artikels und wissenschaftlicher Mitarbeiter am CyberAI-Projekt von CSET, gegenüber VentureBeat.

In Bezug auf das Verhalten können LLMs nicht nur aktuelle Einflussoperationen verstärken, sondern auch neue Taktiken ermöglichen. Beispielsweise können Angreifer LLMs verwenden, um groß angelegte dynamische personalisierte Inhalte zu erstellen oder Konversationsschnittstellen wie Chatbots zu erstellen, die direkt mit vielen Personen gleichzeitig interagieren können. Die Fähigkeit von LLMs, originelle Inhalte zu produzieren, wird es den Spielern auch erleichtern, ihre Influencer-Kampagnen zu verbergen.

"Da Textgenerierungstools bei jeder Ausführung Originalausgaben erstellen, können Kampagnen, die von ihnen abhängen, für unabhängige Rechercheure schwerer zu erkennen sein, da sie sich nicht auf sogenannte "Copypasta" (oder Kopieren und Einfügen) verlassen wiederholter Text über Online-Konten hinweg)“, sagte Goldstein.

Vieles wissen wir noch nicht

Trotz ihrer beeindruckenden Leistung sind LLMs in vielerlei Hinsicht begrenzt. Beispielsweise neigen selbst die fortgeschrittensten LLMs dazu, unsinnige Aussagen zu machen und an Konsistenz zu verlieren, wenn ihr Text einige Seiten überschreitet.

Außerdem fehlt ihnen der Kontext für Ereignisse, die nicht in ihren Trainingsdaten enthalten sind, und ein erneutes Training ist ein komplizierter und kostspieliger Prozess. Dies macht es schwierig, sie für Kampagnen zur politischen Einflussnahme zu verwenden, die Kommentare zu Echtzeitereignissen erfordern.

Aber diese Einschränkungen gelten nicht unbedingt für alle Arten von...

Studie von OpenAI, Georgetown und Stanford zeigt, dass LLMs die Manipulation der öffentlichen Meinung fördern können

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Fortschritte bei großen KI-gestützten Sprachmodellen versprechen neue Anwendungen in naher und ferner Zukunft, wobei Programmierer, Autoren, Vermarkter und andere Fachleute von fortgeschrittenen LLMs profitieren werden. Aber eine neue Studie von Wissenschaftlern der Stanford University, der Georgetown University und OpenAI hebt die Auswirkungen hervor, die LLMs auf die Arbeit von Akteuren haben können, die versuchen, die öffentliche Meinung durch die Verbreitung von Online-Inhalten zu manipulieren.

Untersuchungen haben ergeben, dass LLMs Maßnahmen zur politischen Einflussnahme fördern können, indem sie die Erstellung von Inhalten in großem Umfang ermöglichen, die Arbeitskosten senken und es schwieriger machen, die Aktivität von Bots zu erkennen.

Die Studie wurde durchgeführt, nachdem das Center for Security and Emerging Technology (CSET) an der Georgetown University, OpenAI und das Stanford Internet Observatory (SIO) 2021 gemeinsam einen Workshop veranstaltet hatten, um den möglichen Missbrauch von LLMs für Propagandazwecke zu untersuchen. Und da sich LLMs weiter verbessern, gibt es Befürchtungen, dass böswillige Akteure keinen Grund mehr haben werden, sie für schändliche Zwecke zu verwenden.

Studie findet heraus, dass LLMs Akteure, Verhaltensweisen und Inhalte beeinflussen

Einflussoperationen werden durch drei Schlüsselelemente definiert: Akteure, Verhaltensweisen und Inhalt. Die von Stanford, Georgetown und OpenAI durchgeführte Studie zeigt, dass LLMs einen Einfluss auf alle drei Aspekte haben können.

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

Da LLMs es einfacher machen, lange, kohärente Texte zu erstellen, werden es mehr Akteure interessant finden, sie für Einflussoperationen zu verwenden. Die Erstellung von Inhalten erforderte früher menschliche Autoren, was teuer, schlecht skalierbar und riskant sein kann, wenn Akteure versuchen, ihre Operationen zu verbergen. LLMs sind nicht perfekt und können beim Generieren von Text dumme Fehler machen. Aber ein Autor, der mit einem LLM gekoppelt ist, kann viel produktiver werden, wenn er computergenerierten Text bearbeitet, anstatt von Grund auf neu zu schreiben. Dies macht Autoren viel produktiver und senkt die Arbeitskosten.

"Wir argumentieren, dass Sprachgenerierungstools für Propagandisten wahrscheinlich nützlich sind: Sie können die Kosten für die Inhaltsgenerierung senken und die Anzahl der Menschen reduzieren, die benötigt werden, um die gleiche Menge an Inhalten zu erstellen", Dr. Josh A. Goldstein, Co- Autor des Artikels und wissenschaftlicher Mitarbeiter am CyberAI-Projekt von CSET, gegenüber VentureBeat.

In Bezug auf das Verhalten können LLMs nicht nur aktuelle Einflussoperationen verstärken, sondern auch neue Taktiken ermöglichen. Beispielsweise können Angreifer LLMs verwenden, um groß angelegte dynamische personalisierte Inhalte zu erstellen oder Konversationsschnittstellen wie Chatbots zu erstellen, die direkt mit vielen Personen gleichzeitig interagieren können. Die Fähigkeit von LLMs, originelle Inhalte zu produzieren, wird es den Spielern auch erleichtern, ihre Influencer-Kampagnen zu verbergen.

"Da Textgenerierungstools bei jeder Ausführung Originalausgaben erstellen, können Kampagnen, die von ihnen abhängen, für unabhängige Rechercheure schwerer zu erkennen sein, da sie sich nicht auf sogenannte "Copypasta" (oder Kopieren und Einfügen) verlassen wiederholter Text über Online-Konten hinweg)“, sagte Goldstein.

Vieles wissen wir noch nicht

Trotz ihrer beeindruckenden Leistung sind LLMs in vielerlei Hinsicht begrenzt. Beispielsweise neigen selbst die fortgeschrittensten LLMs dazu, unsinnige Aussagen zu machen und an Konsistenz zu verlieren, wenn ihr Text einige Seiten überschreitet.

Außerdem fehlt ihnen der Kontext für Ereignisse, die nicht in ihren Trainingsdaten enthalten sind, und ein erneutes Training ist ein komplizierter und kostspieliger Prozess. Dies macht es schwierig, sie für Kampagnen zur politischen Einflussnahme zu verwenden, die Kommentare zu Echtzeitereignissen erfordern.

Aber diese Einschränkungen gelten nicht unbedingt für alle Arten von...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow