Wissenschaftler erstellen „OpinionGPT“, um explizite menschliche Vorurteile zu erforschen – und die Öffentlichkeit kann sie testen

Aufgrund der Art der Modelloptimierungsdaten ist unklar, ob dieses System tatsächlich in der Lage ist, Ergebnisse zu generieren, die echte Verzerrungen zeigen.  Wissenschaftler Wir erstellen „OpinionGPT“, um explizite menschliche Vorurteile zu untersuchen – und die Öffentlichkeit kann es testen“ class= Nachricht Begleiten Sie uns in den sozialen Medien

Ein Forscherteam der Humboldt-Universität zu Berlin hat ein großsprachiges Modell der künstlichen Intelligenz (KI) entwickelt, das sich dadurch auszeichnet, dass es absichtlich darauf abgestimmt wurde, Ergebnisse mit ausgeprägten Vorurteilen zu generieren.

>

Das Modell des Teams mit dem Namen OpinionGPT ist eine optimierte Variante von Metas Llama 2, einem KI-System mit ähnlichen Fähigkeiten wie ChatGPT von OpenAI oder Claude 2 von Anthropic.

Durch einen Prozess, der als anweisungsbasierte Feinabstimmung bezeichnet wird, kann OpinionGPT angeblich auf Eingabeaufforderungen reagieren, als ob sie ein Vertreter einer von 11 Vorurteilsgruppen wären: Amerikaner, Deutscher, Lateinamerikaner, Nahost, ein Teenager, eine Person über 30 , eine ältere Person, ein Mann, eine Frau, ein Liberaler oder ein Konservativer.

Kündigung „OpinionGPT: Ein sehr voreingenommenes GPT-Modell“! Probieren Sie es hier aus: https://t.co/5YJjHlcV4nUm die Auswirkungen von Voreingenommenheit auf Modellantworten zu untersuchen, haben wir eine einfache Frage gestellt: Was wäre, wenn wir ein #GPT-Modell nur mit Texten optimieren würden, die von politisch Rechten verfasst wurden?

[1/3]

— Alan Akbik (@alan_akbik) 8. September 2023

OpinionGPT wurde anhand eines Datenkorpus verfeinert, der aus „AskX“-Communitys, sogenannten Subreddits, auf Reddit stammt. Beispiele für diese Subreddits sind r/AskaWoman und r/AskAnAmerican.

Das Team begann damit, Subreddits zu finden, die sich auf die 11 spezifischen Vorurteile beziehen, und extrahierte daraus die 25.000 beliebtesten Beiträge. Anschließend wurden nur Beiträge beibehalten, die einen Mindestschwellenwert an Upvotes erreichten, kein eingebettetes Zitat enthielten und weniger als 80 Wörter lang waren.

Was übrig bleibt, scheinen die Forscher einen ähnlichen Ansatz wie die konstitutionelle KI von Anthropic verwendet zu haben. Anstatt völlig neue Modelle zur Darstellung jedes Bias-Labels zu erstellen, haben sie im Wesentlichen die 7 Milliarden Parameter optimiert ...

Wissenschaftler erstellen „OpinionGPT“, um explizite menschliche Vorurteile zu erforschen – und die Öffentlichkeit kann sie testen

Aufgrund der Art der Modelloptimierungsdaten ist unklar, ob dieses System tatsächlich in der Lage ist, Ergebnisse zu generieren, die echte Verzerrungen zeigen.  Wissenschaftler Wir erstellen „OpinionGPT“, um explizite menschliche Vorurteile zu untersuchen – und die Öffentlichkeit kann es testen“ class= Nachricht Begleiten Sie uns in den sozialen Medien

Ein Forscherteam der Humboldt-Universität zu Berlin hat ein großsprachiges Modell der künstlichen Intelligenz (KI) entwickelt, das sich dadurch auszeichnet, dass es absichtlich darauf abgestimmt wurde, Ergebnisse mit ausgeprägten Vorurteilen zu generieren.

>

Das Modell des Teams mit dem Namen OpinionGPT ist eine optimierte Variante von Metas Llama 2, einem KI-System mit ähnlichen Fähigkeiten wie ChatGPT von OpenAI oder Claude 2 von Anthropic.

Durch einen Prozess, der als anweisungsbasierte Feinabstimmung bezeichnet wird, kann OpinionGPT angeblich auf Eingabeaufforderungen reagieren, als ob sie ein Vertreter einer von 11 Vorurteilsgruppen wären: Amerikaner, Deutscher, Lateinamerikaner, Nahost, ein Teenager, eine Person über 30 , eine ältere Person, ein Mann, eine Frau, ein Liberaler oder ein Konservativer.

Kündigung „OpinionGPT: Ein sehr voreingenommenes GPT-Modell“! Probieren Sie es hier aus: https://t.co/5YJjHlcV4nUm die Auswirkungen von Voreingenommenheit auf Modellantworten zu untersuchen, haben wir eine einfache Frage gestellt: Was wäre, wenn wir ein #GPT-Modell nur mit Texten optimieren würden, die von politisch Rechten verfasst wurden?

[1/3]

— Alan Akbik (@alan_akbik) 8. September 2023

OpinionGPT wurde anhand eines Datenkorpus verfeinert, der aus „AskX“-Communitys, sogenannten Subreddits, auf Reddit stammt. Beispiele für diese Subreddits sind r/AskaWoman und r/AskAnAmerican.

Das Team begann damit, Subreddits zu finden, die sich auf die 11 spezifischen Vorurteile beziehen, und extrahierte daraus die 25.000 beliebtesten Beiträge. Anschließend wurden nur Beiträge beibehalten, die einen Mindestschwellenwert an Upvotes erreichten, kein eingebettetes Zitat enthielten und weniger als 80 Wörter lang waren.

Was übrig bleibt, scheinen die Forscher einen ähnlichen Ansatz wie die konstitutionelle KI von Anthropic verwendet zu haben. Anstatt völlig neue Modelle zur Darstellung jedes Bias-Labels zu erstellen, haben sie im Wesentlichen die 7 Milliarden Parameter optimiert ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow