Athener Demokratieforum: Sind künstliche Intelligenz und Demokratie vereinbar?

Nick Clegg von Meta sagt, dass dies möglich ist, wenn die richtigen Systeme vorhanden sind.

Dieser Artikel stammt aus einem Sonderbericht über das Forum für Demokratie in Athen, das letzte Woche Experten in der griechischen Hauptstadt zusammenbrachte, um globale Themen zu diskutieren.

Moderator: Liz Alderman, Chef-Wirtschaftskorrespondentin für Europa, The New York Times

Sprecher:Nick Clegg, Präsident, Global Affairs, Meta

Auszüge aus dem Rethinking A.I.-Bericht und Diskussionen über Demokratie wurden bearbeitet und komprimiert.

LIZ ALDERMAN A.I. ist offensichtlich sehr vielversprechend und kann alle möglichen neuen Dinge tun. KI kann uns sogar dabei helfen, einige unserer schwierigsten Probleme zu lösen. Aber es birgt auch Risiken wie Manipulation, Fehlinformationen und die existenzielle Gefahr, dass es von böswilligen Akteuren genutzt wird. Also Nick, warum sollte die Öffentlichkeit der KI vertrauen? Wird es eher ein Segen für die Demokratie als eine potenzielle Bedrohung sein?

NICK CLEGG Ich denke, die Öffentlichkeit sollte sich weiterhin ein Urteil vorbehalten, bis wir sehen, wie sich die Dinge entwickeln aus. Und ich denke, dass Technologie wie jede große technologische Innovation für gute oder schlechte Zwecke genutzt werden kann und von guten und schlechten Menschen genutzt werden kann. Dies war von der Erfindung des Autos bis zum Internet, vom Radio bis zum Fahrrad der Fall. Und ich denke, dass es ganz natürlich ist, das Schlimmste zu befürchten, zu versuchen, das Schlimmste vorherzusehen, und vor allem vor schwer verständlichen Technologien Angst zu haben. Daher ist es meiner Meinung nach nicht verwunderlich, dass sich die Aufmerksamkeit in den letzten Monaten, insbesondere seit ChatGPT sein großes Sprachmodell entwickelt hat, auf die möglichen Risiken konzentriert hat. Ehrlich gesagt denke ich, dass einige dieser Risiken, oder zumindest die Art und Weise, wie einige davon beschrieben werden, der Technologie wirklich weit voraus sind. Wissen Sie, diese Idee, dass KI eine Art eigene Autonomie und Handlungsfähigkeit entwickelt, eine Art dämonischen Wunsch, die Menschheit zu zerstören und uns alle in Büroklammern zu verwandeln usw., war den ersten Diskussionen ziemlich nahe.

< p class="css-at9mc1 evys1bk0">ALDERMAN Wir haben den „Terminator 2“-Status noch nicht erreicht.

CLEGG Ja, genau. Denken Sie daran, dass es sich hierbei um Systeme handelt, die nichts wissen. Sie haben keine wirkliche Entscheidungsfreiheit oder sinnvolle Autonomie. Dabei handelt es sich um äußerst leistungsstarke und ausgefeilte Methoden, um große Datenmengen aufzuteilen und Milliarden von Parametern darauf anzuwenden, um Muster in einer schwindelerregenden Vielzahl von Datensätzen und Datenpunkten zu erkennen.

K.I. traditionell ist generativ. Er kann das nächste Wort vorhersagen. Aber er weiß nicht, was die inhärente Bedeutung dieser Worte ist. Deshalb denke ich, dass wir einige etwas atemlose Ängste zerstreuen müssen. Dennoch denke ich, dass man wahrscheinlich davon ausgehen kann, dass sie, wie viele dieser Technologien, als Beschleuniger für bereits bestehende Trends wirken wird. Aber wenn man sich die Fortschritte anschaut, die KI in den letzten Jahren auf Social-Media-Plattformen gemacht hat. Schon jetzt ist es ziemlich ermutigend.

Ein gutes Beispiel wäre Hassrede auf Facebook. Die anhand unserer Daten ermittelte Prävalenz von Hassreden liegt mittlerweile zwischen 0,01 % und 0,02 %. Wenn Sie sich diese Daten ansehen, finden Sie möglicherweise pro 10.000 Inhalte, die Sie auf Facebook durchsuchen, ein oder zwei Hassreden. Ich wünschte, es wäre Null. Ich glaube nicht, dass es jemals auf Null kommen wird. Aber die Sache ist, dass sie aufgrund der Fortschritte in der KI um etwa 50 oder 60 % zurückgegangen ist. Wenn Sie die KI trainieren können. Mithilfe von Klassifikatoren können Sie ein Muster erkennen, was beispielsweise bei Hassreden zu einem unglaublich effektiven Werkzeug in diesem Konfliktraum wird. Denn wenn unsere Richtlinien, unsere Systeme und unsere Technologien so funktionieren, wie sie sollten, sollte es uns in gewissem Sinne gleichgültig sein, ob sie von einer Maschine oder von einem Menschen erzeugt werden.

  Technologie   Oct 6, 2023   0   18  Add to Reading List

Athener Demokratieforum: Sind künstliche Intelligenz und Demokratie vereinbar?

Nick Clegg von Meta sagt, dass dies möglich ist, wenn die richtigen Systeme vorhanden sind.

Dieser Artikel stammt aus einem Sonderbericht über das Forum für Demokratie in Athen, das letzte Woche Experten in der griechischen Hauptstadt zusammenbrachte, um globale Themen zu diskutieren.

Moderator: Liz Alderman, Chef-Wirtschaftskorrespondentin für Europa, The New York Times

Sprecher:Nick Clegg, Präsident, Global Affairs, Meta

Auszüge aus dem Rethinking A.I.-Bericht und Diskussionen über Demokratie wurden bearbeitet und komprimiert.

LIZ ALDERMAN A.I. ist offensichtlich sehr vielversprechend und kann alle möglichen neuen Dinge tun. KI kann uns sogar dabei helfen, einige unserer schwierigsten Probleme zu lösen. Aber es birgt auch Risiken wie Manipulation, Fehlinformationen und die existenzielle Gefahr, dass es von böswilligen Akteuren genutzt wird. Also Nick, warum sollte die Öffentlichkeit der KI vertrauen? Wird es eher ein Segen für die Demokratie als eine potenzielle Bedrohung sein?

NICK CLEGG Ich denke, die Öffentlichkeit sollte sich weiterhin ein Urteil vorbehalten, bis wir sehen, wie sich die Dinge entwickeln aus. Und ich denke, dass Technologie wie jede große technologische Innovation für gute oder schlechte Zwecke genutzt werden kann und von guten und schlechten Menschen genutzt werden kann. Dies war von der Erfindung des Autos bis zum Internet, vom Radio bis zum Fahrrad der Fall. Und ich denke, dass es ganz natürlich ist, das Schlimmste zu befürchten, zu versuchen, das Schlimmste vorherzusehen, und vor allem vor schwer verständlichen Technologien Angst zu haben. Daher ist es meiner Meinung nach nicht verwunderlich, dass sich die Aufmerksamkeit in den letzten Monaten, insbesondere seit ChatGPT sein großes Sprachmodell entwickelt hat, auf die möglichen Risiken konzentriert hat. Ehrlich gesagt denke ich, dass einige dieser Risiken, oder zumindest die Art und Weise, wie einige davon beschrieben werden, der Technologie wirklich weit voraus sind. Wissen Sie, diese Idee, dass KI eine Art eigene Autonomie und Handlungsfähigkeit entwickelt, eine Art dämonischen Wunsch, die Menschheit zu zerstören und uns alle in Büroklammern zu verwandeln usw., war den ersten Diskussionen ziemlich nahe.

< p class="css-at9mc1 evys1bk0">ALDERMAN Wir haben den „Terminator 2“-Status noch nicht erreicht.

CLEGG Ja, genau. Denken Sie daran, dass es sich hierbei um Systeme handelt, die nichts wissen. Sie haben keine wirkliche Entscheidungsfreiheit oder sinnvolle Autonomie. Dabei handelt es sich um äußerst leistungsstarke und ausgefeilte Methoden, um große Datenmengen aufzuteilen und Milliarden von Parametern darauf anzuwenden, um Muster in einer schwindelerregenden Vielzahl von Datensätzen und Datenpunkten zu erkennen.

K.I. traditionell ist generativ. Er kann das nächste Wort vorhersagen. Aber er weiß nicht, was die inhärente Bedeutung dieser Worte ist. Deshalb denke ich, dass wir einige etwas atemlose Ängste zerstreuen müssen. Dennoch denke ich, dass man wahrscheinlich davon ausgehen kann, dass sie, wie viele dieser Technologien, als Beschleuniger für bereits bestehende Trends wirken wird. Aber wenn man sich die Fortschritte anschaut, die KI in den letzten Jahren auf Social-Media-Plattformen gemacht hat. Schon jetzt ist es ziemlich ermutigend.

Ein gutes Beispiel wäre Hassrede auf Facebook. Die anhand unserer Daten ermittelte Prävalenz von Hassreden liegt mittlerweile zwischen 0,01 % und 0,02 %. Wenn Sie sich diese Daten ansehen, finden Sie möglicherweise pro 10.000 Inhalte, die Sie auf Facebook durchsuchen, ein oder zwei Hassreden. Ich wünschte, es wäre Null. Ich glaube nicht, dass es jemals auf Null kommen wird. Aber die Sache ist, dass sie aufgrund der Fortschritte in der KI um etwa 50 oder 60 % zurückgegangen ist. Wenn Sie die KI trainieren können. Mithilfe von Klassifikatoren können Sie ein Muster erkennen, was beispielsweise bei Hassreden zu einem unglaublich effektiven Werkzeug in diesem Konfliktraum wird. Denn wenn unsere Richtlinien, unsere Systeme und unsere Technologien so funktionieren, wie sie sollten, sollte es uns in gewissem Sinne gleichgültig sein, ob sie von einer Maschine oder von einem Menschen erzeugt werden.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow