Welche Gefahren gehen genau von KI aus?

Ein kürzlich erschienener Brief, in dem ein Moratorium für die KI-Entwicklung gefordert wird, vermischt echte Bedrohungen mit Spekulationen. Unter Experten wächst jedoch die Besorgnis.

Ende März unterzeichneten mehr als 1.000 Technologieführer, Forscher und andere Experten, die in und um künstliche Intelligenz arbeiten, einen offenen Brief, in dem sie davor warnten, dass KI. Technologien stellen „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ dar.

Die Gruppe, zu der auch Elon Musk, CEO von Tesla und Eigentümer von Twitter, gehörte, forderte die KI-Labore auf, die Entwicklung ihrer zu stoppen sechs Monate lang die leistungsstärksten Systeme, damit sie die Gefahren besser verstehen können, die sich hinter der Technologie verbergen. Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Brief.

Der Brief, der inzwischen über 27.000 Unterschriften hat , war kurz. Seine Sprache war breit. Und einige der Namen hinter dem Brief schienen eine feindliche Beziehung zu KI zu haben. Mr. Musk zum Beispiel baut seine eigene KI. Startup, und er ist ein wichtiger Spender der Organisation, die den Brief geschrieben hat.

Aber der Brief stellte eine wachsende Besorgnis unter KI-Experten dar, dass die neuesten Systeme, einschließlich GPT-4 , die vom Startup OpenAI aus San Francisco eingeführte Technologie, könnte dem Unternehmen schaden. Sie dachten, zukünftige Systeme wären noch gefährlicher.

Einige der Risiken sind eingetreten. Andere nicht für Monate oder Jahre. Wieder andere sind rein hypothetisch.

„Unsere Fähigkeit zu verstehen, was bei sehr leistungsfähigen KI-Systemen schiefgehen könnte, ist sehr schwach“, sagte Yoshua Bengio, Professor und KI-Forscher an der Universität von Montreal. „Also wir müssen sehr vorsichtig sein.“

Warum sind sie besorgt? in den letzten vier Jahrzehnten die Technologie entwickelt hat, die Systeme wie GPT-4 antreibt. Kredit...Nasuna Stuart-Ulin für die New York Times

Dr. Bengio ist vielleicht die wichtigste Person den Brief zu unterzeichnen.

In Zusammenarbeit mit zwei anderen Akademikern – Geoffrey Hinton, bis vor kurzem Forscher bei Google, und Yann LeCun, jetzt Chief Scientific A.I. bei Meta, dem Eigentümer von Facebook - Dr. Bengio hat die letzten vier Jahrzehnte damit verbracht, die Technologie zu entwickeln, die Systeme wie GPT-4 antreibt. 2018 wurden die Forscher für ihre Arbeit an neuronalen Netzen mit dem Turing-Preis ausgezeichnet, der oft als "Nobelpreis für Computer" bezeichnet wird.

Ein Netzwerk von Neuronen ist ein mathematisches System, das Fähigkeiten durch die Analyse von Daten erwirbt. Vor etwa fünf Jahren begannen Unternehmen wie Google, Microsoft und OpenAI mit dem Aufbau neuronaler Netzwerke, die aus riesigen Mengen an digitalem Text, sogenannten Large Language Models oder L.L.M.s, lernten.

durch die Identifizierung von Mustern In diesem Text lernen LLMs, selbst Texte zu erstellen, einschließlich Blogbeiträgen, Gedichten und Computerprogrammen. Sie können sogar ein Gespräch führen.

Diese Technologie kann Computerprogrammierern, Autoren und anderen Mitarbeitern dabei helfen, Ideen zu entwickeln und Dinge schneller zu erledigen. Aber Dr. Bengio und andere Experten haben auch davor gewarnt, dass LLMs unerwünschte Dinge lernen und u ...

Welche Gefahren gehen genau von KI aus?

Ein kürzlich erschienener Brief, in dem ein Moratorium für die KI-Entwicklung gefordert wird, vermischt echte Bedrohungen mit Spekulationen. Unter Experten wächst jedoch die Besorgnis.

Ende März unterzeichneten mehr als 1.000 Technologieführer, Forscher und andere Experten, die in und um künstliche Intelligenz arbeiten, einen offenen Brief, in dem sie davor warnten, dass KI. Technologien stellen „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ dar.

Die Gruppe, zu der auch Elon Musk, CEO von Tesla und Eigentümer von Twitter, gehörte, forderte die KI-Labore auf, die Entwicklung ihrer zu stoppen sechs Monate lang die leistungsstärksten Systeme, damit sie die Gefahren besser verstehen können, die sich hinter der Technologie verbergen. Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Brief.

Der Brief, der inzwischen über 27.000 Unterschriften hat , war kurz. Seine Sprache war breit. Und einige der Namen hinter dem Brief schienen eine feindliche Beziehung zu KI zu haben. Mr. Musk zum Beispiel baut seine eigene KI. Startup, und er ist ein wichtiger Spender der Organisation, die den Brief geschrieben hat.

Aber der Brief stellte eine wachsende Besorgnis unter KI-Experten dar, dass die neuesten Systeme, einschließlich GPT-4 , die vom Startup OpenAI aus San Francisco eingeführte Technologie, könnte dem Unternehmen schaden. Sie dachten, zukünftige Systeme wären noch gefährlicher.

Einige der Risiken sind eingetreten. Andere nicht für Monate oder Jahre. Wieder andere sind rein hypothetisch.

„Unsere Fähigkeit zu verstehen, was bei sehr leistungsfähigen KI-Systemen schiefgehen könnte, ist sehr schwach“, sagte Yoshua Bengio, Professor und KI-Forscher an der Universität von Montreal. „Also wir müssen sehr vorsichtig sein.“

Warum sind sie besorgt? in den letzten vier Jahrzehnten die Technologie entwickelt hat, die Systeme wie GPT-4 antreibt. Kredit...Nasuna Stuart-Ulin für die New York Times

Dr. Bengio ist vielleicht die wichtigste Person den Brief zu unterzeichnen.

In Zusammenarbeit mit zwei anderen Akademikern – Geoffrey Hinton, bis vor kurzem Forscher bei Google, und Yann LeCun, jetzt Chief Scientific A.I. bei Meta, dem Eigentümer von Facebook - Dr. Bengio hat die letzten vier Jahrzehnte damit verbracht, die Technologie zu entwickeln, die Systeme wie GPT-4 antreibt. 2018 wurden die Forscher für ihre Arbeit an neuronalen Netzen mit dem Turing-Preis ausgezeichnet, der oft als "Nobelpreis für Computer" bezeichnet wird.

Ein Netzwerk von Neuronen ist ein mathematisches System, das Fähigkeiten durch die Analyse von Daten erwirbt. Vor etwa fünf Jahren begannen Unternehmen wie Google, Microsoft und OpenAI mit dem Aufbau neuronaler Netzwerke, die aus riesigen Mengen an digitalem Text, sogenannten Large Language Models oder L.L.M.s, lernten.

durch die Identifizierung von Mustern In diesem Text lernen LLMs, selbst Texte zu erstellen, einschließlich Blogbeiträgen, Gedichten und Computerprogrammen. Sie können sogar ein Gespräch führen.

Diese Technologie kann Computerprogrammierern, Autoren und anderen Mitarbeitern dabei helfen, Ideen zu entwickeln und Dinge schneller zu erledigen. Aber Dr. Bengio und andere Experten haben auch davor gewarnt, dass LLMs unerwünschte Dinge lernen und u ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow