Über das katastrophale Risiko der KI

Anfang dieser Woche habe ich eine kurze Gruppenerklärung unterzeichnet, die vom Center for AI Safety koordiniert wurde:

Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Die Medienberichterstattung war für mich bedeutsam und überraschend. Die Schlagzeile der New York Times lautet: „Künstliche Intelligenz stellt ein ‚Aussterberisiko‘ dar, warnen Branchenführer.“ BBC: „Künstliche Intelligenz könnte zum Aussterben führen, warnen Experten.“ Andere Titel sind ähnlich.

Tatsächlich glaube ich nicht, dass KI ein Risiko für das Aussterben der Menschheit darstellt. Ich denke, es stellt ein ähnliches Risiko wie Pandemien und einen Atomkrieg dar, also ein Risiko, das es wert ist, ernst genommen zu werden, aber kein Grund zur Panik. Das habe ich mir in der Aussage gedacht.

In meiner Rede auf der RSA-Konferenz letzten Monat sprach ich über das Ausmaß der Macht unserer Spezies, das für unsere Regierungssysteme zu groß wurde. Als ich über diese Systeme sprach, sagte ich:

Zu diesem Mix kommen nun noch die Risiken hinzu, die durch neue und gefährliche Technologien wie das Internet, KI oder synthetische Biologie entstehen. Oder molekulare Nanotechnologie oder Atomwaffen. Hier können Fehlanreize und Hackerangriffe katastrophale Folgen für die Gesellschaft haben.

Das dachte ich mir, als ich der Unterzeichnung der Erklärung zustimmte: „Pandemien, Atomwaffen, KI – ja, ich würde alle drei Dinge in einen Topf werfen. Wir können sicherlich den gleichen Aufwand in Bezug auf Risiken stecken.“ KI als auf zukünftige Pandemien. Das ist eine wirklich niedrige Messlatte. Natürlich hätte ich mich auf das Wort „Aussterben“ konzentrieren sollen und nicht auf relative Vergleiche.< /p>

Seth Lazar, Jeremy Howard und Arvind Narayanan schrieben:

Wir glauben, dass die meisten Unterzeichner der Erklärung tatsächlich glauben, dass eine spannende KI noch in weiter Ferne liegt und dass es eines bedeutenden wissenschaftlichen Durchbruchs bedarf, um dies zu erreichen, was wir nicht vorhersehen können, selbst wenn wir davon überzeugt sind dass es eines Tages passieren wird. Wenn ja, dann folgen mindestens zwei Dinge.

Ich stimme dem und den Folgemaßnahmen zu:

Erstens sollten wir schwerwiegenden KI-Risiken, die dringlicher sind, mehr Gewicht beimessen. Während bestehende KI-Systeme und ihre plausiblen Erweiterungen uns nicht auslöschen werden, verursachen sie bereits viel konzentrierteren Schaden, sie werden mit Sicherheit die Ungleichheit verschärfen und in den Händen machthungriger Regierungen und machtloser Konzerne werden sie die Skrupel des Einzelnen untergraben und kollektive Freiheit.

Hier ist, was ich in Click here to kill every (2018) geschrieben habe:

Ich mache mir weniger Sorgen um die KI; Ich sehe die Angst vor KI eher als Spiegel unserer eigenen Gesellschaft denn als Vorbote der Zukunft. KI und intelligente Robotik sind der Höhepunkt mehrerer Vorläufertechnologien wie Algorithmen für maschinelles Lernen, Automatisierung und Autonomie. Die Sicherheitsrisiken dieser Vorläufertechnologien sind bereits vorhanden und nehmen mit zunehmender Leistungsfähigkeit und Verbreitung der Technologien zu. Während ich mir also Sorgen um intelligente und sogar selbstfahrende Autos mache, sind die meisten Risiken bereits bei mit dem Internet verbundenen Autos mit Chauffeur vorhanden. Und während ich mir Sorgen um Robotersoldaten mache, bestehen die meisten Risiken bereits in autonomen Waffensystemen.

Darüber hinaus hat der Robotiker Rodney Brooks darauf hingewiesen: „Lange bevor solche Maschinen auftauchen, wird es etwas weniger intelligente und kriegerische Maschinen geben. Davor wird es die wirklich mürrischen Maschinen geben. Davor die ziemlich langweiligen Maschinen. Und davor.“ Sie sind die arroganten und abscheulichen Maschinen. Ich denke, wir werden neue Sicherheitsrisiken erleben, lange bevor sie eintreten.

Ich denke, wir sollten uns über die katastrophalen Risiken im Zusammenhang mit KI und Robotik Sorgen machen. Es ist die Tatsache, dass sie die Welt direkt und physisch beeinflussen und anfällig für Kursunterbrechungen sind.

(Andere Dinge zum Lesen: David Chapman ist gut in gruseliger KI. Und Kie...

Anfang dieser Woche habe ich eine kurze Gruppenerklärung unterzeichnet, die vom Center for AI Safety koordiniert wurde:

Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Die Medienberichterstattung war für mich bedeutsam und überraschend. Die Schlagzeile der New York Times lautet: „Künstliche Intelligenz stellt ein ‚Aussterberisiko‘ dar, warnen Branchenführer.“ BBC: „Künstliche Intelligenz könnte zum Aussterben führen, warnen Experten.“ Andere Titel sind ähnlich.

Tatsächlich glaube ich nicht, dass KI ein Risiko für das Aussterben der Menschheit darstellt. Ich denke, es stellt ein ähnliches Risiko wie Pandemien und einen Atomkrieg dar, also ein Risiko, das es wert ist, ernst genommen zu werden, aber kein Grund zur Panik. Das habe ich mir in der Aussage gedacht.

In meiner Rede auf der RSA-Konferenz letzten Monat sprach ich über das Ausmaß der Macht unserer Spezies, das für unsere Regierungssysteme zu groß wurde. Als ich über diese Systeme sprach, sagte ich:

Zu diesem Mix kommen nun noch die Risiken hinzu, die durch neue und gefährliche Technologien wie das Internet, KI oder synthetische Biologie entstehen. Oder molekulare Nanotechnologie oder Atomwaffen. Hier können Fehlanreize und Hackerangriffe katastrophale Folgen für die Gesellschaft haben.

Das dachte ich mir, als ich der Unterzeichnung der Erklärung zustimmte: „Pandemien, Atomwaffen, KI – ja, ich würde alle drei Dinge in einen Topf werfen. Wir können sicherlich den gleichen Aufwand in Bezug auf Risiken stecken.“ KI als auf zukünftige Pandemien. Das ist eine wirklich niedrige Messlatte. Natürlich hätte ich mich auf das Wort „Aussterben“ konzentrieren sollen und nicht auf relative Vergleiche.< /p>

Seth Lazar, Jeremy Howard und Arvind Narayanan schrieben:

Wir glauben, dass die meisten Unterzeichner der Erklärung tatsächlich glauben, dass eine spannende KI noch in weiter Ferne liegt und dass es eines bedeutenden wissenschaftlichen Durchbruchs bedarf, um dies zu erreichen, was wir nicht vorhersehen können, selbst wenn wir davon überzeugt sind dass es eines Tages passieren wird. Wenn ja, dann folgen mindestens zwei Dinge.

Ich stimme dem und den Folgemaßnahmen zu:

Erstens sollten wir schwerwiegenden KI-Risiken, die dringlicher sind, mehr Gewicht beimessen. Während bestehende KI-Systeme und ihre plausiblen Erweiterungen uns nicht auslöschen werden, verursachen sie bereits viel konzentrierteren Schaden, sie werden mit Sicherheit die Ungleichheit verschärfen und in den Händen machthungriger Regierungen und machtloser Konzerne werden sie die Skrupel des Einzelnen untergraben und kollektive Freiheit.

Hier ist, was ich in Click here to kill every (2018) geschrieben habe:

Ich mache mir weniger Sorgen um die KI; Ich sehe die Angst vor KI eher als Spiegel unserer eigenen Gesellschaft denn als Vorbote der Zukunft. KI und intelligente Robotik sind der Höhepunkt mehrerer Vorläufertechnologien wie Algorithmen für maschinelles Lernen, Automatisierung und Autonomie. Die Sicherheitsrisiken dieser Vorläufertechnologien sind bereits vorhanden und nehmen mit zunehmender Leistungsfähigkeit und Verbreitung der Technologien zu. Während ich mir also Sorgen um intelligente und sogar selbstfahrende Autos mache, sind die meisten Risiken bereits bei mit dem Internet verbundenen Autos mit Chauffeur vorhanden. Und während ich mir Sorgen um Robotersoldaten mache, bestehen die meisten Risiken bereits in autonomen Waffensystemen.

Darüber hinaus hat der Robotiker Rodney Brooks darauf hingewiesen: „Lange bevor solche Maschinen auftauchen, wird es etwas weniger intelligente und kriegerische Maschinen geben. Davor wird es die wirklich mürrischen Maschinen geben. Davor die ziemlich langweiligen Maschinen. Und davor.“ Sie sind die arroganten und abscheulichen Maschinen. Ich denke, wir werden neue Sicherheitsrisiken erleben, lange bevor sie eintreten.

Ich denke, wir sollten uns über die katastrophalen Risiken im Zusammenhang mit KI und Robotik Sorgen machen. Es ist die Tatsache, dass sie die Welt direkt und physisch beeinflussen und anfällig für Kursunterbrechungen sind.

(Andere Dinge zum Lesen: David Chapman ist gut in gruseliger KI. Und Kie...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow