Nvidia CSO: Generative AI, ChatGPT machte Sicherheit zu einem Katz-und-Maus-Spiel

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Ist generative KI gut für Sicherheitsteams? Seit dem Start von ChatGPT im November wurde heftig darüber diskutiert, ob künstliche Intelligenz (KI) die Bedrohungslandschaft zugunsten von Bedrohungsakteuren oder Bedrohungsfürsprechern kippen wird.

Es findet ein offensiv-defensiver KI-Krieg statt, in dem Cyberkriminelle Technologien wie generative KI verwenden können, um bösartigen Code zu generieren, während Sicherheitsteams damit Schwachstellen identifizieren können .

VentureBeat hat kürzlich ein Q&A mit David Reber, Chief Security Officer bei Nvidia und ehemaliger Senior Director of Cybersecurity bei Nutanix, durchgeführt. Er teilte seine Gedanken zu den Auswirkungen der generativen KI und Tools wie ChatGPT auf die Bedrohungslandschaft im Jahr 2023 mit.

Unten ist ein bearbeitetes Transkript:

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier VB: Warum wird KI benötigt, um KI-basierte Cyber-Bedrohungen zu stoppen?

Reber: Wenn du die Grenzen deines Gegners verstehst, weißt du, wohin er als nächstes gehen kann oder nicht. Eine der traditionellen Einschränkungen des Gegners war die Anpassung groß angelegter Angriffe und Handwerkskunst.

Dank der Fortschritte in der generativen KI sind fein abgestimmte, gezielte Angriffe selbst für die unerfahrensten Angreifer möglich.

Die Größe der Maschine ist die Konkurrenz. Die Geschwindigkeit und Komplexität von Angriffen übersteigt die menschlichen Fähigkeiten. Hier kommt die KI für den Verteidiger ins Spiel. Wie verwenden wir ihre Werkzeuge gegen sie? Es ist ein Katz-und-Maus-Spiel, das immer präsent sein wird. Kontinuierliche Anpassung auf beiden Seiten, jetzt Anpassung an den Maßstab der Maschine.

VB: Vor welchen Herausforderungen stehen Sicherheitsteams, wenn sie defensive KI im Vergleich zu offensiver KI einsetzen?

Reber: Vor 10 Jahren hat die Branche eine „Breach Hypothesis“-Strategie eingeführt. Wir haben die Dichotomie erkannt, dass der Gegner einmal Recht haben muss, während die Verteidigung jedes Mal Recht haben muss.

Unsere Gegner verstehen unsere Grenzen: menschliche Fähigkeiten, Vorschriften, konkurrierende Prioritäten. Da wir weiterhin mit einer zunehmenden Regulierung von Cyber-Geschäftspraktiken konfrontiert sind, wird die Notwendigkeit, diese richtig zu machen, immer größer.

Die Herausforderung bei KI ist grundsätzlich Vertrauen. Woher wissen wir, dass es effektiv ist, menschliche Fähigkeiten anderswo zu konzentrieren? Im Grunde ist es KI, bis wir ihr vertrauen, dann wird es zur Automatisierung.

Wir haben ein selbstfahrendes Auto, aber vertrauen wir darauf, dass es uns dorthin bringt? Die Straftat findet in einem Demolition Derby statt. Solange sie eine Wirkung haben, gewinnen sie. Sie haben keine Regeln, Grenzen oder rechtliche Aufsicht, um sie zu stoppen, wenn etwas schief geht.

VB: Wie können CISOs/Sicherheitsbeauftragte KI nutzen, um böswillige KI-Nutzungen zu „vereiteln“?

Reber: Es wird geschätzt, dass im Jahr 2022 über 14 Milliarden Geräte mit dem Internet verbunden sind. Um den Einsatz bösartiger KI zu verhindern, müssen Sicherheitsmanager weniger interessant sein als das durchschnittliche Ziel oder die Kosten des Angriffs erhöhen. Während wir uns in der Trainingsphase der generativen KI befinden,...

Nvidia CSO: Generative AI, ChatGPT machte Sicherheit zu einem Katz-und-Maus-Spiel

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

Ist generative KI gut für Sicherheitsteams? Seit dem Start von ChatGPT im November wurde heftig darüber diskutiert, ob künstliche Intelligenz (KI) die Bedrohungslandschaft zugunsten von Bedrohungsakteuren oder Bedrohungsfürsprechern kippen wird.

Es findet ein offensiv-defensiver KI-Krieg statt, in dem Cyberkriminelle Technologien wie generative KI verwenden können, um bösartigen Code zu generieren, während Sicherheitsteams damit Schwachstellen identifizieren können .

VentureBeat hat kürzlich ein Q&A mit David Reber, Chief Security Officer bei Nvidia und ehemaliger Senior Director of Cybersecurity bei Nutanix, durchgeführt. Er teilte seine Gedanken zu den Auswirkungen der generativen KI und Tools wie ChatGPT auf die Bedrohungslandschaft im Jahr 2023 mit.

Unten ist ein bearbeitetes Transkript:

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier VB: Warum wird KI benötigt, um KI-basierte Cyber-Bedrohungen zu stoppen?

Reber: Wenn du die Grenzen deines Gegners verstehst, weißt du, wohin er als nächstes gehen kann oder nicht. Eine der traditionellen Einschränkungen des Gegners war die Anpassung groß angelegter Angriffe und Handwerkskunst.

Dank der Fortschritte in der generativen KI sind fein abgestimmte, gezielte Angriffe selbst für die unerfahrensten Angreifer möglich.

Die Größe der Maschine ist die Konkurrenz. Die Geschwindigkeit und Komplexität von Angriffen übersteigt die menschlichen Fähigkeiten. Hier kommt die KI für den Verteidiger ins Spiel. Wie verwenden wir ihre Werkzeuge gegen sie? Es ist ein Katz-und-Maus-Spiel, das immer präsent sein wird. Kontinuierliche Anpassung auf beiden Seiten, jetzt Anpassung an den Maßstab der Maschine.

VB: Vor welchen Herausforderungen stehen Sicherheitsteams, wenn sie defensive KI im Vergleich zu offensiver KI einsetzen?

Reber: Vor 10 Jahren hat die Branche eine „Breach Hypothesis“-Strategie eingeführt. Wir haben die Dichotomie erkannt, dass der Gegner einmal Recht haben muss, während die Verteidigung jedes Mal Recht haben muss.

Unsere Gegner verstehen unsere Grenzen: menschliche Fähigkeiten, Vorschriften, konkurrierende Prioritäten. Da wir weiterhin mit einer zunehmenden Regulierung von Cyber-Geschäftspraktiken konfrontiert sind, wird die Notwendigkeit, diese richtig zu machen, immer größer.

Die Herausforderung bei KI ist grundsätzlich Vertrauen. Woher wissen wir, dass es effektiv ist, menschliche Fähigkeiten anderswo zu konzentrieren? Im Grunde ist es KI, bis wir ihr vertrauen, dann wird es zur Automatisierung.

Wir haben ein selbstfahrendes Auto, aber vertrauen wir darauf, dass es uns dorthin bringt? Die Straftat findet in einem Demolition Derby statt. Solange sie eine Wirkung haben, gewinnen sie. Sie haben keine Regeln, Grenzen oder rechtliche Aufsicht, um sie zu stoppen, wenn etwas schief geht.

VB: Wie können CISOs/Sicherheitsbeauftragte KI nutzen, um böswillige KI-Nutzungen zu „vereiteln“?

Reber: Es wird geschätzt, dass im Jahr 2022 über 14 Milliarden Geräte mit dem Internet verbunden sind. Um den Einsatz bösartiger KI zu verhindern, müssen Sicherheitsmanager weniger interessant sein als das durchschnittliche Ziel oder die Kosten des Angriffs erhöhen. Während wir uns in der Trainingsphase der generativen KI befinden,...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow