Wie sich Deepfakes in Menschen (und Unternehmensnetzwerke) „hacken“

Treffen Sie sich vom 11. bis 12. Juli in San Francisco mit Führungskräften, um zu erfahren, wie Führungskräfte KI-Investitionen für den Erfolg integrieren und optimieren. Erfahren Sie mehr

Einst plump und teuer, stellen Deepfakes heute eine wachsende Bedrohung für die Cybersicherheit dar.

Ein im Vereinigten Königreich ansässiges Unternehmen verlor 243.000 $ durch einen Deepfake, der die Stimme eines CEO so genau reproduzierte, dass die Person am anderen Ende eine betrügerische Banküberweisung autorisierte. Ein ähnlicher „Deep-Voice“-Angriff, der genau den deutlichen Akzent eines Vorstandsmitglieds nachahmte, kostete ein anderes Unternehmen 35 Millionen $.

Vielleicht noch beängstigender ist, dass der CCO der Kryptofirma Binance berichtet hat, dass ein „ausgefeiltes Hacking-Team“ Videos seiner vergangenen Fernsehauftritte verwendet hat, um ein glaubwürdiges KI-Hologramm zu erstellen, das die Menschen dazu ermutigt, an den Meetings teilzunehmen. „Abgesehen davon, dass die 15 £, die ich während COVID verdient habe, auffällig abwesend waren, wurde dieser Deepfake so aufpoliert, dass er mehrere sehr schlaue Mitglieder der Krypto-Community täuschen konnte“, schrieb er.

Billiger, raffinierter und gefährlicher

Lassen Sie sich nicht dazu verleiten, Deepfakes auf die leichte Schulter zu nehmen. Das Cyber ​​​​Threat Intelligence (ACTI)-Team von Accenture stellt fest, dass die jüngsten Deepfakes zwar lächerlich grob sein mögen, der Trend in der Technologie jedoch zu mehr Raffinesse zu geringeren Kosten geht.

Fall

Transformation 2023

Besuchen Sie uns vom 11. bis 12. Juli in San Francisco, wo Führungskräfte diskutieren, wie sie KI-Investitionen für den Erfolg integriert und optimiert und häufige Fallstricke vermieden haben.

Jetzt registrieren

Tatsächlich glaubt das ACTI-Team, dass hochwertige Deepfakes, die darauf abzielen, sich als bestimmte Personen in Organisationen auszugeben, bereits häufiger vorkommen als berichtet. In einem aktuellen Beispiel wurde die Verwendung von Deepfake-Technologien von einem legitimen Unternehmen verwendet, um betrügerische Nachrichtensprecher zu erstellen, um chinesische Desinformationen zu verbreiten, die zeigen, dass der Missbrauch vorhanden ist und bereits Unternehmen betrifft.

Eine natürliche Entwicklung

Das ACTI-Team glaubt, dass Deepfake-Angriffe die logische Fortsetzung von Social Engineering sind. Tatsächlich sollten sie als Ganzes betrachtet werden, da das größte bösartige Potenzial von Deepfakes darin besteht, sich mit anderen Social-Engineering-Schemata zu integrieren. Dies kann es für Opfer noch schwieriger machen, eine bereits starke Bedrohungslandschaft zu leugnen.

ACTI hat in den letzten zwei Jahren signifikante evolutionäre Veränderungen bei Deepfakes verfolgt. Beispielsweise konzentrierte sich zwischen dem 1. Januar und dem 31. Dezember 2021 das unterirdische Geschwätz im Zusammenhang mit dem Verkauf und Kauf gefälschter Waren und Dienstleistungen weitgehend auf allgemeinen Betrug, Kryptowährungsbetrug (wie z.

Wie sich Deepfakes in Menschen (und Unternehmensnetzwerke) „hacken“

Treffen Sie sich vom 11. bis 12. Juli in San Francisco mit Führungskräften, um zu erfahren, wie Führungskräfte KI-Investitionen für den Erfolg integrieren und optimieren. Erfahren Sie mehr

Einst plump und teuer, stellen Deepfakes heute eine wachsende Bedrohung für die Cybersicherheit dar.

Ein im Vereinigten Königreich ansässiges Unternehmen verlor 243.000 $ durch einen Deepfake, der die Stimme eines CEO so genau reproduzierte, dass die Person am anderen Ende eine betrügerische Banküberweisung autorisierte. Ein ähnlicher „Deep-Voice“-Angriff, der genau den deutlichen Akzent eines Vorstandsmitglieds nachahmte, kostete ein anderes Unternehmen 35 Millionen $.

Vielleicht noch beängstigender ist, dass der CCO der Kryptofirma Binance berichtet hat, dass ein „ausgefeiltes Hacking-Team“ Videos seiner vergangenen Fernsehauftritte verwendet hat, um ein glaubwürdiges KI-Hologramm zu erstellen, das die Menschen dazu ermutigt, an den Meetings teilzunehmen. „Abgesehen davon, dass die 15 £, die ich während COVID verdient habe, auffällig abwesend waren, wurde dieser Deepfake so aufpoliert, dass er mehrere sehr schlaue Mitglieder der Krypto-Community täuschen konnte“, schrieb er.

Billiger, raffinierter und gefährlicher

Lassen Sie sich nicht dazu verleiten, Deepfakes auf die leichte Schulter zu nehmen. Das Cyber ​​​​Threat Intelligence (ACTI)-Team von Accenture stellt fest, dass die jüngsten Deepfakes zwar lächerlich grob sein mögen, der Trend in der Technologie jedoch zu mehr Raffinesse zu geringeren Kosten geht.

Fall

Transformation 2023

Besuchen Sie uns vom 11. bis 12. Juli in San Francisco, wo Führungskräfte diskutieren, wie sie KI-Investitionen für den Erfolg integriert und optimiert und häufige Fallstricke vermieden haben.

Jetzt registrieren

Tatsächlich glaubt das ACTI-Team, dass hochwertige Deepfakes, die darauf abzielen, sich als bestimmte Personen in Organisationen auszugeben, bereits häufiger vorkommen als berichtet. In einem aktuellen Beispiel wurde die Verwendung von Deepfake-Technologien von einem legitimen Unternehmen verwendet, um betrügerische Nachrichtensprecher zu erstellen, um chinesische Desinformationen zu verbreiten, die zeigen, dass der Missbrauch vorhanden ist und bereits Unternehmen betrifft.

Eine natürliche Entwicklung

Das ACTI-Team glaubt, dass Deepfake-Angriffe die logische Fortsetzung von Social Engineering sind. Tatsächlich sollten sie als Ganzes betrachtet werden, da das größte bösartige Potenzial von Deepfakes darin besteht, sich mit anderen Social-Engineering-Schemata zu integrieren. Dies kann es für Opfer noch schwieriger machen, eine bereits starke Bedrohungslandschaft zu leugnen.

ACTI hat in den letzten zwei Jahren signifikante evolutionäre Veränderungen bei Deepfakes verfolgt. Beispielsweise konzentrierte sich zwischen dem 1. Januar und dem 31. Dezember 2021 das unterirdische Geschwätz im Zusammenhang mit dem Verkauf und Kauf gefälschter Waren und Dienstleistungen weitgehend auf allgemeinen Betrug, Kryptowährungsbetrug (wie z.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow