يخرج HiddenLayer من التخفي لحماية نماذج الذكاء الاصطناعي من الهجوم

نظرًا لتزايد شعبية الخدمات المدعومة بالذكاء الاصطناعي مثل GPT-3 من OpenAI ، أصبحت وسيلة هجوم جذابة بشكل متزايد. حتى في حالة الحماية خلف واجهة برمجة التطبيقات ، يمكن للقراصنة محاولة إجراء هندسة عكسية للنماذج التي تدعم هذه الخدمات أو استخدام البيانات "المتضاربة" للتلاعب بها. وفقًا لـ Gartner ، ستستغل 30٪ من جميع الهجمات الإلكترونية للذكاء الاصطناعي في عام 2022 هذه التقنيات جنبًا إلى جنب مع تسمم البيانات ، والذي يتضمن حقن البيانات السيئة في مجموعة البيانات المستخدمة لتدريب النماذج على مهاجمة أنظمة الذكاء الاصطناعي.

كما هو الحال في أي صناعة ، تعد مكافحة التهديدات الأمنية مهمة لا تنتهي أبدًا. لكن كريس سيستيتو يقول إن منصته ، HiddenLayer ، يمكنها تبسيطها لموردي الذكاء الاصطناعي كخدمة من خلال التعرف التلقائي على النشاط الضار مقابل الأنماط والرد على الهجمات.

خرج HiddenLayer من مخبأه اليوم بتمويل أولي بقيمة 6 ملايين دولار من Ten Eleven Ventures و Secure Octane ومستثمرين آخرين. Sestito ، المدير السابق لأبحاث التهديدات في Cylance ونائب رئيس الهندسة في Qualys ، شارك في تأسيس الشركة قبل عدة أشهر مع Tanner Burns و Jim Ballard. عمل بيرنز وبالارد أيضًا في Qualys و Cylance وقضيا بعض الوقت معًا في BlackBerry ، حيث كان بالارد قائد فريق الاحتفاظ بالبيانات وكان بيرنز باحثًا في التهديدات.

قال سيستيتو لـ TechCrunch في مقابلة عبر البريد الإلكتروني: "لقد ساهمت كل مؤسسة تقريبًا في موارد كبيرة في التعلم الآلي لاكتساب ميزة ، سواء كانت هذه القيمة تأتي في شكل تمايز المنتج أو توليد الإيرادات أو التوفير في التكلفة أو الكفاءة". "هجمات التعلم الآلي العدائية قادرة على إحداث نفس الضرر الذي رأيناه في الهجمات الإلكترونية التقليدية ، بما في ذلك الكشف عن بيانات العملاء وتدمير أنظمة الإنتاج. في الواقع ، في HiddenLayer ، نعتقد أننا لسنا بعيدين عن بيع نماذج التعلم الآلي لمنظماتهم. "

تدعي HiddenLayer أن تقنيتها يمكنها الدفاع عن النماذج ضد الهجمات دون الحاجة إلى الوصول إلى البيانات الأولية أو خوارزميات البائع. من خلال تحليل تفاعلات النموذج - بمعنى آخر ، البيانات التي يتم إدخالها في النموذج (مثل صورة القطط) والتنبؤات التي تم إنشاؤها بواسطة النموذج (مثل التسمية التوضيحية "القطط") - لتحديد الأنماط التي يمكن أن تكون ضارة ، يمكن لـ HiddenLayer العمل "غير- بشكل غازي "وبدون معرفة مسبقة ببيانات التدريب ، كما قال سيستيتو.

قال سيستيتو: "هجمات التعلم الآلي العدائية ليست عالية مثل برامج الفدية: عليك البحث عنها للقبض عليها في الوقت المناسب". "ركز HiddenLayer على منهج يحركه البحث والذي سيسمح لنا بنشر نتائجنا وتدريب العالم على الاستعداد".

قال مايك كوك ، باحث في الذكاء الاصطناعي وهو جزء من مجموعة Knives and Paintbrushes ، إنه من غير الواضح ما إذا كانت HiddenLayer تقوم بأي شيء "رائد أو جديد حقًا". (كوك ليس تابعًا لـ HiddenLayer.) ومع ذلك ، يلاحظ أن هناك فائدة واحدة لما يبدو أن HiddenLayer تفعله: محاولة تجميع المعرفة حول الهجمات على الذكاء الاصطناعي وجعلها متاحة على نطاق أوسع. / p>

"لا يزال ازدهار الذكاء الاصطناعي قويًا ، ولكن الكثير من هذه المعرفة حول كيفية عمل التعلم الآلي الحديث وأفضل طريقة لاستخدامه لا تزال محجوزة للأشخاص الذين لديهم معرفة. ومن الأمثلة التي لا تنسى بالنسبة لي الباحثين الذين استخرجوا التدريب الفردي بنجاح البيانات من أنظمة GPT-2 و GPT-3 الخاصة بـ OpenAI ، "قال كوك لموقع TechCrunch عبر البريد الإلكتروني. ويصعب الحصول عليه ، أحيانًا يكون كل ما تحتاجه الشركة حقًا هو توفير طرق ملائمة للوصول إليها."

إن HiddenLayer حاليًا في مرحلة ما قبل الإيرادات وليس لديها عملاء ، على الرغم من أن Sestito تدعي أن الشركة الناشئة قد أشركت العديد من شركاء التصميم "البارزين". في النهاية ، يعتقد كوك أن نجاحه سيتوقف بدرجة أقل على تقنية HiddenLayer وأكثر على ما إذا كان تهديد الهجمات كبيرًا كما تدعي الشركة.

"لا أعرف مدى انتشار الهجمات ضد أنظمة التعلم الآلي [حاليًا]. إن خداع عامل تصفية البريد العشوائي للسماح بمرور البريد الإلكتروني يختلف كثيرًا من حيث الحجم والشدة عن استخراج بيانات الملكية من نموذج لغة كبير ،" قال كوك .

بالنسبة له ، من الصعب تحديد أمثلة ملموسة للهجمات ضد أنظمة الذكاء الاصطناعي. ارتفع البحث حول هذا الموضوع بشكل كبير ، حيث تم نشر أكثر من 1500 مقالة حول أمن الذكاء الاصطناعي في عام 2019 على موقع النشر العلمي Arxiv.org ، ارتفاعًا من 56 في عام 2016 ، وفقًا لبحث أجرته Adversara. ولكن هناك القليل من التقارير العامة عن محاولات المتسللين ، على سبيل المثال ، لمهاجمة الشركات.

يخرج HiddenLayer من التخفي لحماية نماذج الذكاء الاصطناعي من الهجوم

نظرًا لتزايد شعبية الخدمات المدعومة بالذكاء الاصطناعي مثل GPT-3 من OpenAI ، أصبحت وسيلة هجوم جذابة بشكل متزايد. حتى في حالة الحماية خلف واجهة برمجة التطبيقات ، يمكن للقراصنة محاولة إجراء هندسة عكسية للنماذج التي تدعم هذه الخدمات أو استخدام البيانات "المتضاربة" للتلاعب بها. وفقًا لـ Gartner ، ستستغل 30٪ من جميع الهجمات الإلكترونية للذكاء الاصطناعي في عام 2022 هذه التقنيات جنبًا إلى جنب مع تسمم البيانات ، والذي يتضمن حقن البيانات السيئة في مجموعة البيانات المستخدمة لتدريب النماذج على مهاجمة أنظمة الذكاء الاصطناعي.

كما هو الحال في أي صناعة ، تعد مكافحة التهديدات الأمنية مهمة لا تنتهي أبدًا. لكن كريس سيستيتو يقول إن منصته ، HiddenLayer ، يمكنها تبسيطها لموردي الذكاء الاصطناعي كخدمة من خلال التعرف التلقائي على النشاط الضار مقابل الأنماط والرد على الهجمات.

خرج HiddenLayer من مخبأه اليوم بتمويل أولي بقيمة 6 ملايين دولار من Ten Eleven Ventures و Secure Octane ومستثمرين آخرين. Sestito ، المدير السابق لأبحاث التهديدات في Cylance ونائب رئيس الهندسة في Qualys ، شارك في تأسيس الشركة قبل عدة أشهر مع Tanner Burns و Jim Ballard. عمل بيرنز وبالارد أيضًا في Qualys و Cylance وقضيا بعض الوقت معًا في BlackBerry ، حيث كان بالارد قائد فريق الاحتفاظ بالبيانات وكان بيرنز باحثًا في التهديدات.

قال سيستيتو لـ TechCrunch في مقابلة عبر البريد الإلكتروني: "لقد ساهمت كل مؤسسة تقريبًا في موارد كبيرة في التعلم الآلي لاكتساب ميزة ، سواء كانت هذه القيمة تأتي في شكل تمايز المنتج أو توليد الإيرادات أو التوفير في التكلفة أو الكفاءة". "هجمات التعلم الآلي العدائية قادرة على إحداث نفس الضرر الذي رأيناه في الهجمات الإلكترونية التقليدية ، بما في ذلك الكشف عن بيانات العملاء وتدمير أنظمة الإنتاج. في الواقع ، في HiddenLayer ، نعتقد أننا لسنا بعيدين عن بيع نماذج التعلم الآلي لمنظماتهم. "

تدعي HiddenLayer أن تقنيتها يمكنها الدفاع عن النماذج ضد الهجمات دون الحاجة إلى الوصول إلى البيانات الأولية أو خوارزميات البائع. من خلال تحليل تفاعلات النموذج - بمعنى آخر ، البيانات التي يتم إدخالها في النموذج (مثل صورة القطط) والتنبؤات التي تم إنشاؤها بواسطة النموذج (مثل التسمية التوضيحية "القطط") - لتحديد الأنماط التي يمكن أن تكون ضارة ، يمكن لـ HiddenLayer العمل "غير- بشكل غازي "وبدون معرفة مسبقة ببيانات التدريب ، كما قال سيستيتو.

قال سيستيتو: "هجمات التعلم الآلي العدائية ليست عالية مثل برامج الفدية: عليك البحث عنها للقبض عليها في الوقت المناسب". "ركز HiddenLayer على منهج يحركه البحث والذي سيسمح لنا بنشر نتائجنا وتدريب العالم على الاستعداد".

قال مايك كوك ، باحث في الذكاء الاصطناعي وهو جزء من مجموعة Knives and Paintbrushes ، إنه من غير الواضح ما إذا كانت HiddenLayer تقوم بأي شيء "رائد أو جديد حقًا". (كوك ليس تابعًا لـ HiddenLayer.) ومع ذلك ، يلاحظ أن هناك فائدة واحدة لما يبدو أن HiddenLayer تفعله: محاولة تجميع المعرفة حول الهجمات على الذكاء الاصطناعي وجعلها متاحة على نطاق أوسع. / p>

"لا يزال ازدهار الذكاء الاصطناعي قويًا ، ولكن الكثير من هذه المعرفة حول كيفية عمل التعلم الآلي الحديث وأفضل طريقة لاستخدامه لا تزال محجوزة للأشخاص الذين لديهم معرفة. ومن الأمثلة التي لا تنسى بالنسبة لي الباحثين الذين استخرجوا التدريب الفردي بنجاح البيانات من أنظمة GPT-2 و GPT-3 الخاصة بـ OpenAI ، "قال كوك لموقع TechCrunch عبر البريد الإلكتروني. ويصعب الحصول عليه ، أحيانًا يكون كل ما تحتاجه الشركة حقًا هو توفير طرق ملائمة للوصول إليها."

إن HiddenLayer حاليًا في مرحلة ما قبل الإيرادات وليس لديها عملاء ، على الرغم من أن Sestito تدعي أن الشركة الناشئة قد أشركت العديد من شركاء التصميم "البارزين". في النهاية ، يعتقد كوك أن نجاحه سيتوقف بدرجة أقل على تقنية HiddenLayer وأكثر على ما إذا كان تهديد الهجمات كبيرًا كما تدعي الشركة.

"لا أعرف مدى انتشار الهجمات ضد أنظمة التعلم الآلي [حاليًا]. إن خداع عامل تصفية البريد العشوائي للسماح بمرور البريد الإلكتروني يختلف كثيرًا من حيث الحجم والشدة عن استخراج بيانات الملكية من نموذج لغة كبير ،" قال كوك .

بالنسبة له ، من الصعب تحديد أمثلة ملموسة للهجمات ضد أنظمة الذكاء الاصطناعي. ارتفع البحث حول هذا الموضوع بشكل كبير ، حيث تم نشر أكثر من 1500 مقالة حول أمن الذكاء الاصطناعي في عام 2019 على موقع النشر العلمي Arxiv.org ، ارتفاعًا من 56 في عام 2016 ، وفقًا لبحث أجرته Adversara. ولكن هناك القليل من التقارير العامة عن محاولات المتسللين ، على سبيل المثال ، لمهاجمة الشركات.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow