الذكاء الاصطناعي التوليدي: نموذج عملي لأمن البيانات

توجه إلى مكتبتنا حسب الطلب لعرض جلسات VB Transform 2023. سجل هنا

لقد أدى الارتفاع السريع في نماذج اللغات الكبيرة (LLM) والذكاء الاصطناعي التوليدي إلى ظهور تحديات جديدة أمام فرق الأمان حول العالم. ومن خلال خلق طرق جديدة للوصول إلى البيانات، فإن جيل الذكاء الاصطناعي لا يتناسب مع نماذج الأمان التقليدية التي تهدف إلى منع البيانات من الوصول إلى الأشخاص الذين ليس من المفترض أن يحصلوا عليها.

لتمكين المؤسسات من التطور بسرعة إلى جيل الذكاء الاصطناعي دون التعرض لمخاطر مفرطة، يجب على موردي الأمن تحديث برامجهم، مع الأخذ في الاعتبار الأنواع الجديدة من المخاطر وكيفية الضغط على برامجهم الحالية.

الوسطاء غير الموثوق بهم: مصدر جديد لتكنولوجيا المعلومات في الظل

يتم حاليًا بناء وتطوير صناعة بأكملها بفضل ماجستير إدارة الأعمال الذي تستضيفه خدمات مثل OpenAI وHugging Face وAnthropic. بالإضافة إلى ذلك، هناك عدد من النماذج المفتوحة المتاحة مثل LLaMA من Meta وGPT-2 من OpenAI.

يمكن أن يساعد الوصول إلى هذه النماذج موظفي المؤسسة على حل مشكلات العمل. ولكن لأسباب مختلفة، لا يستطيع الجميع الوصول مباشرة إلى هذه النماذج. وبدلاً من ذلك، يبحث الموظفون غالبًا عن أدوات، مثل ملحقات المتصفح، وتطبيقات إنتاجية SaaS، وتطبيقات Slack، وواجهات برمجة التطبيقات المدفوعة، التي تعد باستخدام القوالب بسهولة. حدث

VB Transform 2023 حسب الطلب

هل فاتتك جلسة VB Transform 2023؟ قم بالتسجيل للوصول إلى المكتبة حسب الطلب لجميع جلساتنا المميزة.

سجل الان

وسرعان ما أصبح هؤلاء الوسطاء مصدرًا جديدًا لتكنولوجيا المعلومات الظلية. إن استخدام امتداد Chrome لكتابة بريد إلكتروني أفضل للمبيعات لا يبدو وكأنه الاستعانة بمورد؛ هذا يبدو وكأنه اختراق الإنتاجية. ليس من الواضح للعديد من الموظفين أنهم يقومون بتسريب بيانات حساسة مهمة من خلال مشاركتها كلها مع طرف ثالث، حتى لو كانت مؤسستك نفسها مرتاحة للنماذج والموردين الأساسيين.

التدريب خارج الحدود الأمنية

يعد هذا النوع من المخاطر جديدًا نسبيًا بالنسبة لمعظم المؤسسات. هناك ثلاثة قيود محتملة تلعب دورًا في هذا الخطر:

الحدود بين مستخدمي النموذج التأسيسي الحدود بين عملاء الشركة التي تقوم بالصقل على نموذج أساسي الحدود بين المستخدمين داخل المؤسسة الذين يتمتعون بحقوق وصول مختلفة إلى البيانات المستخدمة لتحسين النموذج

في كل حالة من هذه الحالات، تكمن المشكلة في فهم البيانات التي تدخل في النموذج. يجب فقط على الأفراد الذين لديهم حق الوصول إلى بيانات التدريب أو تصحيح الأخطاء الوصول إلى النموذج الناتج.

على سبيل المثال، لنفترض أن إحدى المؤسسات تستخدم منتجًا يعمل على تحسين شهادة LLM باستخدام محتوى من مجموعة الإنتاجية الخاصة بها. كيف ستضمن هذه الأداة عدم قدرتي على استخدام القالب لاسترداد المعلومات في الأصل من المستندات التي ليس لدي إذن بالوصول إليها؟ بالإضافة إلى ذلك، كيف يمكن تحديث هذه الآلية بعد إلغاء حق الوصول الذي كنت أتمتع به في البداية؟

هذه مشكلات قابلة للعلاج، ولكنها تتطلب اهتمامًا خاصًا.

الذكاء الاصطناعي التوليدي: نموذج عملي لأمن البيانات

توجه إلى مكتبتنا حسب الطلب لعرض جلسات VB Transform 2023. سجل هنا

لقد أدى الارتفاع السريع في نماذج اللغات الكبيرة (LLM) والذكاء الاصطناعي التوليدي إلى ظهور تحديات جديدة أمام فرق الأمان حول العالم. ومن خلال خلق طرق جديدة للوصول إلى البيانات، فإن جيل الذكاء الاصطناعي لا يتناسب مع نماذج الأمان التقليدية التي تهدف إلى منع البيانات من الوصول إلى الأشخاص الذين ليس من المفترض أن يحصلوا عليها.

لتمكين المؤسسات من التطور بسرعة إلى جيل الذكاء الاصطناعي دون التعرض لمخاطر مفرطة، يجب على موردي الأمن تحديث برامجهم، مع الأخذ في الاعتبار الأنواع الجديدة من المخاطر وكيفية الضغط على برامجهم الحالية.

الوسطاء غير الموثوق بهم: مصدر جديد لتكنولوجيا المعلومات في الظل

يتم حاليًا بناء وتطوير صناعة بأكملها بفضل ماجستير إدارة الأعمال الذي تستضيفه خدمات مثل OpenAI وHugging Face وAnthropic. بالإضافة إلى ذلك، هناك عدد من النماذج المفتوحة المتاحة مثل LLaMA من Meta وGPT-2 من OpenAI.

يمكن أن يساعد الوصول إلى هذه النماذج موظفي المؤسسة على حل مشكلات العمل. ولكن لأسباب مختلفة، لا يستطيع الجميع الوصول مباشرة إلى هذه النماذج. وبدلاً من ذلك، يبحث الموظفون غالبًا عن أدوات، مثل ملحقات المتصفح، وتطبيقات إنتاجية SaaS، وتطبيقات Slack، وواجهات برمجة التطبيقات المدفوعة، التي تعد باستخدام القوالب بسهولة. حدث

VB Transform 2023 حسب الطلب

هل فاتتك جلسة VB Transform 2023؟ قم بالتسجيل للوصول إلى المكتبة حسب الطلب لجميع جلساتنا المميزة.

سجل الان

وسرعان ما أصبح هؤلاء الوسطاء مصدرًا جديدًا لتكنولوجيا المعلومات الظلية. إن استخدام امتداد Chrome لكتابة بريد إلكتروني أفضل للمبيعات لا يبدو وكأنه الاستعانة بمورد؛ هذا يبدو وكأنه اختراق الإنتاجية. ليس من الواضح للعديد من الموظفين أنهم يقومون بتسريب بيانات حساسة مهمة من خلال مشاركتها كلها مع طرف ثالث، حتى لو كانت مؤسستك نفسها مرتاحة للنماذج والموردين الأساسيين.

التدريب خارج الحدود الأمنية

يعد هذا النوع من المخاطر جديدًا نسبيًا بالنسبة لمعظم المؤسسات. هناك ثلاثة قيود محتملة تلعب دورًا في هذا الخطر:

الحدود بين مستخدمي النموذج التأسيسي الحدود بين عملاء الشركة التي تقوم بالصقل على نموذج أساسي الحدود بين المستخدمين داخل المؤسسة الذين يتمتعون بحقوق وصول مختلفة إلى البيانات المستخدمة لتحسين النموذج

في كل حالة من هذه الحالات، تكمن المشكلة في فهم البيانات التي تدخل في النموذج. يجب فقط على الأفراد الذين لديهم حق الوصول إلى بيانات التدريب أو تصحيح الأخطاء الوصول إلى النموذج الناتج.

على سبيل المثال، لنفترض أن إحدى المؤسسات تستخدم منتجًا يعمل على تحسين شهادة LLM باستخدام محتوى من مجموعة الإنتاجية الخاصة بها. كيف ستضمن هذه الأداة عدم قدرتي على استخدام القالب لاسترداد المعلومات في الأصل من المستندات التي ليس لدي إذن بالوصول إليها؟ بالإضافة إلى ذلك، كيف يمكن تحديث هذه الآلية بعد إلغاء حق الوصول الذي كنت أتمتع به في البداية؟

هذه مشكلات قابلة للعلاج، ولكنها تتطلب اهتمامًا خاصًا.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow