Got It AI ينشئ مدققًا للحقيقة لـ "هلوسة" ChatGPT

تحقق من جميع الجلسات عند الطلب لقمة Smart Security من هنا .

قالت Got It AI إنها طورت ذكاءً اصطناعيًا لتحديد ومعالجة "الهلوسة" في ChatGPT لتطبيقات المؤسسات.

استحوذت ChatGPT على عالم التكنولوجيا من خلال إظهار قدرات الذكاء الاصطناعي التوليدي ، والتي يمكن أن تسمح للأشخاص العاديين بخداع الذكاء الاصطناعي لإنشاء مجموعة متنوعة من الأشياء ، من برامج الكمبيوتر إلى الأغاني الأصلية.

بعض هذه الإبداعات رائعة. لكن الشيء السيئ في ChatGPT هو معدل الخطأ فيه. Peter Relan, cofondateur de la startup d'IA conversationnelle Got It AI, a déclaré dans une interview avec VentureBeat que les chatbots pour l'IA conversationnelle sur les bases de connaissances d'entreprise ne peuvent pas se permettre de se tromper 15 à 20 % الوقت. لقد وجدت معدل الخطأ بسهولة تامة عن طريق القيام ببعض المطالبات البسيطة باستخدام ChatGPT.

يقول ريلان إن إجابات ChatGPT السيئة هي "هلوسة". لذلك ابتكرت شركته الخاصة "مدقق الحقيقة" لتحديد متى يكون ChatGPT "مهلوسًا" (توليد ردود ملفقة) فيما يتعلق بالإجابات على الأسئلة من عدد كبير من المقالات أو المحتوى في قاعدة بيانات. المعرفة. حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الأساسي للذكاء الاصطناعي والتعلم الآلي في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم. انظر هنا

قال إن هذا الابتكار يتيح نشر تجارب شبيهة بـ ChatGPT دون المخاطرة بتقديم إجابات غير صحيحة من الناحية الواقعية للمستخدمين أو الموظفين. يمكن للشركات استخدام مزيج من ChatGPT و Truth Checker لنشر أنظمة الذكاء الاصطناعي للمحادثة بثقة والتي تستفيد من قواعد المعرفة الواسعة مثل تلك المستخدمة في دعم العملاء أو لاستعلامات قاعدة المعرفة الداخلية ، كما أعلن.

يعد اكتشاف الأخطاء أمرًا سهلاً في ChatGPT.

التحقق الذاتي من الحقيقة باستخدام الذكاء الاصطناعي مع مجال مستهدف للمحتوى (مثل قاعدة معرفية كبيرة أو مجموعة من المقالات) يستخدم نظام ذكاء اصطناعي متقدم يعتمد على نموذج اللغة الكبيرة (LLM) للتدريب بشكل مستقل دون تدخل بشري على وجه التحديد لمهمة واحدة: التحقق من الحقيقة.

يمكن بعد ذلك استخدام ChatGPT ، الذي يأتي مع محتوى من نفس نطاق المحتوى ، للإجابة على الأسئلة في حوار دردشة متعدد الجولات ، ويتم تقييم كل إجابة على أنها صحيحة قبل تقديمها للمستخدم. عندما يتم اكتشاف هلوسة ، لا يتم تقديم الاستجابة للمستخدم ؛ وبدلاً من ذلك ، تم توفير إشارة إلى المقالات ذات الصلة التي تحتوي على الإجابة ، كما قال ريلان.

"اختبرنا تقنيتنا باستخدام مجموعة بيانات تضم أكثر من 1000 مقالة في عدة قواعد معرفية مختلفة باستخدام اختبارات متعددة ...

Got It AI ينشئ مدققًا للحقيقة لـ "هلوسة" ChatGPT

تحقق من جميع الجلسات عند الطلب لقمة Smart Security من هنا .

قالت Got It AI إنها طورت ذكاءً اصطناعيًا لتحديد ومعالجة "الهلوسة" في ChatGPT لتطبيقات المؤسسات.

استحوذت ChatGPT على عالم التكنولوجيا من خلال إظهار قدرات الذكاء الاصطناعي التوليدي ، والتي يمكن أن تسمح للأشخاص العاديين بخداع الذكاء الاصطناعي لإنشاء مجموعة متنوعة من الأشياء ، من برامج الكمبيوتر إلى الأغاني الأصلية.

بعض هذه الإبداعات رائعة. لكن الشيء السيئ في ChatGPT هو معدل الخطأ فيه. Peter Relan, cofondateur de la startup d'IA conversationnelle Got It AI, a déclaré dans une interview avec VentureBeat que les chatbots pour l'IA conversationnelle sur les bases de connaissances d'entreprise ne peuvent pas se permettre de se tromper 15 à 20 % الوقت. لقد وجدت معدل الخطأ بسهولة تامة عن طريق القيام ببعض المطالبات البسيطة باستخدام ChatGPT.

يقول ريلان إن إجابات ChatGPT السيئة هي "هلوسة". لذلك ابتكرت شركته الخاصة "مدقق الحقيقة" لتحديد متى يكون ChatGPT "مهلوسًا" (توليد ردود ملفقة) فيما يتعلق بالإجابات على الأسئلة من عدد كبير من المقالات أو المحتوى في قاعدة بيانات. المعرفة. حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الأساسي للذكاء الاصطناعي والتعلم الآلي في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم. انظر هنا

قال إن هذا الابتكار يتيح نشر تجارب شبيهة بـ ChatGPT دون المخاطرة بتقديم إجابات غير صحيحة من الناحية الواقعية للمستخدمين أو الموظفين. يمكن للشركات استخدام مزيج من ChatGPT و Truth Checker لنشر أنظمة الذكاء الاصطناعي للمحادثة بثقة والتي تستفيد من قواعد المعرفة الواسعة مثل تلك المستخدمة في دعم العملاء أو لاستعلامات قاعدة المعرفة الداخلية ، كما أعلن.

يعد اكتشاف الأخطاء أمرًا سهلاً في ChatGPT.

التحقق الذاتي من الحقيقة باستخدام الذكاء الاصطناعي مع مجال مستهدف للمحتوى (مثل قاعدة معرفية كبيرة أو مجموعة من المقالات) يستخدم نظام ذكاء اصطناعي متقدم يعتمد على نموذج اللغة الكبيرة (LLM) للتدريب بشكل مستقل دون تدخل بشري على وجه التحديد لمهمة واحدة: التحقق من الحقيقة.

يمكن بعد ذلك استخدام ChatGPT ، الذي يأتي مع محتوى من نفس نطاق المحتوى ، للإجابة على الأسئلة في حوار دردشة متعدد الجولات ، ويتم تقييم كل إجابة على أنها صحيحة قبل تقديمها للمستخدم. عندما يتم اكتشاف هلوسة ، لا يتم تقديم الاستجابة للمستخدم ؛ وبدلاً من ذلك ، تم توفير إشارة إلى المقالات ذات الصلة التي تحتوي على الإجابة ، كما قال ريلان.

"اختبرنا تقنيتنا باستخدام مجموعة بيانات تضم أكثر من 1000 مقالة في عدة قواعد معرفية مختلفة باستخدام اختبارات متعددة ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow