على الرغم من قدراتها المثيرة للإعجاب ، تظل الحقيقة أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT لا يمكن التنبؤ بها إلى حد كبير ويصعب ترويضها – فهي غالبًا ما تخرج عن حواجز الحماية ، وتنتج معلومات مضللة أو أشياء مشوشة لا يمكن وصفها إلا بأنها غير منطقية. يشار إلى هذه الظاهرة باسم “هلوسة” الذكاء الاصطناعي ، وقد أعلنت شركة OpenAI أخيرًا أنها تفعل شيئًا حيال ذلك.
كشف صانع ChatGPT عن استراتيجية جديدة لمكافحة الهلوسة حيث يتم تدريب نماذج الذكاء الاصطناعي لمكافأة أنفسهم على كل خطوة منطقية صحيحة عندما يصلون إلى إجابة ، في عملية تسمى “الإشراف على العملية”. هذا يختلف عن “الإشراف على النتائج” ، وهو التنفيذ الحالي حيث يتم منح المكافأة في نتيجة نهائية صحيحة.
يمكن أن يؤدي الإشراف على العملية إلى ذكاء اصطناعي قابل للتفسير بشكل أفضل ، وفقًا للباحثين ، نظرًا لأن الاستراتيجية تتبع سلسلة فكرية أكثر شبهاً بالإنسان. يضيف أوبن إيه آي أن تخفيف الهلوسة هو خطوة حاسمة نحو خلق الذكاء الاصطناعي العام ، أو الذكاء القادر على فهم العالم مثل أي إنسان.
توفر مشاركة مدونة OpenAI أمثلة رياضية متعددة توضح التحسينات في الدقة التي يجلبها استخدام الإشراف على العملية. ومع ذلك ، تذكر الشركة أنه من “غير المعروف” مدى جودة عمل الإشراف على العمليات خارج مجال الرياضيات ، مضيفة أنها ستستكشف تأثيرها في المجالات الأخرى.
لقد حذرت OpenAI المستخدمين بشكل بارز من الثقة العمياء في ChatGPT منذ البداية ، حيث تقدم واجهة روبوت الذكاء الاصطناعي إخلاء مسؤولية يقرأ ، “قد ينتج عن ChatGPT معلومات غير دقيقة حول الأشخاص أو الأماكن أو الحقائق”.
اعترفت الشركة مرة أخرى بأوجه القصور هذه في تقريرها: “حتى النماذج الحديثة تميل إلى إنتاج الأكاذيب – فهي تظهر ميلًا لاختراع الحقائق في لحظات عدم اليقين. تعتبر هذه الهلوسة مشكلة بشكل خاص في المجالات التي تتطلب تفكيرًا متعدد الخطوات ، لأن خطأ منطقيًا واحدًا يكفي لعرقلة حل أكبر بكثير. الكشف عن الهلوسة والتخفيف من حدتها أمر ضروري لتحسين قدرات التفكير “.
ومع ذلك ، يجادل بعض الخبراء والنقاد بأن الإجراءات التي اتخذتها OpenAI حتى الآن ليست كافية وأن هناك حاجة إلى مزيد من الشفافية والتنظيم.
اكتشاف المزيد من مجلة الإخلاص
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.