رغم التقدّم الكبير في مجال الذكاء الاصطناعي، تبرز ظاهرة “هلوسة النماذج” كإحدى أكبر التحديات التي تهدد موثوقية استخدام هذه التقنية المتسارعة في التطور.
تشير تقارير حديثة إلى أن مشكلة الهلوسة – أي إنتاج معلومات غير دقيقة أو مختلقة من قبل الأنظمة التوليدية – لا تزال قائمة بل تتفاقم، حتى مع الإصدارات الأحدث من النماذج المتقدمة مثل “ChatGPT” و”Claude”. وتشكل هذه الظاهرة مصدر قلق متزايد للمطورين والمستخدمين، خاصة في ظل الاعتماد المتنامي على هذه النماذج في مجالات حيوية.
ففي اختبارات أجرتها شركة “OpenAI”، تبيّن أن نموذجها الأحدث “o3” سجل معدلات هلوسة وصلت إلى 33% عند التحقق من معلومات حول شخصيات عامة، وهي نسبة تفوق ضعف المعدل المسجّل في النموذج السابق “o1”. أما “o4 mini”، فبلغت نسبة الهلوسة فيه 48%. وعند اختبار الأسئلة العامة، ارتفعت النسب إلى 51% و79% في “o3” و”o4 mini” على التوالي، مقابل 44% في “o1”.
المفاجئ أن هذه الزيادة في معدل الهلوسة جاءت رغم اعتماد ما يُعرف بـ”أنظمة التفكير المنطقي”، التي طُورت خصيصاً لتعزيز الاستدلال والتحليل. ورغم تحسّن أداء النماذج في المهارات الرياضية، إلا أن نسبة الأخطاء الناتجة عن الاستدلال الخاطئ ازدادت.
وتكمن خطورة هذه الظاهرة في انعكاساتها العملية، إذ قد تؤدي إلى نشر معلومات مضللة أو اتخاذ قرارات خاطئة من قبل طلاب، باحثين، وحتى مهنيين يعتمدون على الذكاء الاصطناعي في أعمالهم، ما قد يترتب عليه خسائر مادية أو قانونية أو تراجع في الثقة المؤسسية.
رئيسة شركة “Anthropic”، دانييلا أمودي، المطوّرة لنظام “Claude 2”، صرّحت لوكالة أسوشييتد برس: “لا أعتقد أن هناك أي نموذج اليوم لا يعاني من الهلوسة”، مؤكدة أن هذه الظاهرة تأخذ أشكالاً متعددة مثل: هلوسات واقعية، استشهادات مغلوطة، تناقضات منطقية، هلوسات بصرية، أو تلك الناتجة عن تحيّزات ضمنية في بنية النموذج.
وتشير دراسة حديثة صادرة عن “OpenAI” إلى الحاجة الماسة لإجراء أبحاث أعمق لفهم أسباب هذه السلوكيات، خاصة في ظل حجم البيانات الضخم الذي تتعلّم منه النماذج، والذي غالباً ما يتجاوز قدرة البشر على التتبع والتحليل.
وفي محاولة للتخفيف من هذه الإشكالية، طوّر معهد ماساتشوستس للتكنولوجيا (MIT) تقنية “SimGen”، المصممة لمساعدة المدققين البشريين على رصد الهلوسات عبر تقديم روابط مباشرة للمصادر الأصلية، ما يساهم في تقليص وقت التحقق بنسبة تصل إلى 20%.
ومع استمرار الابتكار في هذا المجال، تبقى “هلوسات الذكاء الاصطناعي” عقبة أساسية أمام دمج هذه التقنية بشكل آمن وموثوق في حياة المستخدمين اليومية.