كشفت دراسة جديدة لشركة أبل عن وجود خلل كبير في النماذج اللغوية الكبيرة مثل ChatGPT، حيث تنخفض دقتها بشكل كبير عند مواجهة معلومات غير ذات صلةـ المر الذي يثير تساؤلات حول قدرات الفهم الحقيقية للذكاء الاصطناعي والحاجة إلى الحذر في الاعتماد الكامل على هذه الأنظمة لتولي المهام الأكثر تعقيدا.
أجرى باحثون في شركة أبل بقيادة إيمان ميرزاده، دراسة حديثة بشأن ذكاء نماذج اللغة الكبيرة مثل ChatGPT استخدمت خلالها، اختبارًا جديدًا يسمى GSM-Symbolic لمعرفة مدى قدرة أنظمة الذكاء الاصطناعي هذه على التعامل مع الرياضيات والتفكير المنطقي.
عندما ألقى الباحثين معلومات إضافية عشوائية في الأسئلة، انخفضت دقة النماذج بشكل كبير – في بعض الحالات، بنسبة تصل إلى 65 %. بالرغم من عدم تغير السؤال الرئيسي، مما يشير إلى أن أنظمة الذكاء الاصطناعي الحديثة تفتقر إلى الفهم الحقيقي لمهامها.
تشير الدراسة إلى فرق جوهري بين الظهور بمظهر ذكي وفهم الأشياء فعليا، تبدو العديد من الإجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي صحيحة للوهلة الأولى، ولكن عندما تتعمق فيها، تنهار. وهذا يسلط الضوء على أن التحدث مثل الإنسان لا يعني أن الآلة تفكر مثله.
بسبب الإجابات المغلوطة التي تقدمها تلك النماذج تقترح الدراسة أننا بحاجة إلى إعادة التفكير في مدى ثقتنا واعتمادنا على هذه الأنظمة، فهي على الرغم من انها معين قوي خاصة في المهام المكررة والتقليدية، لكن بها بعض العيوب الكبيرة، خاصة عندما تتعامل مع مسائل صعبة ومعقدة.
يمكن للذكاء الاصطناعي أن يكون مفيد، لكن ما زال مثل أي آلة له حدود ومع تزايد أهمية هذه الأدوات في حياة المستخدمين، فإن معرفة حدودها ستكون أمرًا بالغ الأهمية لاستخدام هذه التكنولوجيا بذكاء ومسؤولية.