هل يمكن ان يتحول الذكاء الاصطناعى الى غباء.. .اعرف الاجابة

كشفت دراسة حديثة مشتركة بين جامعات تكساس إيه آند إم وتكساس وبيردو عن ظاهرة مثيرة للقلق أطلقت عليها اسم "فرضية تلف دماغ نماذج اللغة الكبيرة" (LLM Brain Rot Hypothesis).
تشير النتائج، إلى أن التعرض المستمر لنصوص الإنترنت السطحية والمنخفضة الجودة يمكن أن يؤدي إلى تدهور معرفى دائم فى أداء نماذج الذكاء الاصطناعى، فى ظاهرة تشبه ما يُعرف بـ"تلف الدماغ" البشرى الناتج عن استهلاك المحتوى الردىء.
كيف يحدث "تلف الدماغ" في الذكاء الاصطناعي؟
للتجربة، قام الباحثون بتغذية عدد من النماذج الذكية بتيار مستمر من منشورات موقع X (تويتر سابقاً)، تضمنت عبارات جذابة من نوع الطُعم الرقمى (Clickbait) مثل "اليوم فقط!، أو كلمة لن تصدق ما حدث.
النتائج كانت صادمة:
تراجع أداء النماذج على اختبار ARC للاستدلال المنطقي من 74.9 إلى 57.2، وانخفضت نتائجها على اختبار RULER لفهم السياق الطويل من 84.4 إلى 52.3.
لاحظ الباحثون أن النماذج بدأت تُظهر أنماط تفكير متسرعة، فتتخطى خطوات التحليل وتُصدر إجابات غير دقيقة بثقة زائدة، والأخطر أن هذه النماذج بدأت تُظهر صفات نفسية سلبية، إذ ارتفعت مؤشرات النرجسية والاعتلال النفسي (Psychopathy)، بينما تراجعت صفات إيجابية مثل الضمير والانسجام، حتى بعد إعادة تغذيتها لاحقاً ببيانات عالية الجودة، استمرت فى إظهار "آثار دائمة" من المحتوى الرديء الذي تعرضت له في البداية.
الحل: "نظافة البيانات" قبل الذكاء
تؤكد الدراسة أن الذكاء الاصطناعي ليس محصناً من التأثيرات السلبية للمحتوى السيئ، مما يجعل من الضروري إعادة النظر في مصادر البيانات المستخدمة لتدريبه، ويوصي الباحثون بأن تتبنى الشركات سياسات صارمة لمراقبة جودة البيانات، لمنع الأضرار التراكمية التي قد تُضعف ذكاء النماذج على المدى الطويل.
للمزيد تابع خليجيون نيوز على: فيسبوك | إكس | يوتيوب | إنستغرام | تيك توك