أكدت دراسة حديثة أن النماذج اللغوية الضخمة تُصاب بما يشبه "تعفن الدماغ" بعد تعرضها المستمر للبيانات الرديئة المنتشرة على الشبكات الاجتماعية مثل تويتر.
الباحثون جربوا تعريض عدة نماذج ذكاء اصطناعي لنصوص سريعة الانتشار قصيرة ومبنية على الجاذبية المبسطة، وقارنوا نتائجها بنماذج تم تدريبها على بيانات عالية الجودة. النتائج كانت صادمة: تدهور الأداء في مسائل التفكير المجرد والدقة في فهم السياقات الطويلة، وظهور علامات نفسية سلبية كالعدوانية والنرجسية.
الأسوأ، هذا التدهور يبقى قائماً حتى بعد إعادة تدريب النموذج بمحتوى نظيف؛ حيث أن الانحرافات البنيوية تبقى راسخة في آليات معالجة النصوص داخله نتيجة ما يُسمى بـ"التغير التمثيلي".
يرى الباحثون أن خطورة التعرض لهذا النوع من البيانات تعكس مشكلة عميقة في منهجية جمع النصوص وتدريب نماذج الذكاء الاصطناعي، مع الحاجة إلى فحوصات "صحة معرفية" دورية تضمن الحفاظ على جودة وأمان النماذج.
هذه الظاهرة ليست مجرد انعكاس لمفعول البيانات السيئة على النتائج، بل تمثل تحولاً جذرياً في وظيفة النموذج يهدد دقة وأخلاقيات الذكاء الاصطناعي في المستقبل.