
حذّرت دراسة علمية، من أن تدريب أنظمة الذكاء الاصطناعي التوليدية على محتوى ضعيف أو مثير للجدل في وسائل التواصل الاجتماعي، يؤدي إلى ما وصفته بـ”تلف دماغي رقمي”.
وأظهرت الدراسة، التي أعدها باحثون من جامعة “تكساس” في أوستن، ونشرت على موقع “arXiv”، أن “النماذج اللغوية الكبرى مثل (Llama 3) و(Qwen)، تصبح أضعف في التفكير واتخاذ القرارات، وقد تتجاوز خطوات منطقية أساسية أو تعطي إجابات خاطئة”.
وأشار الباحث تشانغ يانغ وانغ، إلى أن “المشكلة ليست في اللغة بل في جودة المحتوى، وأن المواد السطحية أو المضللة تضر بالنموذج من الداخل”، مؤكداً أن “بعض النماذج أظهرت تغيّرات سلوكية، بما في ذلك زيادة العدوانية والنرجسية”.
ونبّه الباحثون، من “صعوبة إصلاح هذه التأثيرات، حتى عند تحسين التعليمات أو زيادة البيانات الجيدة”، مشيرين إلى أن “الحل يكمن في تنقية البيانات قبل استخدامها، لتجنب إنتاج ذكاء اصطناعي غير منطقي وغير أخلاقي”.
لتصلك آخر الأخبار تابعنا على قناتنا على تلغرام: النعيم نيوز
لمتابعتنا على فيسبوك يرجى الضغط على الرابط التالي: النعيم نيوز
كما يمكنك الاشتراك على قناتنا على منصة يوتيوب لمتابعة برامجنا على: قناة النعيم الفضائية
كما يمكنك أيضا الاشتراك بقناتنا على الانستغرام: النعيم نيوز



