بحث جديد يكشف مشكلة في الثقة لدى أنظمة الذكاء الاصطناعي
كشف بحث جديد أجراه باحثون من Google DeepMind وكلية لندن الجامعية (University College London) عن أن النماذج اللغوية الكبيرة (LLMs) تعاني أحيانًا فقدان الثقة في إجاباتها، وقد تتخلى عن الإجابات الصحيحة في بعض الحالات. تُعد النماذج اللغوية الكبيرة أنظمة ذكاء اصطناعي قوية قادرة على فهم اللغة البشرية وتوليدها، وتُستخدم في مجموعة واسعة من الصناعات، مثل: …