محققان MIT نمونه‌های قابل توجهی از شکست مدل‌های یادگیری ماشین را هنگام اعمال آن‌ها به داده‌هایی غیر از داده‌هایی که با آن‌ها آموزش داده شده‌اند، شناسایی کرده‌اند. این موضوع سوالاتی را در مورد نیاز به آزمایش هر زمان که مدلی در یک محیط جدید مستقر می‌شود، مطرح می‌کند.

مرضیه قاسمی، دانشیار بخش مهندسی برق و علوم کامپیوتر (EECS) MIT، عضو موسسه مهندسی پزشکی و علوم و محقق اصلی در آزمایشگاه اطلاعات و سیستم‌های تصمیم‌گیری، می‌گوید: «ما نشان می‌دهیم که حتی زمانی که مدل‌ها را با حجم زیادی از داده‌ها آموزش می‌دهید و بهترین مدل متوسط را انتخاب می‌کنید، در یک محیط جدید این 'بهترین مدل' می‌تواند بدترین مدل برای 6 تا 75 درصد از داده‌های جدید باشد.»

در مقاله‌ای که در کنفرانس سیستم‌های پردازش اطلاعات عصبی (NeurIPS 2025) در دسامبر ارائه شد، محققان خاطرنشان کردند که مدل‌هایی که برای تشخیص موثر بیماری در عکس‌های رادیولوژی قفسه سینه در یک بیمارستان آموزش داده شده‌اند، ممکن است به طور متوسط در بیمارستان دیگری موثر تلقی شوند. با این حال، ارزیابی عملکرد محققان نشان داد که برخی از بهترین مدل‌های عملکردی در بیمارستان اول، بدترین عملکرد را در تا 75 درصد از بیماران در بیمارستان دوم داشتند، حتی اگر با تجمیع همه بیماران در بیمارستان دوم، عملکرد متوسط بالا این شکست را پنهان کند.

یافته‌های آن‌ها نشان می‌دهد که اگرچه همبستگی‌های نادرست (به عنوان مثال، زمانی که یک سیستم یادگیری ماشین 'ندیده' است) می‌توانند وجود داشته باشند، اما این موضوع می‌تواند منجر به نتایج نادرست شود.