به گزارش تابش کوثر، یک محقق ایرانی از دانشگاه MIT هشدار داد که مدلهای هوش مصنوعی که برای تحلیل تصاویر پزشکی بهکار میروند، واژگان منفی مثل «ندارد» یا «نیست» را متوجه نمیشوند و به گفته او این مسئله میتواند جان بیماران را به خطر بیندازد.
در شرایطی که استفاده از هوش مصنوعی در پزشکی روزبهروز گستردهتر میشود، پژوهشی جدید از MIT به رهبری «کمیل الحمود» دانشمند عرب نشان میدهد که مدلهای زبانی-تصویری در درک واژههای منفی مثل «نه»، «ندارد» یا «نیست» ناتواناند.
این ضعف باعث میشود مدلها در تحلیل گزارشها و تصاویر پزشکی دچار خطاهای جدی شوند. برای مثال، اگر یک بیمار دچار ورم بافت باشد ولی قلبش بزرگ نشده باشد، مدل ممکن است به اشتباه گزارشهایی را نشان دهد که هر دو ویژگی را دارند. این خطا میتواند منجر به تشخیص اشتباه و درمان نادرست شود.
الحمود هشدار داد: «اگر این مدلها را بدون بررسی دقیق در فرآیندهای پزشکی استفاده کنیم، ممکن است پیامدهای فاجعهباری رقم بخورد.»
مطالعات نشان دادهاند که این مدلها در مواجهه با جملاتی که شامل نفی یا نبود اشیاء هستند، تقریباً مثل حدس تصادفی عمل میکنند. آنها نه تنها قادر به تشخیص فقدان نیستند، بلکه در پاسخ به سوالات چندگزینهای نیز عملکرد بسیار ضعیفی دارند.
مشکل اصلی این است که این مدلها فقط با تصاویر و کپشنهایی آموزش دیدهاند که وجود اشیاء را توصیف میکنند. مرضیه قاسمی، دیگر استاد ایرانی MIT و نویسنده ارشد این مقاله میگوید: «هیچکس تصویری از یک سگ را با کپشن ‘سگی بدون هواپیما’ توصیف نمیکند. برای همین، مدلها اصلاً یاد نگرفتهاند که نبودن چیزی هم مهم است.»
تیم تحقیقاتی با طراحی مجموعهدادهای جدید شامل تصاویر و کپشنهای منفی، موفق شد تا حدی عملکرد مدلها را بهبود دهد. اما به گفته الحمود، این فقط شروع کار است: «ما فقط کپشنها را بازنویسی کردیم؛ ساختار خود مدلها همچنان مشکل دارد.»
این کشف، زنگ خطری جدی برای حوزههایی مثل پزشکی، تولیدات صنعتی و امنیتی است که بهشدت به مدلهای هوش مصنوعی وابسته شدهاند.
این تحقیق قرار است در کنفرانس بینایی کامپیوتری و تشخیص الگو ارائه شود.
م/۱۱۰*
نظر شما