هشدار محقق ایرانی: هوش مصنوعی واژه‌های منفی را درک نمی‌کند

ناتوانی مدل‌های زبانی-تصویری در درک واژگان منفی می‌تواند به خطر تشخیص‌های نادرست پزشکی منجر شود.

به گزارش تابش کوثر، یک محقق ایرانی از دانشگاه MIT هشدار داد که مدل‌های هوش مصنوعی که برای تحلیل تصاویر پزشکی به‌کار می‌روند، واژگان منفی مثل «ندارد» یا «نیست» را متوجه نمی‌شوند و به گفته او این مسئله‌ می‌تواند جان بیماران را به خطر بیندازد.

در شرایطی که استفاده از هوش مصنوعی در پزشکی روزبه‌روز گسترده‌تر می‌شود، پژوهشی جدید از MIT به رهبری «کمیل الحمود» دانشمند عرب نشان می‌دهد که مدل‌های زبانی-تصویری در درک واژه‌های منفی مثل «نه»، «ندارد» یا «نیست» ناتوان‌اند.

این ضعف باعث می‌شود مدل‌ها در تحلیل گزارش‌ها و تصاویر پزشکی دچار خطاهای جدی شوند. برای مثال، اگر یک بیمار دچار ورم بافت باشد ولی قلبش بزرگ نشده باشد، مدل ممکن است به اشتباه گزارش‌هایی را نشان دهد که هر دو ویژگی را دارند. این خطا می‌تواند منجر به تشخیص اشتباه و درمان نادرست شود.

الحمود هشدار داد: «اگر این مدل‌ها را بدون بررسی دقیق در فرآیندهای پزشکی استفاده کنیم، ممکن است پیامدهای فاجعه‌باری رقم بخورد.»

مطالعات نشان داده‌اند که این مدل‌ها در مواجهه با جملاتی که شامل نفی یا نبود اشیاء هستند، تقریباً مثل حدس تصادفی عمل می‌کنند. آن‌ها نه تنها قادر به تشخیص فقدان نیستند، بلکه در پاسخ به سوالات چندگزینه‌ای نیز عملکرد بسیار ضعیفی دارند.

مشکل اصلی این است که این مدل‌ها فقط با تصاویر و کپشن‌هایی آموزش دیده‌اند که وجود اشیاء را توصیف می‌کنند. مرضیه قاسمی، دیگر استاد ایرانی MIT و نویسنده ارشد این مقاله می‌گوید: «هیچ‌کس تصویری از یک سگ را با کپشن ‘سگی بدون هواپیما’ توصیف نمی‌کند. برای همین، مدل‌ها اصلاً یاد نگرفته‌اند که نبودن چیزی هم مهم است.»

تیم تحقیقاتی با طراحی مجموعه‌داده‌ای جدید شامل تصاویر و کپشن‌های منفی، موفق شد تا حدی عملکرد مدل‌ها را بهبود دهد. اما به گفته الحمود، این فقط شروع کار است: «ما فقط کپشن‌ها را بازنویسی کردیم؛ ساختار خود مدل‌ها همچنان مشکل دارد.»

این کشف، زنگ خطری جدی برای حوزه‌هایی مثل پزشکی، تولیدات صنعتی و امنیتی است که به‌شدت به مدل‌های هوش مصنوعی وابسته شده‌اند.

این تحقیق قرار است در کنفرانس بینایی کامپیوتری و تشخیص الگو ارائه شود.
 

م/۱۱۰*

کد خبر 141237

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha