به پاسخ‌های هوش مصنوعی «چشم‌بسته» اعتماد نکنید

سندر پیچای، مدیرعامل شرکت آلفابت (مالک گوگل) در تازه‌ترین گفت‌وگوی خود با بی‌بی‌سی تأکید کرد فناوری‌های هوش مصنوعی همچنان مستعد خطا هستند و کاربران نباید بدون راستی‌آزمایی، پاسخ‌های این ابزارها را بپذیرند.

به گزارش تابش کوثر، سندر پیچای مدیرعامل آلفابت، شرکت مادر گوگل، در گفت‌وگویی اختصاصی با بی‌بی‌سی هشدار داد که مردم نباید «چشم‌بسته» به پاسخ‌هایی که ابزارهای هوش مصنوعی ارائه می‌کنند اعتماد کنند. او تأکید کرد مدل‌های هوش مصنوعی فعلی «در معرض خطا» هستند و باید در کنار سایر ابزارهای اطلاعاتی مورد استفاده قرار گیرند.

پیچای با اشاره به اهمیت وجود یک «اکوسیستم غنی اطلاعاتی» افزود:

«این همان دلیلی است که مردم همچنان از جست‌وجوی گوگل و دیگر ابزارهایی استفاده می‌کنند که بر ارائه اطلاعات دقیق و معتبر تمرکز دارند.»

این اظهارات در حالی مطرح می‌شود که برخی کارشناسان معتقدند شرکت‌های فناوری بزرگ مانند گوگل نباید از کاربران بخواهند خود صحت پاسخ‌های هوش مصنوعی را بررسی کنند؛ بلکه باید دقت و قابلیت اتکای سیستم‌های خود را افزایش دهند.

پیچای گفت: «اگر می‌خواهید خلاقانه متنی بنویسید، این ابزارها بسیار مفید هستند، اما مردم باید یاد بگیرند از این فناوری‌ها متناسب با توانایی‌شان استفاده کنند و نباید هرچه می‌گویند را بدون بررسی بپذیرند.»

او در ادامه تصریح کرد: «به اینکه تا چه اندازه تلاش می‌کنیم اطلاعات دقیق ارائه کنیم افتخار می‌کنیم، اما فناوری کنونی هوش مصنوعی همچنان مستعد برخی خطاهاست.»

گوگل بر روی ابزارهای هوش مصنوعی خود برچسب‌های هشداردهنده قرار داده تا کاربران بدانند احتمال خطا وجود دارد، اما این اقدام مانع از انتقادها نسبت به اشتباهات این محصولات نشده است.

یکی از نمونه‌ها، سرویس جدید «AI Overviews» در بخش جست‌وجوی گوگل بود که به‌دلیل ارائه پاسخ‌های اشتباه و غیرمنطقی، با موجی از انتقادات و تمسخر روبه‌رو شد.

کارشناسان درباره تمایل چت‌بات‌ها به ارائه پاسخ‌های نادرست و گاهی ساختگی هشدار داده‌اند.

جینا نف، استاد هوش مصنوعی مسئولانه در دانشگاه کوئین مری لندن، در گفت‌وگو با رادیو ۴ بی‌بی‌سی گفت:

«ما می‌دانیم این سیستم‌ها پاسخ‌هایی می‌سازند تا ما را راضی کنند؛ و این یک مشکل است. اگر سؤال درباره یک فیلم باشد، ایرادی ندارد، اما اگر موضوع مربوط به سلامت، سلامت روان، علم یا اخبار باشد، مسئله بسیار جدی می‌شود.»

او در ادامه تأکید کرد گوگل باید مسئولیت بیشتری درباره صحت ابزارهای خود بپذیرد:

«شرکت می‌خواهد ورقه امتحانی خود را خودش تصحیح کند، در حالی که مدرسه را هم به آتش کشیده است.»

مرحله جدید رقابت هوش مصنوعی

دنیای فناوری منتظر عرضه نسخه جدید مدل هوش مصنوعی گوگل، Gemini 3.0 است؛ مدلی که گوگل امیدوار است با آن بخشی از سهم بازار را از ChatGPT پس بگیرد.

از ماه مه سال جاری، گوگل حالت جدیدی با نام «AI Mode» را به جست‌وجو اضافه کرده که چت‌بات Gemini را با سرچ ادغام می‌کند تا تجربه‌ای شبیه گفت‌وگو با یک کارشناس به کاربران ارائه دهد.

پیچای این تحول را «مرحله جدیدی در تغییر پلتفرم هوش مصنوعی» خواند. این اقدام بخشی از تلاش گوگل برای حفظ جایگاه خود در برابر رقبایی همچون ChatGPT است که سلطه گوگل در جست‌وجوی اینترنتی را به چالش کشیده‌اند.

تحقیقات بی‌بی‌سی نیز پیش‌تر نشان داده بود چت‌بات‌های هوش مصنوعی قادر نیستند اخبار را به‌دقت خلاصه کنند و اغلب اشتباهات قابل توجهی مرتکب می‌شوند. این بررسی شامل ChatGPT، Copilot مایکروسافت، Gemini گوگل و Perplexity بود.

پیچای در بخش دیگری از گفت‌وگو اشاره کرد که توسعه سریع این فناوری و ایجاد سازوکارهای جلوگیری از سوءاستفاده، دارای نوعی «تنش داخلی» است.

او گفت: «باید همزمان جسور و مسئول باشیم. کاربران ما نیز سرعت پیشرفت را مطالبه می‌کنند.»

او همچنین گفت میزان سرمایه‌گذاری گوگل در امنیت هوش مصنوعی به تناسب میزان توسعه این فناوری افزایش یافته است:

«برای مثال، ما فناوری متن‌بازی را منتشر کرده‌ایم که به شما امکان می‌دهد تشخیص دهید یک تصویر با هوش مصنوعی تولید شده یا نه.»

در پاسخ به پرسشی درباره نگرانی‌های قدیمی ایلان ماسک درباره خطر ایجاد «دیکتاتوری هوش مصنوعی» توسط واحد DeepMind – که اکنون متعلق به گوگل است – پیچای گفت:

«هیچ شرکتی نباید به‌تنهایی مالک فناوری‌ای به این قدرت باشد.»

اما او افزود: «خوشبختانه امروز شرکت‌های متعددی در این اکوسیستم حضور دارند.»

او تأکید کرد:

«اگر فقط یک شرکت وجود داشت که هوش مصنوعی تولید می‌کرد و همه باید از آن استفاده می‌کردند، من هم نگران می‌شدم. اما اکنون فاصله زیادی با چنین سناریویی داریم.»

انتهای پیام/

کد خبر 142503

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha