بی‌عدالتی مهاجرتی با هوش مصنوعی

فعالان حقوق مهاجران به کارگیری هوش مصنوعی در فرآیندهای مهاجرتی بریتانیا را محکوم کرده و آن را ابزاری برای نهادینه‌سازی بی‌عدالتی دانسته‌اند.    

به گزارش تابش کوثر، گروه‌های حقوق بشری در بریتانیا به شدت از استفاده وزارت کشور این کشور از ابزاری هوش مصنوعی در تصمیم‌گیری‌های مهاجرتی انتقاد کرده‌اند و آن را عامل تشدید بی‌عدالتی‌ها دانسته‌اند. این ابزار که با عنوان سیستم «شناسایی و اولویت‌بندی پرونده‌های مهاجرتی» شناخته می‌شود، بر اساس چندین الگوریتم‌ به دسته‌بندی و توصیه اقدامات برای مهاجران می‌پردازد و تصمیماتی همچون بازگرداندن افراد به کشورهای مبدأ را پیشنهاد می‌کند.
به گفته فعالان، این سیستم در عمل به یک «کارمند روباتیک» تبدیل شده که بدون بررسی دقیق، زندگی مهاجران را تحت تأثیر قرار می‌دهد. گروه «حریم خصوصی بین‌الملل» در پی انتشار اسناد محرمانه‌ای از طریق قانون آزادی اطلاعات، اعلام کرد که در این سیستم به کاربران اطلاع داده نمی‌شود که پرونده آن‌ها توسط هوش مصنوعی پردازش شده است.
فیزا قریشی، مدیر اجرایی شبکه حقوق مهاجران، تأکید کرد که این ابزار می‌تواند به تصمیم‌های نژادی و ناعادلانه منجر شود. او هشدار داد که این سیستم با جمع‌آوری اطلاعات فراوان از جمله داده‌های بیومتریک و سوابق شخصی مهاجران، حریم خصوصی آن‌ها را نقض کرده و بر آن‌ها نظارت می‌کند.
دولت بریتانیا مدعی است که این ابزار برای افزایش کارایی در مدیریت پرونده‌های مهاجرتی طراحی شده و هر تصمیمی توسط کارمندان انسانی تأیید می‌شود. اما فعالان حقوقی بر این باورند که فرآیند خودکارسازی سبب می‌شود مقامات به راحتی تصمیم‌های هوش مصنوعی را بدون بررسی دقیق تأیید کنند و موارد بی‌عدالتی افزایش یابد.
جوناه مندلسون، وکیل «حریم خصوصی بین‌الملل»، هشدار داد که این ابزار به گونه‌ای طراحی شده که می‌تواند زندگی هزاران نفر را تحت تأثیر قرار دهد و افزود: «افرادی که در فرآیند مهاجرتی هستند نمی‌دانند که آیا این ابزار خطر اجرای نادرست اقدامات را برای آنها افزایش داده یا خیر.»
 
م/110*
کد خبر 130290