به گزارش تابش کوثر، پس از شکایت یک خانواده آمریکایی که مدعی شدهاند استفاده نوجوانشان از چتجیپیتی در خودکشی او نقش داشته است، بحثها درباره اعتماد به هوش مصنوعی در حوزه سلامت روان شدت گرفته است. شرکت «اوپناِیآی» نیز اعلام کرده است که ابزارهای ایمنی جدید برای محافظت کاربران اضافه میکند.
خانوادهای در کالیفرنیا علیه اوپناِیآی شکایت کرده و این شرکت را متهم کردهاند که خدمات این شرکت در مرگ پسر نوجوان آنها نقش داشته است.
اوپناِیآی در واکنش اعلام کرد: «موارد دردناک اخیر که افراد در بحرانهای روانی از چتجیپیتی استفاده کردهاند، برای ما بسیار تلخ بوده است. در برخی شرایط سامانه ما همانگونه که انتظار میرفت عمل نکرده و مشکلاتی ایجاد کرده است.»
کارشناسان علوم روانپزشکی و دادههای زیستی هشدار دادند که کمبود درمانگران باعث شده بسیاری از مردم، بهویژه نوجوانان، به راهکارهای سادهای مانند رباتهای گفتوگو روی بیاورند.
نیک جاکوبسن، استاد دانشگاه دارتموث، گفت: «طراحی یک ابزار درمانی ایمن و مؤثر بسیار زمانبر و پیچیده است. تیم ما با صرف بیش از صد هزار ساعت انسانی نخستین آزمایش کنترلشده هوش مصنوعی برای درمان اختلالات روانی را انجام داده و کاهش قابلتوجهی در علائم افسردگی، اضطراب و اختلالات خوردن مشاهده کرده است.»
وی افزود: «مدلهای عمومی موجود ممکن است در ظاهر مفید به نظر برسند، اما در عمل میتوانند آسیبزا باشند و حتی رفتارهای روانپریشانه را تشدید کنند.»
جاکوبسن همچنین به نبود قوانین و نظارت کافی برای کنترل این فناوریها اشاره کرد و گفت: «اکنون شرکتها بیشتر واکنشی عمل میکنند تا پیشگیرانه و طراحی یک سامانه درمانی ایمن فرایندی طولانی است که نیاز به سالها تحقیق و تجربه دارد.»
این هشدارها نشان میدهد که گسترش نقش هوش مصنوعی در مشاورههای روانی بدون نظارت و چارچوب قانونی، میتواند تبعات جدی برای کاربران به همراه داشته باشد.
م/۱۱۰*
نظر شما