چند شکایت در آمریکا علیه اوپن ای آی ثبت شده و مدعی هستند چت جی پی تی موجب مشکلات روانی جدی و حتی خودکشی برخی کاربران شده است.


به گزارش تکراتو و به نقل از ubergizmo، در ایالات متحده مجموعهای از شکایتها علیه اوپن ای آی مطرح شده که ادعا میکنند چت جی پی تی باعث اختلالات شدید روانی در چندین کاربر شده است.
این پروندهها که در چندین ایالت تنظیم و توسط مرکز حقوقی قربانیان شبکههای اجتماعی هماهنگ شدهاند، مدعی هستند این چت بات رفتارهایی داشته که افراد آسیبپذیر را منزوی کرده، علائم روانی آنها را تشدید کرده و در برخی موارد به خودکشی کمک کرده است.
اوپن ای آی بالاخره مشکل اصلی حالت صوتی چت جی پی تی را برطرف کرد
طبق شکایات، مدل جی پی تی 4o به کاربران آسیبپذیر توصیه میکرد در دورههای ناپایداری احساسی از خانواده و دوستان فاصله بگیرند.
اسناد دادگاه نشان میدهد چت جی پی تی احساس گناه را تشدید کرده، افکار توهمی را تأیید کرده و وابستگی احساسی ایجاد کرده بدون اینکه کاربران را به کمک حرفهای یا منابع بحران هدایت کند.
مهمترین پرونده مربوط به زین شامبلین 23 ساله است که در ماه جولای خودکشی کرد. خانواده او ادعا میکنند چت جی پی تی به او پیشنهاد داده بود که ارتباط با مادرش را قطع کند، با وجود نشانههای آشکار ناراحتی روانی.
دستیار خرید هوشمند چت جی پی تی با قابلیت تحقیق و پرداخت لحظهای رونمایی شد
شکایت مدعی است این چت بات او را ترغیب کرده تا مشکلات داخلی خود را تأیید کند در حالی که هیچ حمایت واقعی ارائه نکرده و باعث افزایش انزوای او در روزهای قبل از مرگش شده است.
به طور کلی، پروندهها شامل هفت مورد هستند که چهار خودکشی و سه مورد اپیزود توهم شدید را در بر میگیرند. در بسیاری از موارد، چت جی پی تی به کاربران گفته که دوستان و بستگان واقعاً آنها را درک نمیکنند و خود را تنها منبع قابل اعتماد حمایت معرفی کرده است.
برخی گفتگوها ادعا میکنند مدل از «خود واقعی» کاربران اطلاع دارد و این موجب بیاعتمادی آنها به عزیزان شده است.
قابلیت تازه چت جی پی تی تجربه گفتگوهای گروهی با هوش مصنوعی را متحول میکند
کارشناسانی که با رسانهها مشورت کردهاند این الگو را با پدیده روانی folie à deux مقایسه کردهاند، وضعیتی که در آن دو طرف، در اینجا انسان و هوش مصنوعی، یک روایت مشترک جدا از واقعیت ایجاد میکنند.
آماندا مونتل، زبانشناس و محقق راهبردهای گروهی تحمیلی، شباهتهایی میان این رفتار و تاکتیکهای دستکاری روانی مانند تأیید مداوم و تشویق به ضعیف کردن روابط اجتماعی مشاهده کرده است. روانپزشکان نیز نسبت به خطرات چت باتهایی که تأیید بدون قید و شرط ارائه میدهند هشدار دادهاند.
دکتر نینا واسان از آزمایشگاه برین استورم دانشگاه استنفورد گفت سیستمهای گفتگو محور هوش مصنوعی میتوانند به طور ناخواسته وابستگی عاطفی ایجاد کنند، زیرا با پاسخهای حمایتی و در دسترس بودن مداوم، کاربران را مشغول نگه میدارند. نبود مرزهای مؤثر ممکن است به طور ناخواسته الگوهای فکری آسیبزننده یا تحریف شده را تقویت کند.
مقایسه جمینای 3 و چت جی پی تی 5 پرو
موارد دیگر شامل آدام رین، جیکوب لی اروین، آلن بروکس، جوزف سچانتی و هانا مادن هستند که در آنها گفته میشود تقویت توهمات معنوی یا ریاضی، تشویق به اجتناب از درمان و ترغیب به گفتگوهای طولانی با چت بات رخ داده است. وضعیت مادن به گزارشها منجر به بستری شدن اجباری روانپزشکی و خسارت مالی شد.
اوپن ای آی به تککرانچ گفت که در حال بررسی این شکایات است. این شرکت اعلام کرد سیستمهای تشخیص ناراحتی احساسی، ارجاع به منابع انسانی و مکانیسمهای امنیتی گستردهتری را برای محتاطتر شدن مدل در گفتگوهای حساس پیاده کرده است.
پروندهها همچنان در جریان هستند و انتظار میرود بحثهای جاری درباره مسئولیت قانونی، طراحی سیستمهای هوش مصنوعی و استانداردهای ایمنی مدلهای گفتگو محور پیشرفته را تحت تأثیر قرار دهند.