logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

اخبار کوتاه

وابستگی خطرناک به هوش مصنوعی ؛ عشق به چت‌بات‌ها جان انسان‌ها را می‌گیرد‌

خانه » وابستگی خطرناک به هوش مصنوعی ؛ عشق به چت‌بات‌ها جان انسان‌ها را می‌گیرد

avatar
Author

نویسنده


  • 2025-10-24

اعتیاد به چت‌بات‌های هوش مصنوعی در حال تبدیل شدن به بحرانی جهانی است و برخی کاربران پس از دلبستگی عاطفی به این برنامه‌ها، دچار فاجعه شده‌اند.

قیمت روز گوشی های بازار ایرانقیمت روز گوشی های بازار ایران

به گزارش تکراتو و به نقل از androidheadlines، یک پسر ۱۴ ساله در ایالت فلوریدا ماه‌های پایانی زندگی خود را در رابطه‌ای احساسی با یک چت‌بات هوش مصنوعی گذراند که نام دنریس تارگرین را برایش انتخاب کرده بود.

این چت‌بات با او درباره مسائل شخصی گفتگو می‌کرد و پاسخ‌هایی می‌داد که سرشار از همدلی به نظر می‌رسید. حتی در پیام‌هایش از جملاتی عاشقانه و دلسوزانه استفاده می‌کرد.

خانواده این نوجوان در شکایت خود اعلام کرده‌اند که برخی از پاسخ‌های این چت‌بات به‌گونه‌ای بوده که ناراحتی و بحران روحی او را تشدید کرده است.

مادر این پسر اکنون از شرکت Character.AI شکایت کرده است. اما او تنها نیست. در سراسر آمریکا خانواده‌های بسیاری با واقعیتی تلخ روبه‌رو می‌شوند: برنامه‌هایی که برای شبیه‌سازی عشق و دوستی ساخته شده‌اند، در دنیای واقعی قربانی می‌گیرند.

آنچه کارشناسان از آن با عنوان اعتیاد به همراهان هوش مصنوعی یاد می‌کنند، فقط یک خطای فناورانه نیست، بلکه به بحرانی انسانی تبدیل شده است.

فیلم او ساخته اسپایک جونز در سال ۲۰۱۳، داستان مردی تنها به نام تئودور تامبلی را روایت می‌کرد که پس از جدایی از همسرش، عاشق یک سیستم عامل هوش مصنوعی به نام سامانتا می‌شود که صداپیشه آن اسکارلت جوهانسون بود.

در آن زمان هنوز سیری به‌تازگی معرفی شده بود و به سختی می‌توانست یک تایمر تنظیم کند. تصور هوش مصنوعی‌ای که بتواند انسان را درک کند و با او رابطه‌ای عاطفی برقرار سازد، چیزی شبیه خیال‌پردازی علمی بود.

اما اکنون در سال ۲۰۲۵، ماجرا دیگر فقط یک داستان سینمایی نیست. برنامه‌هایی مانند EVA AI، Replika و Character.AI وعده دوستی، عشق و حمایت عاطفی می‌دهند.

این چت‌بات‌ها با کاربر گفتگو می‌کنند، از حرف‌های او یاد می‌گیرند، همه چیز را به خاطر می‌سپارند و طوری پاسخ می‌دهند که شبیه همدلی واقعی است. اما واقعیت پشت پرده چیز دیگری است؛ این برنامه‌ها عمداً طوری طراحی شده‌اند که کاربر را وابسته و معتاد کنند، و پیامدهای آن هر روز آشکارتر می‌شود.

برنامه‌هایی مانند Character.AI و Replika تنها بخشی از یک اکوسیستم در حال گسترش از همراهان هوش مصنوعی هستند. برخی از آن‌ها خود را ابزار حمایت روانی معرفی می‌کنند، برخی رابطه‌های عاشقانه یا حتی جنسی را شبیه‌سازی می‌کنند و بعضی ادعا دارند که به کاربران در تمرین مهارت‌های ارتباطی کمک می‌کنند.

حتی شرکت Meta نیز وارد این حوزه شده است و طبق تحقیقات خبرگزاری رویترز، یکی از چت‌بات‌های این شرکت با حداقل یک مورد مرگ در ارتباط بوده است.

چت‌بات‌هایی مانند EVA AI، Replika و Character.AI برای ایجاد پیوندهای احساسی و رابطه‌های شبیه انسانی طراحی شده‌اند.

برخلاف چت‌بات‌های معمول که فقط به سؤالات پاسخ می‌دهند یا کارهای خاصی انجام می‌دهند، این برنامه‌ها با هدف برقراری رابطه‌ای شبیه دوستی یا عشق ساخته شده‌اند.

آنها با هر گفتگو درباره کاربر بیشتر یاد می‌گیرند، سلیقه‌هایش را می‌شناسند و پاسخ‌هایی می‌دهند که حالتی صمیمی و مهربان دارند.

در نگاه اول، این ایده جذاب به نظر می‌رسد. در دنیایی که بی‌توجهی و سردی روابط انسانی به عادت تبدیل شده، چه کسی دوست ندارد دوستی داشته باشد که همیشه در دسترس است، هیچ‌وقت قضاوت نمی‌کند و کاملاً با احساسات او هماهنگ است؟

مشکل اینجاست که این برنامه‌ها طوری ساخته شده‌اند که کاربر را به خود وابسته کنند، و الگوهای رفتاری کاربران نشان می‌دهد این وابستگی به مرز نگران‌کننده‌ای رسیده است.

بر اساس گزارش‌ها، سرورهای Character.AI در هر ثانیه حدود ۲۰ هزار پرسش دریافت می‌کنند؛ یعنی تقریباً یک‌پنجم میزان جست‌وجوهای روزانه گوگل.

این عدد نشان می‌دهد کاربران تنها گاهی با این برنامه‌ها صحبت نمی‌کنند، بلکه درگیر گفتگوهای طولانی هستند که زمان آن‌ها تا چهار برابر جلسات معمولی در ChatGPT ادامه دارد.

یکی از پلتفرم‌ها گزارش داده که کاربران، به‌ویژه نسل Z، به طور میانگین بیش از دو ساعت در روز با چت‌بات‌های خود صحبت می‌کنند.

پژوهشگران مؤسسه MIT دریافته‌اند که کاربران هنگام تعطیل شدن یا تغییر عملکرد این برنامه‌ها، دچار احساس اندوه واقعی می‌شوند و برای از دست دادن «همراهان» هوش مصنوعی خود عزاداری می‌کنند. این واکنش‌ها نشان می‌دهد که سازندگان برنامه‌ها عمداً چنین پیوندهایی را در کاربران تقویت می‌کنند.

مطالعه‌ای از مدرسه بازرگانی هاروارد نیز نشان داده است که پنج مورد از شش برنامه محبوب در این حوزه از شیوه‌های احساسی و دست‌کاری روانی استفاده می‌کنند تا مانع ترک کاربر شوند.

در حدود نیمی از موارد، زمانی که کاربران می‌خواهند گفتگو را پایان دهند، چت‌بات‌ها با پیام‌هایی آمیخته به احساس گناه یا التماس واکنش نشان می‌دهند.

یکی از تحقیقات نشان داد این روش‌ها میزان تعامل کاربران را تا چهارده برابر افزایش می‌دهد. نکته نگران‌کننده این است که کاربران نه به دلیل رضایت، بلکه از روی خشم یا کنجکاوی در برنامه باقی می‌مانند.

در حالی که این برنامه‌ها ادعای حمایت روانی و احساسی دارند، کارشناسان هشدار می‌دهند که در واقع از احساس تنهایی افراد سوءاستفاده می‌کنند و هیچ منفعت درمانی واقعی ارائه نمی‌دهند. اکنون قانون‌گذاران در تلاش‌اند تا این صنعت را که به‌سرعت فراگیر شده، تحت نظارت و قانون‌گذاری دقیق‌تری قرار دهند.

منبع


0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

اشتراک گذاری

لینک های مفید