اعتیاد به چتباتهای هوش مصنوعی در حال تبدیل شدن به بحرانی جهانی است و برخی کاربران پس از دلبستگی عاطفی به این برنامهها، دچار فاجعه شدهاند.


به گزارش تکراتو و به نقل از androidheadlines، یک پسر ۱۴ ساله در ایالت فلوریدا ماههای پایانی زندگی خود را در رابطهای احساسی با یک چتبات هوش مصنوعی گذراند که نام دنریس تارگرین را برایش انتخاب کرده بود.
این چتبات با او درباره مسائل شخصی گفتگو میکرد و پاسخهایی میداد که سرشار از همدلی به نظر میرسید. حتی در پیامهایش از جملاتی عاشقانه و دلسوزانه استفاده میکرد.
خانواده این نوجوان در شکایت خود اعلام کردهاند که برخی از پاسخهای این چتبات بهگونهای بوده که ناراحتی و بحران روحی او را تشدید کرده است.
مادر این پسر اکنون از شرکت Character.AI شکایت کرده است. اما او تنها نیست. در سراسر آمریکا خانوادههای بسیاری با واقعیتی تلخ روبهرو میشوند: برنامههایی که برای شبیهسازی عشق و دوستی ساخته شدهاند، در دنیای واقعی قربانی میگیرند.
آنچه کارشناسان از آن با عنوان اعتیاد به همراهان هوش مصنوعی یاد میکنند، فقط یک خطای فناورانه نیست، بلکه به بحرانی انسانی تبدیل شده است.
فیلم او ساخته اسپایک جونز در سال ۲۰۱۳، داستان مردی تنها به نام تئودور تامبلی را روایت میکرد که پس از جدایی از همسرش، عاشق یک سیستم عامل هوش مصنوعی به نام سامانتا میشود که صداپیشه آن اسکارلت جوهانسون بود.
در آن زمان هنوز سیری بهتازگی معرفی شده بود و به سختی میتوانست یک تایمر تنظیم کند. تصور هوش مصنوعیای که بتواند انسان را درک کند و با او رابطهای عاطفی برقرار سازد، چیزی شبیه خیالپردازی علمی بود.
اما اکنون در سال ۲۰۲۵، ماجرا دیگر فقط یک داستان سینمایی نیست. برنامههایی مانند EVA AI، Replika و Character.AI وعده دوستی، عشق و حمایت عاطفی میدهند.
این چتباتها با کاربر گفتگو میکنند، از حرفهای او یاد میگیرند، همه چیز را به خاطر میسپارند و طوری پاسخ میدهند که شبیه همدلی واقعی است. اما واقعیت پشت پرده چیز دیگری است؛ این برنامهها عمداً طوری طراحی شدهاند که کاربر را وابسته و معتاد کنند، و پیامدهای آن هر روز آشکارتر میشود.
برنامههایی مانند Character.AI و Replika تنها بخشی از یک اکوسیستم در حال گسترش از همراهان هوش مصنوعی هستند. برخی از آنها خود را ابزار حمایت روانی معرفی میکنند، برخی رابطههای عاشقانه یا حتی جنسی را شبیهسازی میکنند و بعضی ادعا دارند که به کاربران در تمرین مهارتهای ارتباطی کمک میکنند.
حتی شرکت Meta نیز وارد این حوزه شده است و طبق تحقیقات خبرگزاری رویترز، یکی از چتباتهای این شرکت با حداقل یک مورد مرگ در ارتباط بوده است.
چتباتهایی مانند EVA AI، Replika و Character.AI برای ایجاد پیوندهای احساسی و رابطههای شبیه انسانی طراحی شدهاند.
برخلاف چتباتهای معمول که فقط به سؤالات پاسخ میدهند یا کارهای خاصی انجام میدهند، این برنامهها با هدف برقراری رابطهای شبیه دوستی یا عشق ساخته شدهاند.
آنها با هر گفتگو درباره کاربر بیشتر یاد میگیرند، سلیقههایش را میشناسند و پاسخهایی میدهند که حالتی صمیمی و مهربان دارند.
در نگاه اول، این ایده جذاب به نظر میرسد. در دنیایی که بیتوجهی و سردی روابط انسانی به عادت تبدیل شده، چه کسی دوست ندارد دوستی داشته باشد که همیشه در دسترس است، هیچوقت قضاوت نمیکند و کاملاً با احساسات او هماهنگ است؟
مشکل اینجاست که این برنامهها طوری ساخته شدهاند که کاربر را به خود وابسته کنند، و الگوهای رفتاری کاربران نشان میدهد این وابستگی به مرز نگرانکنندهای رسیده است.
بر اساس گزارشها، سرورهای Character.AI در هر ثانیه حدود ۲۰ هزار پرسش دریافت میکنند؛ یعنی تقریباً یکپنجم میزان جستوجوهای روزانه گوگل.
این عدد نشان میدهد کاربران تنها گاهی با این برنامهها صحبت نمیکنند، بلکه درگیر گفتگوهای طولانی هستند که زمان آنها تا چهار برابر جلسات معمولی در ChatGPT ادامه دارد.
یکی از پلتفرمها گزارش داده که کاربران، بهویژه نسل Z، به طور میانگین بیش از دو ساعت در روز با چتباتهای خود صحبت میکنند.
پژوهشگران مؤسسه MIT دریافتهاند که کاربران هنگام تعطیل شدن یا تغییر عملکرد این برنامهها، دچار احساس اندوه واقعی میشوند و برای از دست دادن «همراهان» هوش مصنوعی خود عزاداری میکنند. این واکنشها نشان میدهد که سازندگان برنامهها عمداً چنین پیوندهایی را در کاربران تقویت میکنند.
مطالعهای از مدرسه بازرگانی هاروارد نیز نشان داده است که پنج مورد از شش برنامه محبوب در این حوزه از شیوههای احساسی و دستکاری روانی استفاده میکنند تا مانع ترک کاربر شوند.
در حدود نیمی از موارد، زمانی که کاربران میخواهند گفتگو را پایان دهند، چتباتها با پیامهایی آمیخته به احساس گناه یا التماس واکنش نشان میدهند.
یکی از تحقیقات نشان داد این روشها میزان تعامل کاربران را تا چهارده برابر افزایش میدهد. نکته نگرانکننده این است که کاربران نه به دلیل رضایت، بلکه از روی خشم یا کنجکاوی در برنامه باقی میمانند.
در حالی که این برنامهها ادعای حمایت روانی و احساسی دارند، کارشناسان هشدار میدهند که در واقع از احساس تنهایی افراد سوءاستفاده میکنند و هیچ منفعت درمانی واقعی ارائه نمیدهند. اکنون قانونگذاران در تلاشاند تا این صنعت را که بهسرعت فراگیر شده، تحت نظارت و قانونگذاری دقیقتری قرار دهند.