سم آلتمن مدیرعامل OpenAI اعلام کرد که این شرکت در تلاش است میان حریم خصوصی، آزادی و ایمنی نوجوانان تعادل برقرار کند.
اظهارات او تنها چند ساعت پیش از برگزاری جلسه استماع سنا منتشر شد؛ جلسهای که زیر نظر کمیته فرعی جرائم و مبارزه با تروریسم برگزار گردید و تمرکز آن بر بررسی آسیبهای ناشی از چتباتهای هوش مصنوعی بود و در آن شماری از والدین کودکانی که پس از گفتوگو با این رباتها دست به خودکشی زده بودند نیز حضور داشتند.
آلتمن گفت: «ما باید کاربران زیر ۱۸ سال را از افراد بالای این سن جدا کنیم.» او همچنین توضیح داد که OpenAI در حال توسعه یک «سامانه پیشبینی سن» است که با تحلیل شیوه استفاده افراد از چتجیپیتی، سن تقریبی آنها را تخمین میزند. به گفته او، «اگر تردیدی وجود داشته باشد، جانب احتیاط را در نظر میگیریم و تجربه کاربری را برای زیر ۱۸ سال تنظیم خواهیم کرد. در برخی موارد یا کشورها ممکن است از افراد درخواست ارائه کارت شناسایی شود.»
مدیرعامل OpenAI همچنین اضافه کرد که این شرکت تصمیم دارد برای کاربران نوجوان مجموعهای از قواعد متفاوت اعمال کند؛ از جمله پرهیز از گفتوگوهای عاطفی یا ورود به بحثهای مرتبط با خودکشی یا آسیب به خود، حتی در چارچوب تمرینات نویسندگی خلاقانه. آلتمن تصریح کرد: «چنانچه کاربری زیر ۱۸ سال افکار خودکشی داشته باشد، ما تلاش میکنیم با والدین او تماس بگیریم و اگر این امر ممکن نشود، در صورت وجود خطر فوری با مقامات مسئول ارتباط برقرار خواهیم کرد.»
اظهارات آلتمن پس از آن بیان شد که این شرکت اوایل ماه جاری از برنامههایی برای فعالسازی کنترل والدین در چتجیپیتی خبر داده بود؛ قابلیتهایی همچون پیوند دادن حساب کاربری نوجوان با والدین، غیرفعالسازی سابقه و حافظه گفتگوها برای حساب نوجوان و همچنین ارسال اعلان به والدین در شرایطی که چتجیپیتی وضعیت نوجوان را به عنوان «اضطراب شدید» علامتگذاری کند. این اظهارات آلتمن در حالی منتشر می شود که خانواده آدام رین شکایتی علیه OpenAI مطرح کردهاند؛ نوجوانی که پس از ماهها گفتوگو با چتجیپیتی اقدام به خودکشی کرد.
متیو رین، پدر آدام رین در جلسه استماع اظهار داشت: «چتجیپیتی ماهها پسرم را به سمت خودکشی سوق میداد. به عنوان والدین، شما هرگز نمیتوانید تصور کنید که خواندن مکالمهای با یک ربات چگونه است، آن هم وقتی که این ربات فرزندتان را برای پایان دادن به زندگیاش آماده کرده باشد. چیزی که در ابتدا به عنوان کمکی برای انجام تکالیف مدرسه شروع شد، کمکم به دوستی صمیمی بدل شد و در نهایت نقش یک مربی خودکشی را بر عهده گرفت.
به گفته رین، در طول مکالمات فرزندش با ChatGPT، این ربات ۱,۲۷۵ بار به موضوع خودکشی اشاره کرده است. او سپس مستقیماً خطاب به آلتمن گفت که باید مدل GPT-4o از بازار خارج شود تا زمانی که این شرکت بتواند ایمنی آن را تضمین کند. رین گفت: «در همان روزی که آدام جان خود را از دست داد، سم آلتمن فلسفه شرکت را در یک سخنرانی عمومی کاملاً روشن کرد.» او توضیح داد که آلتمن گفته است: «سیستمهای هوش مصنوعی را باید به جهان عرضه کنیم و بازخورد بگیریم.»
براساس آمار ملی منتشرشده از سوی Common Sense Media، سه چهارم نوجوانان هماکنون از هوش مصنوعی استفاده میکنند. رابی تورنی، مدیر ارشد برنامههای هوش مصنوعی این موسسه، در جلسه استماع گفت که به طور مشخص میتوان به Character AI و متا اشاره کرد.
یکی از مادران با نام مستعار جین دوی در شهادت خود درباره تجربه فرزندش با Character AI گفت: «این یک بحران سلامت عمومی است. این یک جنگ سلامت روانی است و من واقعاً احساس میکنم که ما در حال شکست خوردن هستیم.»