اگر مراسم رونمایی اخیر ChatGPT-5 از OpenAI را تماشا کرده باشید، حق دارید که فکر کنید این محصول صرفاً یک ابزار کدنویسی است. هرچند سم آلتمن و تیمش با یک نفر مصاحبه کردند که از ChatGPT برای درک اصطلاحات تخصصی پزشکی پزشکانش استفاده میکرد، اما به نظر میرسید بخش عمدهای از ارائه، بر این موضوع تمرکز داشت که ChatGPT-5 چقدر در نوشتن کد عالی عمل میکند.
با این حال، در دنیای واقعی، مردم از هوش مصنوعی و به ویژه ChatGPT به شکلی کمی متفاوت استفاده میکنند. همانطور که اعتراضها به حذف اخیر مدل قدیمی ChatGPT-4o پس از عرضه ChatGPT-5 نشان میدهد، بسیاری از مردم از چتجیپیتی برای سلامت روان خود استفاده میکنند و اگر شخصیت آن تغییر کند، مستقیماً بر آنها تأثیر میگذارد. برای این افراد، هوش مصنوعی ترکیبی از یک مربی زندگی، یک درمانگر و یک دوست است.
به نظر میرسد OpenAI کمکم به این واقعیت و مسئولیتی که بر عهده دارد، آگاه میشود و اخیراً با انتشار بیانیهای اعلام کرده است: «ما گاهی با افرادی مواجه میشویم که در شرایط بحران روانی و عاطفی جدی قرار دارند. چند هفته پیش درباره این موضوع نوشتیم و قصد داشتیم پس از بهروزرسانی بزرگ بعدی، جزئیات بیشتری را به اشتراک بگذاریم. با این حال، موارد دلخراش اخیر از افرادی که در بحرانهای حاد از ChatGPT استفاده کردهاند، ما را به شدت متأثر کرده و معتقدیم که اکنون زمان آن است که اطلاعات بیشتری را به اشتراک بگذاریم.»
تقویت تدابیر حفاظتی
بنابراین، اگرچه OpenAI هنوز چیز جدیدی را رسماً اعلام نکرده است، اما قصد دارد «توضیح دهد که ChatGPT برای انجام چه کاری طراحی شده، سیستمهای ما در کجا میتوانند بهبود یابند و چه کارهایی را در آینده برنامهریزی کردهایم.» بهطور خلاصه، OpenAI در حال کار روی بهبود ChatGPT در چند زمینه کلیدی مرتبط با سلامت و ایمنی کاربران است.
در مرحله اول، آنها تدابیر حفاظتی را در مکالمات طولانی تقویت میکنند: «ممکن است چتجیپیتی در اولین باری که فردی به نیت خودکشی اشاره میکند، به درستی او را به خط تلفن اورژانس معرفی کند، اما پس از پیامهای متعدد در یک دوره زمانی طولانی، احتمال دارد پاسخی ارائه دهد که برخلاف تدابیر حفاظتی ما باشد.»
دوم، در حال اصلاح نحوه مسدودسازی محتوا هستند: «ما مواردی را دیدهایم که محتوایی که باید مسدود میشد، نشده است. این شکافها معمولاً به این دلیل رخ میدهد که طبقهبندیکننده، شدت محتوا را دستکم میگیرد. ما در حال تنظیم آن آستانهها هستیم تا تدابیر حفاظتی در مواقع لازم فعال شوند.»
OpenAI همچنین قصد دارد مداخلات خود را برای افراد بیشتری که در بحران قرار دارند، گسترش دهد: «ما در حال بررسی چگونگی مداخله زودتر و ارتباط افراد با درمانگران دارای مجوز هستیم، پیش از آنکه به یک بحران حاد برسند. این به معنای فراتر رفتن از صرفاً معرفی خطوط تلفن اورژانس و بررسی این است که چگونه میتوانیم شبکهای از متخصصان دارای مجوز را ایجاد کنیم تا افراد بتوانند مستقیماً از طریق چتجیپیتی با آنها ارتباط برقرار کنند. انجام این کار به زمان و تلاش دقیق نیاز دارد.»
کنترل والدین
یکی دیگر از نوآوریهای جالب، معرفی کنترل والدین است. «ما به زودی کنترل والدین را معرفی خواهیم کرد که به آنها این امکان را میدهد تا بینش بیشتری در مورد نحوه استفاده نوجوانان خود از ChatGPT به دست آورند و آن را شکل دهند. همچنین در حال بررسی این هستیم که امکان تعیین یک فرد مورد اعتماد برای تماس در مواقع اضطراری را برای نوجوانان (با نظارت والدین) فراهم کنیم. به این ترتیب، در لحظات بحرانی، چتجیپیتی میتواند کاری فراتر از معرفی منابع انجام دهد: میتواند به نوجوانان کمک کند تا مستقیماً با فردی که میتواند وارد عمل شود، ارتباط برقرار کنند.»
ChatGPT تا این حد و به این سرعت تکامل یافته که اغلب به نظر من میرسد OpenAI واقعاً فرصتی برای نشستن و تفکر در مورد تمام پیامدهای آخرین نوآوریهایش، پیش از اعلام آنها، نداشته است. کنترل والدین باید هماکنون در تمام چتباتهای هوش مصنوعی یک گزینه میبود، اما خوب است که بالاخره قرار است اضافه شود. سایر هوشهای مصنوعی، مانند کوپایلت، محدودیتهای بیشتری در مورد انواع مکالماتی که میتوانید داشته باشید، دارند، اما کنترل والدین خود را به سیستمعاملهای ویندوز یا اپل واگذار میکنند.
اینکه OpenAI چگونه کنترلهای والدین مؤثری را پیادهسازی خواهد کرد که به راحتی قابل دور زدن نباشند، هنوز مشخص نیست (و یکی از دلایلی است که هوشهای مصنوعی معمولاً به جای آن به توصیه کنترلهای والدین داخلی سیستمعامل روی میآورند)، اما به نظر من زمان آن رسیده که این گفتگو آغاز شود.