[
یکی از بنیانگذاران گوگل معتقد است هوش مصنوعی وقتی تهدید شود، بهتر عمل میکند. اما آیا این دیدگاه نگرانکننده نیست؟
به گزارش تکراتو و به نقل از lifehacker، در دنیای فناوری، هوش مصنوعی حالا به موضوعی تبدیل شده که حتی اگر کاربران هم علاقهای به آن نداشته باشند، نمیتوانند از تأثیراتش دور بمانند. اما چیزی که بیشتر از امکانات و کاربردهای آن توجهم را جلب کرده، تهدیداتی است که از دل این فناوری سر برآوردهاند.
از گسترش اطلاعات نادرست گرفته تا ویدیوهای مصنوعی کاملاً واقعی با صداگذاری همزمان، نمونههایی از خطراتی هستند که بهواسطه مدلهای جدید هوش مصنوعی در حال ظهورند.
با این حال، تهدید اصلی همان چیزی است که سالهاست در داستانها هشدار داده میشود: هوش مصنوعی میتواند از انسان باهوشتر شود، خودآگاه شود و تصمیماتی بگیرد که به ضرر بشریت تمام شود.
حتی ایلان ماسک که خودش در حوزه هوش مصنوعی سرمایهگذاری گستردهای کرده، معتقد است احتمال 10 تا 20 درصدی وجود دارد که این فناوری به مسیر خطرناکی برود.
در این شرایط، شاید شنیدن حرفهایی از زبان یکی از چهرههای شناختهشده دنیای فناوری باعث نگرانی بیشتر شود. سرگئی برین، یکی از بنیانگذاران Google، در یک قسمت از پادکست AIl-In صحبتهایی جنجالی کرد.
در این قسمت که درباره بازگشت او به Google و مسائل مربوط به هوش مصنوعی و رباتیک بود، جیسون کالاکانیس، یکی از سرمایهگذاران حاضر در گفتگو، با شوخی گفت که باید با هوش مصنوعی تند صحبت کرد تا کاری را که میخواهیم انجام دهد.
برین در واکنش به این حرف گفت که اتفاقاً این موضوع در جامعه هوش مصنوعی شناختهشده است. او گفت که مدلهای هوش مصنوعی، نه فقط مدلهای شرکت ما بلکه همه مدلها، وقتی تهدید میشوند عملکرد بهتری دارند.
وقتی یکی از شرکتکنندگان با تعجب پرسید “تهدید؟” برین توضیح داد منظورش حتی تهدید فیزیکی است. البته گفت مردم با این موضوع راحت نیستند و به همین دلیل کمتر دربارهاش صحبت میشود. او حتی اشاره کرد که در گذشته تهدید به آدمربایی هم به عنوان مثال مطرح شده است.
بعد از این صحبتها، بحث به موضوعات دیگری کشیده شد؛ از جمله اینکه بچهها چطور در کنار هوش مصنوعی بزرگ میشوند. اما همین حرف برین بود که در ذهنم ماند. واقعاً داریم چهکار میکنیم؟ آیا مسیر را گم نکردهایم؟ کسی فیلم ترمیناتور را یادش نیست؟
شوخیها کنار، تهدید کردن مدلهای هوش مصنوعی برای گرفتن نتیجه بهتر، به نظر رویکرد خطرناکی است. شاید این مدلها هیچوقت به سطح هوش عمومی دست پیدا نکنند، ولی به یاد دارم زمانی بحث این بود که باید موقع صحبت با Alexa یا Siri از کلماتی مثل لطفاً و ممنونم استفاده کنیم. حالا انگار باید ChatGPT را تهدید کنیم تا به حرفمان گوش کند. این قطعاً مسیر خوبی نیست.
شاید هم واقعاً هوش مصنوعی در شرایط تهدید بهتر عمل کند. شاید الگوریتمها در زمان آموزش طوری تربیت شدهاند که تهدید را جدیتر از لطف درک میکنند. اما شخصاً حاضر نیستم روی حسابهای خودم این فرضیه را امتحان کنم.
در همین هفتهای که پادکست ضبط شد، شرکت Anthropic مدلهای جدیدی از Claude را معرفی کرد. یکی از کارمندان این شرکت در شبکه Bluesky نوشت که مدل Opus که قویترین مدل Claude محسوب میشود، ممکن است در شرایطی خاص تصمیم بگیرد مانع از انجام یک کار غیر اخلاقی شود. مثلاً میتواند به مقامهای نظارتی گزارش بدهد، رسانهها را مطلع کند یا دسترسی کاربر را قطع کند.
او توضیح داد این اتفاق فقط در موارد مشخصی از تخلف و فقط در محیط آزمایشی رخ داده، ولی حتی اگر در آزمایشها ممکن باشد، میتوان تصور کرد در نسخههای آینده هم تکرار شود.
همچنین محققان شرکت Anthropic اعلام کردهاند که همین مدل جدید، اگر احساس کند تهدید شده یا از تعامل با کاربر ناراضی باشد، ممکن است به فریب یا باجخواهی روی بیاورد.
در نهایت، شاید هوش مصنوعی در برابر تهدید بهتر عمل کند، ولی این مسیر ممکن است به عواقب جدیتری ختم شود. تهدید کردن یک ابزار هوشمند، حتی اگر حالا کنترلش در دست ما باشد، ممکن است در آینده کنترل اوضاع را از دستمان خارج کند.
منبع ]