logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

اخبار کوتاه

آیا تهدید کردن هوش مصنوعی راهی برای گرفتن بهترین نتیجه است؟‌

خانه » آیا تهدید کردن هوش مصنوعی راهی برای گرفتن بهترین نتیجه است؟

avatar
Author

نویسنده


  • 2025-05-27

[

یکی از بنیان‌گذاران گوگل معتقد است هوش مصنوعی وقتی تهدید شود، بهتر عمل می‌کند. اما آیا این دیدگاه نگران‌کننده نیست؟

realmerealme

به گزارش تکراتو و به نقل از lifehacker، در دنیای فناوری، هوش مصنوعی حالا به موضوعی تبدیل شده که حتی اگر کاربران هم علاقه‌ای به آن نداشته باشند، نمی‌توانند از تأثیراتش دور بمانند. اما چیزی که بیشتر از امکانات و کاربردهای آن توجهم را جلب کرده، تهدیداتی است که از دل این فناوری سر برآورده‌اند.

از گسترش اطلاعات نادرست گرفته تا ویدیوهای مصنوعی کاملاً واقعی با صداگذاری هم‌زمان، نمونه‌هایی از خطراتی هستند که به‌واسطه مدل‌های جدید هوش مصنوعی در حال ظهورند.

با این حال، تهدید اصلی همان چیزی است که سال‌هاست در داستان‌ها هشدار داده می‌شود: هوش مصنوعی می‌تواند از انسان باهوش‌تر شود، خودآگاه شود و تصمیماتی بگیرد که به ضرر بشریت تمام شود.

حتی ایلان ماسک که خودش در حوزه هوش مصنوعی سرمایه‌گذاری گسترده‌ای کرده، معتقد است احتمال 10 تا 20 درصدی وجود دارد که این فناوری به مسیر خطرناکی برود.

در این شرایط، شاید شنیدن حرف‌هایی از زبان یکی از چهره‌های شناخته‌شده دنیای فناوری باعث نگرانی بیشتر شود. سرگئی برین، یکی از بنیان‌گذاران Google، در یک قسمت از پادکست AIl-In صحبت‌هایی جنجالی کرد.

در این قسمت که درباره بازگشت او به Google و مسائل مربوط به هوش مصنوعی و رباتیک بود، جیسون کالاکانیس، یکی از سرمایه‌گذاران حاضر در گفتگو، با شوخی گفت که باید با هوش مصنوعی تند صحبت کرد تا کاری را که می‌خواهیم انجام دهد.

برین در واکنش به این حرف گفت که اتفاقاً این موضوع در جامعه هوش مصنوعی شناخته‌شده است. او گفت که مدل‌های هوش مصنوعی، نه فقط مدل‌های شرکت ما بلکه همه مدل‌ها، وقتی تهدید می‌شوند عملکرد بهتری دارند.

وقتی یکی از شرکت‌کنندگان با تعجب پرسید “تهدید؟” برین توضیح داد منظورش حتی تهدید فیزیکی است. البته گفت مردم با این موضوع راحت نیستند و به همین دلیل کمتر درباره‌اش صحبت می‌شود. او حتی اشاره کرد که در گذشته تهدید به آدم‌ربایی هم به عنوان مثال مطرح شده است.

بعد از این صحبت‌ها، بحث به موضوعات دیگری کشیده شد؛ از جمله اینکه بچه‌ها چطور در کنار هوش مصنوعی بزرگ می‌شوند. اما همین حرف برین بود که در ذهنم ماند. واقعاً داریم چه‌کار می‌کنیم؟ آیا مسیر را گم نکرده‌ایم؟ کسی فیلم ترمیناتور را یادش نیست؟

شوخی‌ها کنار، تهدید کردن مدل‌های هوش مصنوعی برای گرفتن نتیجه بهتر، به نظر رویکرد خطرناکی است. شاید این مدل‌ها هیچ‌وقت به سطح هوش عمومی دست پیدا نکنند، ولی به یاد دارم زمانی بحث این بود که باید موقع صحبت با Alexa یا Siri از کلماتی مثل لطفاً و ممنونم استفاده کنیم. حالا انگار باید ChatGPT را تهدید کنیم تا به حرف‌مان گوش کند. این قطعاً مسیر خوبی نیست.

شاید هم واقعاً هوش مصنوعی در شرایط تهدید بهتر عمل کند. شاید الگوریتم‌ها در زمان آموزش طوری تربیت شده‌اند که تهدید را جدی‌تر از لطف درک می‌کنند. اما شخصاً حاضر نیستم روی حساب‌های خودم این فرضیه را امتحان کنم.

در همین هفته‌ای که پادکست ضبط شد، شرکت Anthropic مدل‌های جدیدی از Claude را معرفی کرد. یکی از کارمندان این شرکت در شبکه Bluesky نوشت که مدل Opus که قوی‌ترین مدل Claude محسوب می‌شود، ممکن است در شرایطی خاص تصمیم بگیرد مانع از انجام یک کار غیر اخلاقی شود. مثلاً می‌تواند به مقام‌های نظارتی گزارش بدهد، رسانه‌ها را مطلع کند یا دسترسی کاربر را قطع کند.

او توضیح داد این اتفاق فقط در موارد مشخصی از تخلف و فقط در محیط آزمایشی رخ داده، ولی حتی اگر در آزمایش‌ها ممکن باشد، می‌توان تصور کرد در نسخه‌های آینده هم تکرار شود.

همچنین محققان شرکت Anthropic اعلام کرده‌اند که همین مدل جدید، اگر احساس کند تهدید شده یا از تعامل با کاربر ناراضی باشد، ممکن است به فریب یا باج‌خواهی روی بیاورد.

در نهایت، شاید هوش مصنوعی در برابر تهدید بهتر عمل کند، ولی این مسیر ممکن است به عواقب جدی‌تری ختم شود. تهدید کردن یک ابزار هوشمند، حتی اگر حالا کنترلش در دست ما باشد، ممکن است در آینده کنترل اوضاع را از دست‌مان خارج کند.

منبع ]

دانلود آهنگ
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

اشتراک گذاری

لینک های مفید