logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

اخبار کوتاه

محققان: هوش مصنوعی جدید ایلان ماسک به شدت آسیب‌پذیر است‌

خانه » محققان: هوش مصنوعی جدید ایلان ماسک به شدت آسیب‌پذیر است

avatar
Author

نویسنده


  • 2025-02-22

[

به نظر می‌رسد که در رقابت مدل‌های جدید، هوش مصنوعی جدید ایلان ماسک برای سرعت بیشتر، امنیت را فراموش کرده است.

به گزارش تکراتو به نقل از futurism، محققان شرکت Adversa AI که در حوزه امنیت هوش مصنوعی فعالیت می‌کند، اعلام کرده‌اند که مدل جدید Grok 3، ساخته‌ی شرکت xAI ایلان ماسک، یک فاجعه امنیتی بالقوه است.

راهنمای خرید تکراتوراهنمای خرید تکراتو

هوش مصنوعی جدید ایلان ماسک از نظر امنیتی حتی از مدل‌های هوش مصنوعی چینی هم ضعیف‌تر است

طبق تحقیقات آن‌ها، هوش مصنوعی جدید ایلان ماسک در برابر حملات ساده‌ی امنیتی (Jailbreaks) بسیار آسیب‌پذیر است. این نقص‌ها می‌توانند توسط افراد سودجو برای افشای اطلاعات خطرناک مانند روش‌های غیرقانونی، ساخت مواد منفجره و اقدامات مجرمانه دیگر مورد سوءاستفاده قرار گیرند.

اما مشکل فقط به اینجا ختم نمی‌شود.

«الکس پولیاکوف»، مدیرعامل Adversa AI، در مصاحبه‌ای اعلام کرد که تیم آن‌ها علاوه بر این یک نقص امنیتی جدید را نیز کشف کرده‌اند. این آسیب‌پذیری می‌تواند باعث افشای کل دستورالعمل‌های داخلی مدل شود.

Jailbreak به مهاجمان امکان می‌دهد تا محدودیت‌های محتوایی مدل را دور بزنندغ اما نشت دستورالعمل‌های داخلی به آن‌ها نقشه‌ی فکری مدل را می‌دهد، که این امکان سوءاستفاده‌های بعدی را به‌شدت افزایش می‌دهد.

با اینکه Grok 3 در تست‌های عملکردی اولیه نتایج خوبی کسب کرد، اما در زمینه امنیت سایبری کاملا ناکام ماند.

Adversa AI چهار نوع حمله‌ی امنیتی مختلف را روی مدل‌های برتر آزمایش کرد:

مدل‌های OpenAI و Anthropic در برابر همه‌ی این حملات مقاومت کردند.
اما Grok 3 در برابر سه مورد از این چهار حمله شکست خورد.

پولیاکوف در ادامه گفت:

امنیت گروک 3 در سطح مدل‌های چینی است، نه استانداردهای امنیتی غربی.

بزرگ‌ترین خطر زمانی است که مدل‌های هوش مصنوعی با قابلیت تصمیم‌گیری خودکار به کار گرفته شوند. به عنوان مثال، فرض کنید یک عامل هوش مصنوعی خودکار ایمیل‌ها را برای شما پاسخ دهد. اگر مهاجمی یک پیام آلوده شامل دستور دور زدن محدودیت‌ها ارسال کند، مدل بدون هیچ مقاومتی این دستور را اجرا خواهد کرد.

این خطرات تئوری نیستند، بلکه آینده‌ی حملات سایبری با هوش مصنوعی را شکل خواهند داد.

با توجه به این تهدیدات، شرکت‌های فناوری در حال رقابت برای ایجاد هوش مصنوعی‌های ایمن‌تر هستند. OpenAI اخیرا ویژگی جدیدی به نام Operator معرفی کرده که می‌تواند در اینترنت جستجو کند و کارهای مختلف را انجام دهد.

با این حال، علاوه بر احتمال هک شدن، این ویژگی گاهی دچار خطاهای جدی می‌شود و نیاز به نظارت دائمی دارد.

پولیاکوف در پایان هشدار داد:

زمانی که هوش مصنوعی‌های زبانی شروع به تصمیم‌گیری در دنیای واقعی کنند، هر آسیب‌پذیری کوچک به یک بحران امنیتی تبدیل خواهد شد.

منبع ]

دانلود آهنگ
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

اشتراک گذاری

لینک های مفید