[
به نظر میرسد که در رقابت مدلهای جدید، هوش مصنوعی جدید ایلان ماسک برای سرعت بیشتر، امنیت را فراموش کرده است.
به گزارش تکراتو به نقل از futurism، محققان شرکت Adversa AI که در حوزه امنیت هوش مصنوعی فعالیت میکند، اعلام کردهاند که مدل جدید Grok 3، ساختهی شرکت xAI ایلان ماسک، یک فاجعه امنیتی بالقوه است.
هوش مصنوعی جدید ایلان ماسک از نظر امنیتی حتی از مدلهای هوش مصنوعی چینی هم ضعیفتر است
طبق تحقیقات آنها، هوش مصنوعی جدید ایلان ماسک در برابر حملات سادهی امنیتی (Jailbreaks) بسیار آسیبپذیر است. این نقصها میتوانند توسط افراد سودجو برای افشای اطلاعات خطرناک مانند روشهای غیرقانونی، ساخت مواد منفجره و اقدامات مجرمانه دیگر مورد سوءاستفاده قرار گیرند.
اما مشکل فقط به اینجا ختم نمیشود.
«الکس پولیاکوف»، مدیرعامل Adversa AI، در مصاحبهای اعلام کرد که تیم آنها علاوه بر این یک نقص امنیتی جدید را نیز کشف کردهاند. این آسیبپذیری میتواند باعث افشای کل دستورالعملهای داخلی مدل شود.
Jailbreak به مهاجمان امکان میدهد تا محدودیتهای محتوایی مدل را دور بزنندغ اما نشت دستورالعملهای داخلی به آنها نقشهی فکری مدل را میدهد، که این امکان سوءاستفادههای بعدی را بهشدت افزایش میدهد.
با اینکه Grok 3 در تستهای عملکردی اولیه نتایج خوبی کسب کرد، اما در زمینه امنیت سایبری کاملا ناکام ماند.
Adversa AI چهار نوع حملهی امنیتی مختلف را روی مدلهای برتر آزمایش کرد:
مدلهای OpenAI و Anthropic در برابر همهی این حملات مقاومت کردند.
اما Grok 3 در برابر سه مورد از این چهار حمله شکست خورد.
پولیاکوف در ادامه گفت:
امنیت گروک 3 در سطح مدلهای چینی است، نه استانداردهای امنیتی غربی.
بزرگترین خطر زمانی است که مدلهای هوش مصنوعی با قابلیت تصمیمگیری خودکار به کار گرفته شوند. به عنوان مثال، فرض کنید یک عامل هوش مصنوعی خودکار ایمیلها را برای شما پاسخ دهد. اگر مهاجمی یک پیام آلوده شامل دستور دور زدن محدودیتها ارسال کند، مدل بدون هیچ مقاومتی این دستور را اجرا خواهد کرد.
این خطرات تئوری نیستند، بلکه آیندهی حملات سایبری با هوش مصنوعی را شکل خواهند داد.
با توجه به این تهدیدات، شرکتهای فناوری در حال رقابت برای ایجاد هوش مصنوعیهای ایمنتر هستند. OpenAI اخیرا ویژگی جدیدی به نام Operator معرفی کرده که میتواند در اینترنت جستجو کند و کارهای مختلف را انجام دهد.
با این حال، علاوه بر احتمال هک شدن، این ویژگی گاهی دچار خطاهای جدی میشود و نیاز به نظارت دائمی دارد.
پولیاکوف در پایان هشدار داد:
زمانی که هوش مصنوعیهای زبانی شروع به تصمیمگیری در دنیای واقعی کنند، هر آسیبپذیری کوچک به یک بحران امنیتی تبدیل خواهد شد.
منبع ]