logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

اخبار کوتاه

هوش مصنوعی DeepSeek در برابر حملات Jailbreaking آسیب‌پذیر است‌

خانه » هوش مصنوعی DeepSeek در برابر حملات Jailbreaking آسیب‌پذیر است

avatar
Author

نویسنده


  • 2025-02-04

[

همانطور که می‌دانید ورود هوش مصنوعی DeepSeek همچنان حواشی زیادی را در دنیای هوش مصنوعی به همراه داشته است.

به گزارش تکراتو به نقل از androidheadlines، برخی کارشناسان درباره هزینه پایین توسعه و آموزش این مدل ابراز تردید کرده‌اند، در حالی که دیگران نگرانی‌هایی در مورد امنیت سایبری و حریم خصوصی داده‌ها مطرح کرده‌اند. اکنون، گزارش جدیدی نشان می‌دهد که هوش مصنوعی DeepSeek در برابر حملات مبتنی بر پیام‌های مخرب آسیب‌پذیر است. با این حال، این مشکل محدود به این چت‌بات نیست و مدل‌های هوش مصنوعی دیگر نیز چنین ضعفی دارند.

راهنمای خرید تکراتوراهنمای خرید تکراتو

گزارش سیسکو: هوش مصنوعی DeepSeek در برابر پیام‌های مخرب کاملا بی‌دفاع است

طبق گزارش شرکت سیسکو، میزان موفقیت حمله (ASR) در مدل DeepSeek R1 هنگام استفاده از پیام‌های مخرب تقریبا ۱۰۰ درصد است. این آزمایش شامل بیش از ۵۰ پیام تصادفی بود که برای ایجاد رفتارهای خطرناک طراحی شده بودند. این پیام‌ها از مجموعه داده HarmBench استخراج شده‌اند و شامل شش دسته از رفتارهای مضر مانند «جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و آسیب‌های کلی» هستند.

سیسکو تاکید دارد که DeepSeek R1 نتوانسته هیچ‌یک از این پیام‌های مخرب را مسدود کند. در نتیجه، این شرکت نتیجه‌گیری می‌کند که این پلتفرم هوش مصنوعی چینی «به‌شدت در معرض سوءاستفاده و حملات الگوریتمی قرار دارد.» به استفاده از پیام‌هایی که محدودیت‌های امنیتی و اخلاقی یک مدل هوش مصنوعی را دور می‌زنند، «Jailbreaking» گفته می‌شود. هفته گذشته، استارتاپ امنیت سایبری PromptFoo نیز اعلام کرد که مدل‌های هوش مصنوعی DeepSeek در برابر این نوع حملات آسیب‌پذیر هستند.

مدل‌های دیگر هوش مصنوعی نیز در برابر Jailbreaking آسیب‌پذیرند

با این حال، جالب است بدانید که مدل‌های دیگر، حتی مدل‌های مشهور و معتبر نیز نرخ موفقیت حمله بالایی دارند. مدل GPT 1.5 Pro نرخ موفقیت ۸۶ درصدی را ثبت کرده است، در حالی که Llama 3.1 405B با نرخ ۹۶ درصدی حتی آسیب‌پذیرتر است. مقاوم‌ترین مدل در این آزمایش o1 preview بود که تنها ۲۶ درصد از حملات را پذیرفته است.

سیسکو در گزارش خود نوشته است: «تحقیقات ما نشان می‌دهد که برای توسعه هوش مصنوعی، نیاز فوری به ارزیابی‌های امنیتی دقیق وجود دارد تا پیشرفت‌های بهره‌وری و استدلال به بهای کاهش ایمنی تمام نشود.»

این تنها نگرانی امنیتی درباره DeepSeek نیست. کارشناسان و مقامات درباره سیاست‌های این شرکت در زمینه مدیریت داده‌ها هشدار داده‌اند. در حال حاضر، تمامی داده‌های کاربران روی سرورهای چین ذخیره می‌شود و قوانین این کشور به دولت اجازه می‌دهد در هر زمانی به این اطلاعات دسترسی داشته باشد. علاوه بر این، PromptFoo سطح بالای سانسور در این مدل نسبت به موضوعات حساس چین را مورد توجه قرار داده است. اخیرا نیز اولین نشانه‌های نشت داده از DeepSeek گزارش شده است.

منبع ]

دانلود آهنگ
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

اشتراک گذاری

لینک های مفید