logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

اخبار کوتاه

سند داخلی متا نشان می‌دهد که این شرکت نگران پیامدهای فاجعه‌بار مدل‌های هوش مصنوعی است‌

خانه » سند داخلی متا نشان می‌دهد که این شرکت نگران پیامدهای فاجعه‌بار مدل‌های هوش مصنوعی است

avatar
Author

نویسنده


  • 2025-02-04

[

یک سند سیاست‌گذاری از شرکت Meta که نشان از نگرانی این شرکت نسبت به مدل‌های هوش مصنوعی آینده دارد. ظاهرا متا نگران توسعه تصادفی یک مدل هوش مصنوعی است که می‌تواند منجر به «پیامدهای فاجعه‌بار» شود. متا در این خصوص هشدار داده که هوش مصنوعی می‌تواند امنیت سایبری را نابود کند.

به گزارش تکراتو 9to5mac، در این سند، برنامه‌های متا برای جلوگیری از انتشار چنین مدل‌هایی تشریح شده، اما این شرکت اذعان کرده که ممکن است قادر به جلوگیری کامل از این اتفاق نباشد.

راهنمای خرید تکراتوراهنمای خرید تکراتو

متا برنامه‌هایی برای متوقف کردن مدل‌های خطرناک هوش مصنوعی دارد. وب‌سایت TechCrunch سندی را کشف کرده که عنوان آن Frontier AI Framework است.

متا در این سند دو نوع سیستم هوش مصنوعی پرخطر را تعریف کرده است:

سیستم‌های پرخطر (High Risk)
سیستم‌های دارای خطر بحرانی (Critical Risk)

بر اساس تعریف متا، هر دو نوع سیستم می‌توانند در حوزه‌هایی مانند امنیت سایبری ، حملات شیمیایی و حملات بیولوژیکی مؤثر باشند، اما تفاوت در این است که مدل‌های Critical Risk می‌توانند منجر به «نتایج فاجعه‌باری شوند که در شرایط پیشنهادی قابل کنترل نیست.» در مقابل، مدل‌های High Risk ممکن است حمله را آسان‌تر کنند، اما به اندازه مدل‌های Critical Risk قابل‌اعتماد نخواهند بود.

پیامد فاجعه‌بار مدل‌های هوش مصنوعی آینده از دید متا چگونه تعریف می‌شود؟

متا پیامدهای فاجعه‌بار را به این صورت تعریف کرده است:

«نتایجی که تاثیری گسترده، ویرانگر و احتمالا غیرقابل بازگشت بر بشریت دارند و می‌توانند مستقیماً در نتیجه دسترسی به [مدل‌های هوش مصنوعی ما] محقق شوند.»

یک نمونه ذکر شده در سند، هک خودکار و کامل یک شبکه کامپیوتری با بهترین تدابیر امنیتی بدون نیاز به دخالت انسانی است.

سایر خطرات احتمالی شامل:

شناسایی و بهره‌برداری خودکار از آسیب‌پذیری‌های روز صفر
کلاهبرداری‌های کاملا خودکار که به افراد و شرکت‌ها آسیب می‌زند
توسعه و گسترش سلاح‌های بیولوژیکی پرخطر

متا اعلام کرده که در صورت شناسایی یک مدل با خطر بحرانی، بلافاصله توسعه آن را متوقف کرده و از انتشار آن جلوگیری خواهد کرد.

متا: مهار این مدل‌ها شاید ممکن نباشد

این سند همچنین اذعان دارد که اقدامات متا برای جلوگیری از انتشار این مدل‌ها ممکن است کافی نباشد:

«دسترسی به این مدل‌ها به تعداد محدودی از کارشناسان محدود شده و تدابیر امنیتی برای جلوگیری از هک یا سرقت داده‌ها تا جایی که از نظر فنی و تجاری امکان‌پذیر باشد، اجرا خواهد شد.»

منبع ]

دانلود آهنگ
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

اشتراک گذاری

لینک های مفید