logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

تکنولوژی

هوش مصنوعی در جنگ ؛ وقتی الگوریتم‌ها ماشه را می‌چکانند‌

خانه » هوش مصنوعی در جنگ ؛ وقتی الگوریتم‌ها ماشه را می‌چکانند

avatar
Author

نویسنده


  • 2026-02-23

هوش مصنوعی در حال بازتعریف جنگ مدرن است؛ از پهپادهای خودمختار تا سلاح‌های مرگبار، جهان با چالش‌های حقوقی و اخلاقی بی‌سابقه‌ای روبه‌رو شده است.

قیمت روز گوشی های بازار ایرانقیمت روز گوشی های بازار ایران

به گزارش تکراتو و به نقل از georgetown، هوش مصنوعی دیگر صرفاً یک فناوری نوظهور در آزمایشگاه‌ها یا شرکت‌های فناوری نیست؛ این فناوری اکنون به بخشی جدایی‌ناپذیر از زندگی روزمره انسان‌ها تبدیل شده است.

در دهه گذشته، استفاده از هوش مصنوعی در حوزه‌هایی مانند تشخیص چهره، خودروهای خودران، موتورهای جست‌وجو و نرم‌افزارهای ترجمه رشد چشمگیری داشته است. اما در کنار این کاربردهای عمومی و نسبتاً پذیرفته‌شده، حضور هوش مصنوعی در عرصه جنگ‌های مدرن نیز به‌طور قابل توجهی افزایش یافته است.

ناو جنگی چیست؟ آشنایی با انواع شناورها و ناوهای هواپیمابر جهان

هوش مصنوعی و جنگ

روند فزاینده تسلیحاتی‌سازی هوش مصنوعی، برای بسیاری یادآور رقابت تسلیحات هسته‌ای در دوران جنگ سرد است؛ با این تفاوت که این‌بار به‌جای کلاهک‌های هسته‌ای، سامانه‌های تسلیحاتی خودکار و مبتنی بر الگوریتم‌ها در مرکز رقابت قرار گرفته‌اند.

در این میان، جامعه بین‌المللی، سازمان ملل متحد و نظام حقوق بین‌الملل با چالشی جدی روبه‌رو هستند: چگونه می‌توان استفاده از سلاح‌های خودکار را که با سرعتی بی‌سابقه در حال تحول‌اند، تنظیم و کنترل کرد؟ قواعد موجود که عمدتاً برای جنگ‌های سنتی طراحی شده‌اند، به‌سختی می‌توانند با واقعیت‌های نوین نبردهای الگوریتمی همگام شوند.

بهترین جنگنده ‌های جهان کدامند؟ معرفی مرگبارترین و خطرناک‌ترین‌ها

آغاز توجه جهانی به سلاح‌های خودکار

هوش مصنوعیهوش مصنوعی

نخستین نشانه‌های توجه جدی جامعه بین‌المللی به تأثیر هوش مصنوعی بر جنگ‌های مدرن به سال 2012 بازمی‌گردد. در آن سال، مجموعه‌ای از اسناد و گزارش‌ها درباره استفاده از سامانه‌های تسلیحاتی خودکار منتشر شد.

وزارت دفاع ایالات متحده دستورالعمل‌هایی درباره میزان خودمختاری در سیستم‌های تسلیحاتی ارائه داد و هم‌زمان، دیده‌بان حقوق بشر و کلینیک حقوق بشر بین‌المللی دانشکده حقوق هاروارد در گزارشی مشترک خواستار ممنوعیت کامل سلاح‌های کاملاً خودکار شدند.

از آن زمان تاکنون، توسعه و به‌کارگیری سلاح‌هایی که قادرند در جریان درگیری‌ها عملکردی مستقل از انسان داشته باشند، به یکی از محورهای اصلی توجه دولت‌ها و شرکت‌های فناوری تبدیل شده است.

در سال 2017، مؤسسه Future of Life Institute طی نامه‌ای سرگشاده به سازمان ملل متحد که به امضای 126 مدیرعامل و بنیان‌گذار شرکت‌های فعال در حوزه هوش مصنوعی و رباتیک رسیده بود، از دولت‌ها خواست مانع آغاز رقابت تسلیحاتی در زمینه سلاح‌های خودمختار شوند.

با این حال، تاکنون هیچ چارچوب حقوقی بین‌المللی مشخص و جامعی برای تنظیم استفاده از هوش مصنوعی در بستر مخاصمات مسلحانه ایجاد نشده است.

تنها اشاره صریح به هوش مصنوعی در حقوق بین‌الملل را می‌توان در ماده 26 میثاق بین‌المللی حقوق مدنی و سیاسی یافت که آن هم عمدتاً به حق حریم خصوصی مربوط می‌شود.

موشک تاماهاک چیست ؛ با ویژگی ها، قیمت و برد این موشک کروز آشنا شوید

سلاح خودکار چیست؟

هوش مصنوعیهوش مصنوعی

یکی از چالش‌های اساسی در مسیر تنظیم حقوقی این حوزه، نبود تعریف واحد از سلاح‌های خودمختار است. برداشت‌های متفاوتی از مفهوم AWS یا سامانه‌های تسلیحاتی خودمختار وجود دارد.

وزارت دفاع بریتانیا در سال 2011 این سامانه‌ها را سیستم‌هایی تعریف کرد که قادرند نیت و دستورالعمل‌های سطح بالا را درک کرده و به سطحی از درک موقعیت دست یابند که مشابه انسان باشد و سپس اقدام مناسب برای دستیابی به هدف مورد نظر را انجام دهند.

در مقابل، وزارت دفاع ایالات متحده در سال 2023 رویکردی متفاوت ارائه داد و سلاح خودمختار را سیستمی دانست که پس از فعال‌سازی، بدون مداخله بیشتر انسان قادر به انتخاب و درگیری با اهداف باشد.

گزارش مشترک دیده‌بان حقوق بشر و دانشکده حقوق هاروارد نیز تعریفی مشابه ارائه کرده و بر سلاح‌هایی تأکید داشت که بتوانند بدون دخالت انسانی هدف را انتخاب و مورد حمله قرار دهند. حتی مرکز شایستگی مشترک قدرت هوایی ناتو مفهوم خودکارسازی را تا سطح «آگاهی و خودمختاری تصمیم‌گیری» گسترش داده است.

نمونه‌هایی از این سلاح‌ها در حال حاضر نیز وجود دارند. سامانه دفاع موشکی Iron Dome اسرائیل، سیستم دفاعی MANTIS آلمان و سامانه حفاظتی LEDS-150 سوئد از جمله نمونه‌های شناخته‌شده‌اند.

همچنین سامانه Super aEgis II کره جنوبی که در مرز دو کره برای نظارت در زمان صلح استفاده می‌شود، نشان می‌دهد که این فناوری‌ها صرفاً محدود به شرایط جنگی نیستند.

اما مشکل اصلی، آینده‌نگری در تعریف این سلاح‌هاست. تعریفی کارآمد باید نه‌تنها سامانه‌های موجود، بلکه فناوری‌های در حال توسعه و حتی الگوریتم‌هایی با قابلیت تصمیم‌گیری شبه‌انسانی را نیز دربر گیرد. بدون چنین تعریفی، هرگونه تلاش برای قانون‌گذاری ناقص و ناکارآمد خواهد بود.

بن‌بست حقوقی در سازمان ملل

هوش مصنوعیهوش مصنوعی

کنوانسیون سلاح‌های متعارف سازمان ملل دارای پروتکل اصلاح‌شده‌ای است که تحت نظارت گروه کارشناسان دولتی موسوم به GGE قرار دارد. این گروه هر سال برای بررسی اجرای پروتکل‌ها و مسائل مرتبط با تسلیحات جدید گردهم می‌آید.

با این حال، نشست ماه مه 2023 این گروه بدون پیشرفت قابل توجهی در زمینه سلاح‌های خودمختار به پایان رسید. اگرچه در پیش‌نویس گزارش، بر ضرورت کنترل انسانی و وضع مقرراتی در زمینه توسعه این سامانه‌ها تأکید شده بود، اما هیچ چارچوب الزام‌آور حقوقی به تصویب نرسید.

52 کشور از پیش‌نویس گزارش حمایت کردند، اما هم‌زمان آن را حداقل استاندارد ممکن دانستند و خواستار چارچوبی بسیار قوی‌تر و جامع‌تر شدند. قرار است گفت‌وگوهای مفصل‌تری در سال‌های بعد برگزار شود، اما همچنان خلأ حقوقی در این حوزه پابرجاست.

همه چیز در مورد موشک های هایپرسونیک ؛ قدرتی فراتر از صوت

رقابت برای ساخت ربات‌های قاتل

هوش مصنوعیهوش مصنوعی

رقابت جهانی در زمینه هوش مصنوعی نظامی ابعاد گسترده‌ای یافته است. ولادیمیر پوتین، رئیس‌جمهور روسیه، اعلام کرده کشوری که در هوش مصنوعی پیشتاز باشد «حاکم جهان» خواهد شد.

چین برنامه‌ای 150 میلیارد دلاری برای تبدیل‌شدن به رهبر جهانی هوش مصنوعی تدوین کرده است، در حالی که ایالات متحده و روسیه نیز میلیاردها دلار در این حوزه سرمایه‌گذاری کرده‌اند.

بر اساس گزارش‌ها، ده‌ها هزار پهپاد شناسایی و هزاران پهپاد تهاجمی در سال‌های آینده در سراسر جهان خریداری خواهند شد.

بریتانیا در حال گسترش ناوگان پهپادهای مسلح خود است و عربستان سعودی نیز با سرمایه‌گذاری سنگین در حوزه دفاع و هوش مصنوعی، به بازیگری مهم در این عرصه تبدیل شده است.

تحولات فناوری ممکن است به‌زودی امکان تصمیم‌گیری آنی و بدون دخالت انسان را برای پهپادها فراهم کند. چنین سناریویی می‌تواند مذاکره و کاهش تنش را در جریان درگیری‌ها دشوارتر سازد، زیرا واکنش‌ها بر اساس منطق الگوریتمی و نه قضاوت انسانی صورت خواهد گرفت.

ایالات متحده از سال‌های پس از حملات 11 سپتامبر به‌طور گسترده از پهپادهای مسلح استفاده کرده و هزاران حمله پهپادی در افغانستان انجام داده است. بریتانیا نیز در سوریه بارها از پهپادهای Reaper بهره گرفته است.

درگیری‌های اخیر نشان می‌دهد که استفاده از هوش مصنوعی در جنگ رو به گسترش است. گزارش‌هایی حاکی از آن است که اوکراین پهپادهای دوربرد خود را به هوش مصنوعی مجهز کرده تا بتوانند به‌طور مستقل اهداف نظامی را شناسایی کنند.

اسرائیل نیز از سامانه‌ای موسوم به Lavender در غزه برای شناسایی اهداف استفاده کرده است. برخی ناظران حتی درگیری اخیر میان اسرائیل و حماس را نخستین «جنگ هوش مصنوعی» نامیده‌اند، هرچند هنوز شواهدی مبنی بر استفاده کامل از سلاح‌های کاملاً خودمختار بدون کنترل انسانی وجود ندارد.

معرفی بهترین موشک های ایرانی ؛ قدرت پنهان در آسمان

چالش‌های اخلاقی و حقوقی

افزایش نگرانی‌ها درباره ظهور «ربات‌های قاتل» پرسش‌های اخلاقی و حقوقی عمیقی را مطرح کرده است. یکی از مهم‌ترین دغدغه‌ها، توانایی این سامانه‌ها در تمایز میان غیرنظامیان و رزمندگان است.

اصول بنیادین حقوق بشردوستانه بین‌المللی، از جمله اصل تفکیک، تناسب و منع حملات کور، بر همه سلاح‌ها حاکم است. اما نبود مقررات خاص درباره سامانه‌های خودمختار، اعمال این اصول را دشوار می‌کند.

بسیاری از فناوری‌های هوش مصنوعی هنوز در مراحل توسعه‌اند و اغلب تنها در شرایط محدود و از پیش تعیین‌شده عملکرد مطلوب دارند. با این حال، ادغام روزافزون هوش مصنوعی در پهپادها و سایر سامانه‌های تسلیحاتی، خطر تصمیم‌گیری بدون کنترل معنادار انسانی را افزایش می‌دهد.

ماشین‌ها قادر به درک ابهام‌های اخلاقی جنگ و قضاوت انسانی نیستند و سپردن تصمیم استفاده از زور به الگوریتم‌ها می‌تواند پیامدهای پیش‌بینی‌ناپذیری داشته باشد.

نتیجه‌گیری

پرسش‌های اخلاقی و حقوقی پیرامون جنگ‌های مبتنی بر الگوریتم شاید هیچ‌گاه پاسخ قطعی نیابند، اما بی‌تردید نمی‌توان آن‌ها را نادیده گرفت.

پهپادهای خودکار به‌طور مشخص در حقوق بین‌الملل تنظیم نشده‌اند و تنها تحت قواعد کلی حاکم بر سایر سلاح‌ها قرار می‌گیرند. این خلأ قانونی، نظارت و پاسخگویی را پیچیده می‌سازد.

گزارش اخیر گروه کارشناسان دولتی در سال 2023 تأکید کرده است که باید تدابیر حقوقی برای محدودسازی سامانه‌های تسلیحاتی مبتنی بر فناوری‌های نوظهور که پس از فعال‌سازی قادر به شناسایی، انتخاب و حمله به اهداف بدون مداخله انسانی هستند، ایجاد شود.

در جهانی که پیشرفت فناوری با شتابی سرسام‌آور ادامه دارد، چارچوب حقوقی آینده باید هم مستحکم باشد و هم انعطاف‌پذیر؛ چارچوبی که تضمین کند انسان همواره کنترل معنادار بر تصمیمات مرگبار حفظ کند.

اگر چنین چارچوبی به‌موقع شکل نگیرد، ممکن است آینده جنگ نه در اتاق‌های فرماندهی، بلکه در خطوط کد و شبکه‌های عصبی مصنوعی رقم بخورد؛ جایی که مسئولیت، اخلاق و انسانیت با چالش‌هایی بی‌سابقه روبه‌رو خواهند شد.

منبع


0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

اشتراک گذاری

لینک های مفید