هوش مصنوعی در حال بازتعریف جنگ مدرن است؛ از پهپادهای خودمختار تا سلاحهای مرگبار، جهان با چالشهای حقوقی و اخلاقی بیسابقهای روبهرو شده است.


به گزارش تکراتو و به نقل از georgetown، هوش مصنوعی دیگر صرفاً یک فناوری نوظهور در آزمایشگاهها یا شرکتهای فناوری نیست؛ این فناوری اکنون به بخشی جداییناپذیر از زندگی روزمره انسانها تبدیل شده است.
در دهه گذشته، استفاده از هوش مصنوعی در حوزههایی مانند تشخیص چهره، خودروهای خودران، موتورهای جستوجو و نرمافزارهای ترجمه رشد چشمگیری داشته است. اما در کنار این کاربردهای عمومی و نسبتاً پذیرفتهشده، حضور هوش مصنوعی در عرصه جنگهای مدرن نیز بهطور قابل توجهی افزایش یافته است.
ناو جنگی چیست؟ آشنایی با انواع شناورها و ناوهای هواپیمابر جهان
هوش مصنوعی و جنگ
روند فزاینده تسلیحاتیسازی هوش مصنوعی، برای بسیاری یادآور رقابت تسلیحات هستهای در دوران جنگ سرد است؛ با این تفاوت که اینبار بهجای کلاهکهای هستهای، سامانههای تسلیحاتی خودکار و مبتنی بر الگوریتمها در مرکز رقابت قرار گرفتهاند.
در این میان، جامعه بینالمللی، سازمان ملل متحد و نظام حقوق بینالملل با چالشی جدی روبهرو هستند: چگونه میتوان استفاده از سلاحهای خودکار را که با سرعتی بیسابقه در حال تحولاند، تنظیم و کنترل کرد؟ قواعد موجود که عمدتاً برای جنگهای سنتی طراحی شدهاند، بهسختی میتوانند با واقعیتهای نوین نبردهای الگوریتمی همگام شوند.
بهترین جنگنده های جهان کدامند؟ معرفی مرگبارترین و خطرناکترینها
آغاز توجه جهانی به سلاحهای خودکار


نخستین نشانههای توجه جدی جامعه بینالمللی به تأثیر هوش مصنوعی بر جنگهای مدرن به سال 2012 بازمیگردد. در آن سال، مجموعهای از اسناد و گزارشها درباره استفاده از سامانههای تسلیحاتی خودکار منتشر شد.
وزارت دفاع ایالات متحده دستورالعملهایی درباره میزان خودمختاری در سیستمهای تسلیحاتی ارائه داد و همزمان، دیدهبان حقوق بشر و کلینیک حقوق بشر بینالمللی دانشکده حقوق هاروارد در گزارشی مشترک خواستار ممنوعیت کامل سلاحهای کاملاً خودکار شدند.
از آن زمان تاکنون، توسعه و بهکارگیری سلاحهایی که قادرند در جریان درگیریها عملکردی مستقل از انسان داشته باشند، به یکی از محورهای اصلی توجه دولتها و شرکتهای فناوری تبدیل شده است.
در سال 2017، مؤسسه Future of Life Institute طی نامهای سرگشاده به سازمان ملل متحد که به امضای 126 مدیرعامل و بنیانگذار شرکتهای فعال در حوزه هوش مصنوعی و رباتیک رسیده بود، از دولتها خواست مانع آغاز رقابت تسلیحاتی در زمینه سلاحهای خودمختار شوند.
با این حال، تاکنون هیچ چارچوب حقوقی بینالمللی مشخص و جامعی برای تنظیم استفاده از هوش مصنوعی در بستر مخاصمات مسلحانه ایجاد نشده است.
تنها اشاره صریح به هوش مصنوعی در حقوق بینالملل را میتوان در ماده 26 میثاق بینالمللی حقوق مدنی و سیاسی یافت که آن هم عمدتاً به حق حریم خصوصی مربوط میشود.
موشک تاماهاک چیست ؛ با ویژگی ها، قیمت و برد این موشک کروز آشنا شوید
سلاح خودکار چیست؟


یکی از چالشهای اساسی در مسیر تنظیم حقوقی این حوزه، نبود تعریف واحد از سلاحهای خودمختار است. برداشتهای متفاوتی از مفهوم AWS یا سامانههای تسلیحاتی خودمختار وجود دارد.
وزارت دفاع بریتانیا در سال 2011 این سامانهها را سیستمهایی تعریف کرد که قادرند نیت و دستورالعملهای سطح بالا را درک کرده و به سطحی از درک موقعیت دست یابند که مشابه انسان باشد و سپس اقدام مناسب برای دستیابی به هدف مورد نظر را انجام دهند.
در مقابل، وزارت دفاع ایالات متحده در سال 2023 رویکردی متفاوت ارائه داد و سلاح خودمختار را سیستمی دانست که پس از فعالسازی، بدون مداخله بیشتر انسان قادر به انتخاب و درگیری با اهداف باشد.
گزارش مشترک دیدهبان حقوق بشر و دانشکده حقوق هاروارد نیز تعریفی مشابه ارائه کرده و بر سلاحهایی تأکید داشت که بتوانند بدون دخالت انسانی هدف را انتخاب و مورد حمله قرار دهند. حتی مرکز شایستگی مشترک قدرت هوایی ناتو مفهوم خودکارسازی را تا سطح «آگاهی و خودمختاری تصمیمگیری» گسترش داده است.
نمونههایی از این سلاحها در حال حاضر نیز وجود دارند. سامانه دفاع موشکی Iron Dome اسرائیل، سیستم دفاعی MANTIS آلمان و سامانه حفاظتی LEDS-150 سوئد از جمله نمونههای شناختهشدهاند.
همچنین سامانه Super aEgis II کره جنوبی که در مرز دو کره برای نظارت در زمان صلح استفاده میشود، نشان میدهد که این فناوریها صرفاً محدود به شرایط جنگی نیستند.
اما مشکل اصلی، آیندهنگری در تعریف این سلاحهاست. تعریفی کارآمد باید نهتنها سامانههای موجود، بلکه فناوریهای در حال توسعه و حتی الگوریتمهایی با قابلیت تصمیمگیری شبهانسانی را نیز دربر گیرد. بدون چنین تعریفی، هرگونه تلاش برای قانونگذاری ناقص و ناکارآمد خواهد بود.
بنبست حقوقی در سازمان ملل


کنوانسیون سلاحهای متعارف سازمان ملل دارای پروتکل اصلاحشدهای است که تحت نظارت گروه کارشناسان دولتی موسوم به GGE قرار دارد. این گروه هر سال برای بررسی اجرای پروتکلها و مسائل مرتبط با تسلیحات جدید گردهم میآید.
با این حال، نشست ماه مه 2023 این گروه بدون پیشرفت قابل توجهی در زمینه سلاحهای خودمختار به پایان رسید. اگرچه در پیشنویس گزارش، بر ضرورت کنترل انسانی و وضع مقرراتی در زمینه توسعه این سامانهها تأکید شده بود، اما هیچ چارچوب الزامآور حقوقی به تصویب نرسید.
52 کشور از پیشنویس گزارش حمایت کردند، اما همزمان آن را حداقل استاندارد ممکن دانستند و خواستار چارچوبی بسیار قویتر و جامعتر شدند. قرار است گفتوگوهای مفصلتری در سالهای بعد برگزار شود، اما همچنان خلأ حقوقی در این حوزه پابرجاست.
همه چیز در مورد موشک های هایپرسونیک ؛ قدرتی فراتر از صوت
رقابت برای ساخت رباتهای قاتل


رقابت جهانی در زمینه هوش مصنوعی نظامی ابعاد گستردهای یافته است. ولادیمیر پوتین، رئیسجمهور روسیه، اعلام کرده کشوری که در هوش مصنوعی پیشتاز باشد «حاکم جهان» خواهد شد.
چین برنامهای 150 میلیارد دلاری برای تبدیلشدن به رهبر جهانی هوش مصنوعی تدوین کرده است، در حالی که ایالات متحده و روسیه نیز میلیاردها دلار در این حوزه سرمایهگذاری کردهاند.
بر اساس گزارشها، دهها هزار پهپاد شناسایی و هزاران پهپاد تهاجمی در سالهای آینده در سراسر جهان خریداری خواهند شد.
بریتانیا در حال گسترش ناوگان پهپادهای مسلح خود است و عربستان سعودی نیز با سرمایهگذاری سنگین در حوزه دفاع و هوش مصنوعی، به بازیگری مهم در این عرصه تبدیل شده است.
تحولات فناوری ممکن است بهزودی امکان تصمیمگیری آنی و بدون دخالت انسان را برای پهپادها فراهم کند. چنین سناریویی میتواند مذاکره و کاهش تنش را در جریان درگیریها دشوارتر سازد، زیرا واکنشها بر اساس منطق الگوریتمی و نه قضاوت انسانی صورت خواهد گرفت.
ایالات متحده از سالهای پس از حملات 11 سپتامبر بهطور گسترده از پهپادهای مسلح استفاده کرده و هزاران حمله پهپادی در افغانستان انجام داده است. بریتانیا نیز در سوریه بارها از پهپادهای Reaper بهره گرفته است.
درگیریهای اخیر نشان میدهد که استفاده از هوش مصنوعی در جنگ رو به گسترش است. گزارشهایی حاکی از آن است که اوکراین پهپادهای دوربرد خود را به هوش مصنوعی مجهز کرده تا بتوانند بهطور مستقل اهداف نظامی را شناسایی کنند.
اسرائیل نیز از سامانهای موسوم به Lavender در غزه برای شناسایی اهداف استفاده کرده است. برخی ناظران حتی درگیری اخیر میان اسرائیل و حماس را نخستین «جنگ هوش مصنوعی» نامیدهاند، هرچند هنوز شواهدی مبنی بر استفاده کامل از سلاحهای کاملاً خودمختار بدون کنترل انسانی وجود ندارد.
معرفی بهترین موشک های ایرانی ؛ قدرت پنهان در آسمان
چالشهای اخلاقی و حقوقی
افزایش نگرانیها درباره ظهور «رباتهای قاتل» پرسشهای اخلاقی و حقوقی عمیقی را مطرح کرده است. یکی از مهمترین دغدغهها، توانایی این سامانهها در تمایز میان غیرنظامیان و رزمندگان است.
اصول بنیادین حقوق بشردوستانه بینالمللی، از جمله اصل تفکیک، تناسب و منع حملات کور، بر همه سلاحها حاکم است. اما نبود مقررات خاص درباره سامانههای خودمختار، اعمال این اصول را دشوار میکند.
بسیاری از فناوریهای هوش مصنوعی هنوز در مراحل توسعهاند و اغلب تنها در شرایط محدود و از پیش تعیینشده عملکرد مطلوب دارند. با این حال، ادغام روزافزون هوش مصنوعی در پهپادها و سایر سامانههای تسلیحاتی، خطر تصمیمگیری بدون کنترل معنادار انسانی را افزایش میدهد.
ماشینها قادر به درک ابهامهای اخلاقی جنگ و قضاوت انسانی نیستند و سپردن تصمیم استفاده از زور به الگوریتمها میتواند پیامدهای پیشبینیناپذیری داشته باشد.
نتیجهگیری
پرسشهای اخلاقی و حقوقی پیرامون جنگهای مبتنی بر الگوریتم شاید هیچگاه پاسخ قطعی نیابند، اما بیتردید نمیتوان آنها را نادیده گرفت.
پهپادهای خودکار بهطور مشخص در حقوق بینالملل تنظیم نشدهاند و تنها تحت قواعد کلی حاکم بر سایر سلاحها قرار میگیرند. این خلأ قانونی، نظارت و پاسخگویی را پیچیده میسازد.
گزارش اخیر گروه کارشناسان دولتی در سال 2023 تأکید کرده است که باید تدابیر حقوقی برای محدودسازی سامانههای تسلیحاتی مبتنی بر فناوریهای نوظهور که پس از فعالسازی قادر به شناسایی، انتخاب و حمله به اهداف بدون مداخله انسانی هستند، ایجاد شود.
در جهانی که پیشرفت فناوری با شتابی سرسامآور ادامه دارد، چارچوب حقوقی آینده باید هم مستحکم باشد و هم انعطافپذیر؛ چارچوبی که تضمین کند انسان همواره کنترل معنادار بر تصمیمات مرگبار حفظ کند.
اگر چنین چارچوبی بهموقع شکل نگیرد، ممکن است آینده جنگ نه در اتاقهای فرماندهی، بلکه در خطوط کد و شبکههای عصبی مصنوعی رقم بخورد؛ جایی که مسئولیت، اخلاق و انسانیت با چالشهایی بیسابقه روبهرو خواهند شد.