حمله مشترک آمریکا و اسرائیل به ایران بیش از تشدید یک درگیری منطقه ای بی ثبات بوده است. این حمله نشان داده است که چگونه هدفگیری مبتنی بر الگوریتم و اطلاعات مبتنی بر داده، مکانیک جنگ را شکل میدهد.
به گزارش ایسنا به نقل از IA، بر اساس گزارش ها، نیروهای آمریکایی و اسرائیلی در 12 ساعت ابتدایی جنگ نزدیک به 900 حمله به اهداف ایرانی انجام دادند. این در حالی است که این سرعت عملیاتی در درگیری های قبلی روزها یا حتی هفته ها طول می کشید.
فراتر از مقیاس حملات، که شامل صدها ماموریت با استفاده از بمبافکنهای پنهانکار، موشکهای کروز و پهپادهای انتحاری میشد، آنچه بیش از همه برای تحلیلگران نظامی و اخلاقگرایان برجسته است، نقش فزاینده هوش مصنوعی در برنامهریزی، تحلیل و اجرای احتمالی آن عملیات است.
منتقدان هشدار میدهند که این فرآیند میتواند جدولهای زمانی تصمیمگیری را به سطوحی فشرده کند که قضاوت انسانی به حاشیه رانده شود، و آغازگر دورهای از جنگ است که با آنچه “سریعتر از سرعت فکر” توصیف شده است، در حال انجام است.
در اصطلاح نظامی، «کوتاه کردن زنجیره کشتن» به فروپاشی توالی از شناسایی هدف و اعتبارسنجی اطلاعات تا مجوز قانونی و رهاسازی سلاحها در یک حلقه عملیاتی بسیار فشردهتر اشاره دارد.
این کوتاه شدن فاصله زمانی این نگرانی را ایجاد می کند که متخصصان انسانی ممکن است به سادگی توصیه های ایجاد شده توسط الگوریتم ها را تأیید کنند.
در محیطی که توسط سرعت و اتوماسیون دیکته شده است، فضای شک، مخالفت یا محدودیت اخلاقی ممکن است به همان سرعت در حال کاهش باشد.
هوش مصنوعی و زنجیره کشتار؛ چه چیزی تغییر کرده است
سیستمهای هوش مصنوعی که قادر به پردازش جریانهای عظیم دادهها هستند، به منابعی مانند دادههای پهپادها، تصاویر ماهوارهای و رهگیریهای مخابراتی با سرعتی که هیچ تیم انسانی نمیتواند با آن برابری کند متصل میشود.
به گزارش گاردین، این ابزارها در جریان حملات آمریکا و اسرائیل در ایران برای تولید توصیههای هدفگیری و فشردهسازی چرخههای برنامهریزی مورد استفاده قرار گرفتند که از نظر تاریخی روزها یا هفتهها تا ساعتها یا حتی دقیقهها طول میکشید.
کریگ جونز، مدرس ارشد جغرافیای سیاسی در دانشگاه نیوکاسل و کارشناس زنجیرههای کشتار نظامی، به گاردین گفت که سیستمهای هوش مصنوعی در حال حاضر توصیههای هدفگیری را با سرعتی ارائه میکنند که از برخی جهات فراتر از پردازش شناختی انسان است.
او استدلال کرد: “نتیجه اعدام همزمان در مقیاس بزرگ است.” هدفگیری رهبری، حملات موشکی و حملات زیرساختی بهجای متوالی بهطور موازی اتفاق میافتد.
دیوید لزلی، استاد اخلاق، فناوری و جامعه در دانشگاه کوئین مری لندن نیز در بیانیهای به گاردین هشدار داد که چنین سیستمهایی جدول زمانی برنامهریزی را به “دریچه بسیار باریکتری” برای بازبینی انسانی تبدیل میکنند. در حالی که فرماندهان از نظر فنی “در حلقه” باقی می مانند، فرصت برای مشورت معنادار به طور چشمگیری کاهش می یابد.
این فشرده سازی سرعت عملیاتی که اغلب به عنوان فشرده سازی تصمیم گیری نامیده می شود، صرفاً در مورد کارایی نیست. این خود ساختار اقتدار نظامی را تغییر میدهد و فضایی را محدود میکند که در آن مشاوران حقوقی، تحلیلگران و فرماندهان میتوانند پیش از شلیک سلاح، مفروضات را زیر سوال ببرند.
جایگاه اخلاق در نبردهای تقویتشده هوش مصنوعی
کارشناسان اخلاق و فناوری هشدار می دهند که ماهیت نظارت انسانی با افزایش نقش سیستم های هوش مصنوعی در برنامه ریزی نظامی، اساساً تغییر خواهد کرد. یکی از نگرانی ها تخلیه شناختی است، جایی که تصمیم گیرندگان به راحتی تسلیم توصیه های الگوریتمی می شوند و به طور موثر مسئولیت پذیری انسان را برای انتخاب های استراتژیک کاهش می دهد.
به گفته گاردین، این جدایی به ویژه زمانی نگران کننده است که تلفات غیرنظامیان در خطر باشد. در حمله اخیر در جنوب ایران، حداقل 150 نفر، که بسیاری از آنها دانش آموز بودند، در آنچه سازمان ملل متحد به عنوان “نقض فاحش حقوق بشر” توصیف کرد، کشته شدند.
حقوق بین الملل بشردوستانه بر اساس فرض قضاوت انسانی در چارچوب تناسب و تمایز شکل گرفته است. از آنجایی که سیستمهای هوش مصنوعی خطوط زمانی را فشرده میکنند و به سرعت گزینههای حمله را ایجاد میکنند، این خطر افزایش مییابد که این ملاحظات قانونی و اخلاقی تحت الشعاع نیاز به سرعت قرار گیرند.
کار آکادمیک بر روی هوش مصنوعی نظامی همچنان بر نیاز به چارچوب هایی برای جلوگیری از فرسایش عامل انسانی در زمینه های کشنده تاکید می کند و اطمینان حاصل می کند که اثربخشی میدان نبرد ملاحظات آسیب به غیرنظامیان و رعایت قانون را نادیده نمی گیرد.
تنش های اخلاقی پیرامون هوش مصنوعی نظامی انتزاعی نیستند. مدل هوش مصنوعی کلود Anthropic با مشارکت Palantir در جریان کار امنیت ملی ایالات متحده برای کمک به تجزیه و تحلیل اطلاعاتی و برنامه ریزی جنگ ادغام شده است. با این حال، انتروپیک در برابر استفاده از سیستمهای خود برای تسلیحات کاملاً خودمختار یا برنامههای نظارت داخلی خطمشی کشیده است.
در روزهای منتهی به حملات به ایران، دولت آمریکا اعلام کرد که انتروپیک تحت این محدودیت ها به تدریج از برخی سیستم های دفاعی خارج می شود. اندکی پس از آن، OpenAI توافق نامه ای با پنتاگون برای کاربردهای نظامی مدل های خود امضا کرد.
موقعیت آنتروپیک نشان دهنده تنش اصلی این دوره جدید جنگ است. همان مدلهایی که قادر به ترکیب اطلاعات با سرعت بیسابقه هستند، میتوانند برای نظارت یا سیستمهای کشنده خودکار نیز استفاده شوند. اینکه آیا اقتدار انسانی ضروری باقی می ماند نه تنها به دکترین نظامی بستگی دارد، بلکه به نحوه انتخاب شرکت های فناوری برای تعیین محدودیت های مشارکت خود نیز بستگی دارد.
نگرانکننده این است که در بازیهای جنگی شبیهسازیشده که برای انعکاس بحرانهای هستهای به سبک جنگ سرد طراحی شدهاند، مدلهای هوش مصنوعی به شدت به سمت گزینههای هستهای سوگیری میکنند، در ۹۵ درصد از سناریوها اقدام هستهای تاکتیکی را انتخاب میکنند و به ندرت به سمت کاهش تنش حرکت میکنند.
در حالی که شبیهسازیها نشان نمیدهند که هوش مصنوعی لزوماً تشدید هستهای را در درگیریهای واقعی انتخاب میکند، اما نشان میدهد که چگونه مدلهای استدلال استراتژیک میتوانند تحت فشار به نتایج ناخوشایندی منجر شوند.
هوش مصنوعی عملیاتی فراتر از ایران؛ غزه، ونزوئلا و چشم انداز جهانی
مدتی است که از هوش مصنوعی نظامی پیشرفته برای شناسایی اهداف و برنامه ریزی حملات استفاده می شود. به عنوان مثال، در نوار غزه، نیروهای دفاعی اسرائیل از ابزارهای هوش مصنوعی مانند انجیل و اسطوخودوس استفاده کرده اند تا به طور خودکار داده های نظارتی گسترده را غربال کنند و لیست روزانه اهداف بمباران را برای تحلیلگران ایجاد کنند تا بررسی و اقدام کنند.
بر اساس تحقیقات و منابع نظامی، انجیل ده ها هدف در روز تولید کرده است، نرخی بسیار بالاتر از فرآیندهای سنتی هدایت شده توسط انسان. در حالی که Lavender پایگاههای اطلاعاتی گستردهای از مظنونان و مکانهای مرتبط با پرچمگذاری شده توسط الگوریتمهای هوش مصنوعی دارد.
فراتر از خاورمیانه، ایالات متحده ابزارهای هوش مصنوعی را در مناطق دیگر آزمایش کرده است. بر اساس گزارشهای متعدد، مدل ابری آنتروپیک توسط ارتش ایالات متحده برای پشتیبانی از تجزیه و تحلیل اطلاعاتی و انتخاب هدف در یک عملیات بزرگ برای دستگیری نیکلاس مادورو، رئیسجمهور سابق ونزوئلا در اوایل سال ۲۰۲۶ استفاده شد.
برنامههای طولانیمدت مانند Project Maven که توسط وزارت دفاع ایالات متحده در سال 2017 راهاندازی شد، از فناوری یادگیری ماشین برای تجزیه و تحلیل تصاویر و پشتیبانی از تصمیمگیریهای هدفگیری در درگیریهای مختلف از عراق و سوریه تا اوکراین استفاده کردهاند، جایی که پهپادهای مجهز به هوش مصنوعی به شناسایی و درگیری اهداف در محیطهای پیچیده جنگ الکترونیک کمک میکنند.
در سطح ژئوپلیتیک، تلاش ها برای ایجاد هنجارهایی برای استفاده از هوش مصنوعی در حوزه نظامی چالش برانگیز بوده است. بیانیه سیاستی در مورد استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری توسط سیاستگذاران ایالات متحده اعلام شد و ده ها کشور در تأیید اقدامات مسئولانه برای خودمختاری مرگبار و نظارت انسانی پیوستند.
با این حال، قدرت های نظامی، از جمله ایالات متحده و چین، گاهی اوقات تمایلی به پذیرش کامل محدودیت های الزام آور ندارند، که منعکس کننده اولویت های رقابتی بین مزیت استراتژیک و محدودیت اخلاقی است.
کشورهای دیگر نیز در ساخت سلاح های مجهز به هوش مصنوعی پیشرفت می کنند. در ترکیه، موشک کروز Baykar Bayraktar Kemankeş 1 از هدایت نوری به کمک هوش مصنوعی برای شناسایی خودکار هدف در شرایط نامطلوب استفاده می کند.
در هند، پروژه های تحقیقاتی دفاعی مانند پروژه Anumaan و Trinetra در حال بررسی پتانسیل هوش مصنوعی برای گنجاندن هوش در شبکه ها و امکان ارزیابی اولیه تهدید هستند.
آنچه که کمپین ایران را متمایز می کند نه تنها شدت حملات، بلکه عادی سازی هدف گیری در مقیاس بزرگ با کمک هوش مصنوعی است. از فهرستهای حملات خودکار گرفته تا بررسیهای حقوقی فشرده، میانجیگری الگوریتمی به روشهای بیسابقهای در درگیریهای مدرن گنجانده شده است.





