نقش هوش مصنوعی در جنگ علیه ایران

نقش هوش مصنوعی در جنگ علیه ایران

حمله مشترک آمریکا و اسرائیل به ایران بیش از تشدید یک درگیری منطقه ای بی ثبات بوده است. این حمله نشان داده است که چگونه هدف‌گیری مبتنی بر الگوریتم و اطلاعات مبتنی بر داده، مکانیک جنگ را شکل می‌دهد.

به گزارش ایسنا به نقل از IA، بر اساس گزارش ها، نیروهای آمریکایی و اسرائیلی در 12 ساعت ابتدایی جنگ نزدیک به 900 حمله به اهداف ایرانی انجام دادند. این در حالی است که این سرعت عملیاتی در درگیری های قبلی روزها یا حتی هفته ها طول می کشید.

فراتر از مقیاس حملات، که شامل صدها ماموریت با استفاده از بمب‌افکن‌های پنهان‌کار، موشک‌های کروز و پهپادهای انتحاری می‌شد، آنچه بیش از همه برای تحلیلگران نظامی و اخلاق‌گرایان برجسته است، نقش فزاینده هوش مصنوعی در برنامه‌ریزی، تحلیل و اجرای احتمالی آن عملیات است.

منتقدان هشدار می‌دهند که این فرآیند می‌تواند جدول‌های زمانی تصمیم‌گیری را به سطوحی فشرده کند که قضاوت انسانی به حاشیه رانده شود، و آغازگر دوره‌ای از جنگ است که با آنچه “سریع‌تر از سرعت فکر” توصیف شده است، در حال انجام است.

در اصطلاح نظامی، «کوتاه کردن زنجیره کشتن» به فروپاشی توالی از شناسایی هدف و اعتبارسنجی اطلاعات تا مجوز قانونی و رهاسازی سلاح‌ها در یک حلقه عملیاتی بسیار فشرده‌تر اشاره دارد.

این کوتاه شدن فاصله زمانی این نگرانی را ایجاد می کند که متخصصان انسانی ممکن است به سادگی توصیه های ایجاد شده توسط الگوریتم ها را تأیید کنند.

در محیطی که توسط سرعت و اتوماسیون دیکته شده است، فضای شک، مخالفت یا محدودیت اخلاقی ممکن است به همان سرعت در حال کاهش باشد.

هوش مصنوعی و زنجیره کشتار؛ چه چیزی تغییر کرده است

سیستم‌های هوش مصنوعی که قادر به پردازش جریان‌های عظیم داده‌ها هستند، به منابعی مانند داده‌های پهپادها، تصاویر ماهواره‌ای و رهگیری‌های مخابراتی با سرعتی که هیچ تیم انسانی نمی‌تواند با آن برابری کند متصل می‌شود.

به گزارش گاردین، این ابزارها در جریان حملات آمریکا و اسرائیل در ایران برای تولید توصیه‌های هدف‌گیری و فشرده‌سازی چرخه‌های برنامه‌ریزی مورد استفاده قرار گرفتند که از نظر تاریخی روزها یا هفته‌ها تا ساعت‌ها یا حتی دقیقه‌ها طول می‌کشید.

کریگ جونز، مدرس ارشد جغرافیای سیاسی در دانشگاه نیوکاسل و کارشناس زنجیره‌های کشتار نظامی، به گاردین گفت که سیستم‌های هوش مصنوعی در حال حاضر توصیه‌های هدف‌گیری را با سرعتی ارائه می‌کنند که از برخی جهات فراتر از پردازش شناختی انسان است.

او استدلال کرد: “نتیجه اعدام همزمان در مقیاس بزرگ است.” هدف‌گیری رهبری، حملات موشکی و حملات زیرساختی به‌جای متوالی به‌طور موازی اتفاق می‌افتد.

دیوید لزلی، استاد اخلاق، فناوری و جامعه در دانشگاه کوئین مری لندن نیز در بیانیه‌ای به گاردین هشدار داد که چنین سیستم‌هایی جدول زمانی برنامه‌ریزی را به “دریچه بسیار باریک‌تری” برای بازبینی انسانی تبدیل می‌کنند. در حالی که فرماندهان از نظر فنی “در حلقه” باقی می مانند، فرصت برای مشورت معنادار به طور چشمگیری کاهش می یابد.

این فشرده سازی سرعت عملیاتی که اغلب به عنوان فشرده سازی تصمیم گیری نامیده می شود، صرفاً در مورد کارایی نیست. این خود ساختار اقتدار نظامی را تغییر می‌دهد و فضایی را محدود می‌کند که در آن مشاوران حقوقی، تحلیلگران و فرماندهان می‌توانند پیش از شلیک سلاح، مفروضات را زیر سوال ببرند.

جایگاه اخلاق در نبردهای تقویت‌شده هوش مصنوعی

کارشناسان اخلاق و فناوری هشدار می دهند که ماهیت نظارت انسانی با افزایش نقش سیستم های هوش مصنوعی در برنامه ریزی نظامی، اساساً تغییر خواهد کرد. یکی از نگرانی ها تخلیه شناختی است، جایی که تصمیم گیرندگان به راحتی تسلیم توصیه های الگوریتمی می شوند و به طور موثر مسئولیت پذیری انسان را برای انتخاب های استراتژیک کاهش می دهد.

به گفته گاردین، این جدایی به ویژه زمانی نگران کننده است که تلفات غیرنظامیان در خطر باشد. در حمله اخیر در جنوب ایران، حداقل 150 نفر، که بسیاری از آنها دانش آموز بودند، در آنچه سازمان ملل متحد به عنوان “نقض فاحش حقوق بشر” توصیف کرد، کشته شدند.

حقوق بین الملل بشردوستانه بر اساس فرض قضاوت انسانی در چارچوب تناسب و تمایز شکل گرفته است. از آنجایی که سیستم‌های هوش مصنوعی خطوط زمانی را فشرده می‌کنند و به سرعت گزینه‌های حمله را ایجاد می‌کنند، این خطر افزایش می‌یابد که این ملاحظات قانونی و اخلاقی تحت الشعاع نیاز به سرعت قرار گیرند.

کار آکادمیک بر روی هوش مصنوعی نظامی همچنان بر نیاز به چارچوب هایی برای جلوگیری از فرسایش عامل انسانی در زمینه های کشنده تاکید می کند و اطمینان حاصل می کند که اثربخشی میدان نبرد ملاحظات آسیب به غیرنظامیان و رعایت قانون را نادیده نمی گیرد.

تنش های اخلاقی پیرامون هوش مصنوعی نظامی انتزاعی نیستند. مدل هوش مصنوعی کلود Anthropic با مشارکت Palantir در جریان کار امنیت ملی ایالات متحده برای کمک به تجزیه و تحلیل اطلاعاتی و برنامه ریزی جنگ ادغام شده است. با این حال، انتروپیک در برابر استفاده از سیستم‌های خود برای تسلیحات کاملاً خودمختار یا برنامه‌های نظارت داخلی خط‌مشی کشیده است.

در روزهای منتهی به حملات به ایران، دولت آمریکا اعلام کرد که انتروپیک تحت این محدودیت ها به تدریج از برخی سیستم های دفاعی خارج می شود. اندکی پس از آن، OpenAI توافق نامه ای با پنتاگون برای کاربردهای نظامی مدل های خود امضا کرد.

موقعیت آنتروپیک نشان دهنده تنش اصلی این دوره جدید جنگ است. همان مدل‌هایی که قادر به ترکیب اطلاعات با سرعت بی‌سابقه هستند، می‌توانند برای نظارت یا سیستم‌های کشنده خودکار نیز استفاده شوند. اینکه آیا اقتدار انسانی ضروری باقی می ماند نه تنها به دکترین نظامی بستگی دارد، بلکه به نحوه انتخاب شرکت های فناوری برای تعیین محدودیت های مشارکت خود نیز بستگی دارد.

نگران‌کننده این است که در بازی‌های جنگی شبیه‌سازی‌شده که برای انعکاس بحران‌های هسته‌ای به سبک جنگ سرد طراحی شده‌اند، مدل‌های هوش مصنوعی به شدت به سمت گزینه‌های هسته‌ای سوگیری می‌کنند، در ۹۵ درصد از سناریوها اقدام هسته‌ای تاکتیکی را انتخاب می‌کنند و به ندرت به سمت کاهش تنش حرکت می‌کنند.

در حالی که شبیه‌سازی‌ها نشان نمی‌دهند که هوش مصنوعی لزوماً تشدید هسته‌ای را در درگیری‌های واقعی انتخاب می‌کند، اما نشان می‌دهد که چگونه مدل‌های استدلال استراتژیک می‌توانند تحت فشار به نتایج ناخوشایندی منجر شوند.

هوش مصنوعی عملیاتی فراتر از ایران؛ غزه، ونزوئلا و چشم انداز جهانی

مدتی است که از هوش مصنوعی نظامی پیشرفته برای شناسایی اهداف و برنامه ریزی حملات استفاده می شود. به عنوان مثال، در نوار غزه، نیروهای دفاعی اسرائیل از ابزارهای هوش مصنوعی مانند انجیل و اسطوخودوس استفاده کرده اند تا به طور خودکار داده های نظارتی گسترده را غربال کنند و لیست روزانه اهداف بمباران را برای تحلیلگران ایجاد کنند تا بررسی و اقدام کنند.

بر اساس تحقیقات و منابع نظامی، انجیل ده ها هدف در روز تولید کرده است، نرخی بسیار بالاتر از فرآیندهای سنتی هدایت شده توسط انسان. در حالی که Lavender پایگاه‌های اطلاعاتی گسترده‌ای از مظنونان و مکان‌های مرتبط با پرچم‌گذاری شده توسط الگوریتم‌های هوش مصنوعی دارد.

فراتر از خاورمیانه، ایالات متحده ابزارهای هوش مصنوعی را در مناطق دیگر آزمایش کرده است. بر اساس گزارش‌های متعدد، مدل ابری آنتروپیک توسط ارتش ایالات متحده برای پشتیبانی از تجزیه و تحلیل اطلاعاتی و انتخاب هدف در یک عملیات بزرگ برای دستگیری نیکلاس مادورو، رئیس‌جمهور سابق ونزوئلا در اوایل سال ۲۰۲۶ استفاده شد.

برنامه‌های طولانی‌مدت مانند Project Maven که توسط وزارت دفاع ایالات متحده در سال 2017 راه‌اندازی شد، از فناوری یادگیری ماشین برای تجزیه و تحلیل تصاویر و پشتیبانی از تصمیم‌گیری‌های هدف‌گیری در درگیری‌های مختلف از عراق و سوریه تا اوکراین استفاده کرده‌اند، جایی که پهپادهای مجهز به هوش مصنوعی به شناسایی و درگیری اهداف در محیط‌های پیچیده جنگ الکترونیک کمک می‌کنند.

در سطح ژئوپلیتیک، تلاش ها برای ایجاد هنجارهایی برای استفاده از هوش مصنوعی در حوزه نظامی چالش برانگیز بوده است. بیانیه سیاستی در مورد استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری توسط سیاستگذاران ایالات متحده اعلام شد و ده ها کشور در تأیید اقدامات مسئولانه برای خودمختاری مرگبار و نظارت انسانی پیوستند.

با این حال، قدرت های نظامی، از جمله ایالات متحده و چین، گاهی اوقات تمایلی به پذیرش کامل محدودیت های الزام آور ندارند، که منعکس کننده اولویت های رقابتی بین مزیت استراتژیک و محدودیت اخلاقی است.

کشورهای دیگر نیز در ساخت سلاح های مجهز به هوش مصنوعی پیشرفت می کنند. در ترکیه، موشک کروز Baykar Bayraktar Kemankeş 1 از هدایت نوری به کمک هوش مصنوعی برای شناسایی خودکار هدف در شرایط نامطلوب استفاده می کند.

در هند، پروژه های تحقیقاتی دفاعی مانند پروژه Anumaan و Trinetra در حال بررسی پتانسیل هوش مصنوعی برای گنجاندن هوش در شبکه ها و امکان ارزیابی اولیه تهدید هستند.

آنچه که کمپین ایران را متمایز می کند نه تنها شدت حملات، بلکه عادی سازی هدف گیری در مقیاس بزرگ با کمک هوش مصنوعی است. از فهرست‌های حملات خودکار گرفته تا بررسی‌های حقوقی فشرده، میانجی‌گری الگوریتمی به روش‌های بی‌سابقه‌ای در درگیری‌های مدرن گنجانده شده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیشنهادات سردبیر:

تبلیغات متنی