گسترش سریع فناوریهای هوش مصنوعی، بهویژه دیپفیک، خطر خطاهای مهلک در تصمیمگیری هستهای را افزایش داده و میتواند جهان را به سمت یک جنگ هستهای ناخواسته سوق دهد.
به گزارش ایسنا، این رسانه آمریکایی در مقاله ای تاکید می کند که گسترش سریع هوش مصنوعی به ویژه فناوری «دیپ فیک» خطرات جدید و بسیار جدی را وارد فرآیند تصمیم گیری هسته ای می کند و می تواند احتمال وقوع یک جنگ تصادفی هسته ای را به میزان قابل توجهی افزایش دهد.
فارن افرز می نویسد، اگرچه کشورهای دارای سلاح هسته ای برای چندین دهه تلاش کرده اند از شلیک نادرست این سلاح ها جلوگیری کنند، اما خطر اشتباه محاسباتی امروز به اندازه دوران جنگ سرد جدی است و به دلیل اطلاعات نادرست مبتنی بر هوش مصنوعی می تواند حتی شدیدتر باشد.
نشانه های تاریخی خطای هسته ای
رسانه های آمریکایی با اشاره به یک نمونه تاریخی به ما یادآوری می کنند که جهان قبلاً تا مرز فاجعه هسته ای پیش رفته است. در سال 1983، سیستم هشدار زودهنگام اتحاد جماهیر شوروی به اشتباه اعلام کرد که ایالات متحده یک حمله اتمی انجام داده است. طبق این مقاله، یک ضد حمله ویرانگر فقط به این دلیل جلوگیری شد که افسر شیفت، استانیسلاو پتروف، هشدار را اشتباه تشخیص داد. نویسنده تأکید می کند که اگر تصمیم پتروف متفاوت بود، رهبران شوروی می توانستند مرگبارترین سلاح های جهان را علیه ایالات متحده شلیک کنند. در این مقاله آمده است که این رویداد نشان می دهد که ثبات هسته ای همیشه چقدر شکننده بوده است.
به گزارش فارین افرز، گسترش هوش مصنوعی این خطرات دیرینه را تشدید کرده است. یکی از نگرانی ها امکان واگذاری تصمیم به استفاده از سلاح هسته ای به ماشین آلات است. این مقاله خاطرنشان می کند که ایالات متحده رسماً با چنین رویکردی مخالفت کرده است و طبق استراتژی دفاع ملی 2022، انسان همیشه “در حلقه تصمیم گیری” در مورد استفاده یا عدم استفاده از سلاح های هسته ای باقی خواهد ماند. فارین افرز همچنین به توافق اعلام شده بین جو بایدن، رئیس جمهور سابق آمریکا و شی جین پینگ، رئیس جمهور چین، اشاره می کند که بر لزوم کنترل انسانی بر تصمیم به استفاده از سلاح هسته ای تاکید کرد. با این حال، این مقاله هشدار می دهد که حتی بدون واگذاری مستقیم تصمیم گیری به ماشین ها، هوش مصنوعی تهدیدات غیرمستقیم خطرناکی برای امنیت هسته ای ایجاد می کند.
دیپ فیک و خطر تصمیم گیری در شرایط خطا
این مقاله به خطر اصلی در توسعه دیپ فیک می پردازد. فیلم ها، تصاویر یا فایل های صوتی بسیار باورپذیر که برای تولید اطلاعات نادرست استفاده می شوند. بر اساس این مقاله، این فناوری ها پیش از این در حوزه ژئوپلیتیک مورد استفاده قرار گرفته اند. از جمله، مدت کوتاهی پس از آغاز جنگ اوکراین در سال 2022، دیپ فیک گسترده ای منتشر شد که در آن ظاهرا رئیس جمهور اوکراین از سربازان خود خواسته بود که سلاح های خود را زمین بگذارند. همچنین در سال 2023، یک دیپ فیک باعث شد برخی فکر کنند که رئیس جمهور روسیه بسیج عمومی را اعلام کرده است. این مقاله استدلال میکند که چنین جعلهایی در زمینه هستهای میتواند حتی بیثباتکنندهتر باشد.
بر اساس این تحلیل، در بدترین سناریو، یک دیپ فیک می تواند رهبر یک کشور مجهز به سلاح هسته ای را متقاعد کند که یک دشمن اولین حمله را انجام داده یا در شرف انجام است. همچنین، سیستمهای اطلاعاتی که توسط هوش مصنوعی پشتیبانی میشوند ممکن است هشدارهای نادرستی در مورد بسیج نظامی یا حتی حمله بمب هستهای صادر کنند. در چنین شرایطی، رهبران تنها چند دقیقه فرصت خواهند داشت تا در مورد پاسخ هسته ای تصمیم بگیرند.
فارین افرز می نویسد که دولت فعلی ایالات متحده به طور فعال به دنبال استفاده از هوش مصنوعی در زیرساخت های امنیت ملی است، از جمله اقداماتی مانند انتشار یک طرح عملیاتی برای استفاده “تهاجمی” از هوش مصنوعی در وزارت جنگ و راه اندازی یک پلت فرم جدید مبتنی بر هوش مصنوعی برای کارمندان این وزارتخانه. با این حال، نویسنده هشدار می دهد که ادغام هوش مصنوعی در مراحل اولیه تصمیم گیری هسته ای خطرات زیادی را به همراه دارد.
ضرورت حفظ عامل انسانی
به گفته این نشریه آمریکایی، سیستمهای هوش مصنوعی مستعد پدیدههایی مانند «توهم» و «جعلی» هستند. این به معنای تولید پاسخ های نادرست اما با اطمینان بالا است. از آنجا که منطق داخلی این سیستم ها اغلب شفاف نیست، کاربران انسانی ممکن است ندانند که چرا یک سیستم به یک نتیجه خاص رسیده است. مقاله به تحقیقاتی اشاره دارد که نشان می دهد افراد با آشنایی متوسط با هوش مصنوعی حتی در حوزه امنیت ملی به خروجی هوش مصنوعی اعتماد دارند.
امور خارجه هشدار می دهد که این وضعیت می تواند منجر به بحران های زنجیره ای شود. اگر سیستمهای هوش مصنوعی برای تفسیر دادههای هشدار اولیه استفاده شوند، ممکن است حملهای را شناسایی کنند که در واقع وجود ندارد. وضعیتی شبیه به آنچه پتروف در سال 1983 با آن روبرو شد، اما با زمان کمتر و عدم اطمینان بیشتر. بدون آموزش و مکانیسم مناسب، مشاوران و تصمیم گیرندگان ممکن است اطلاعات تولید شده توسط هوش مصنوعی را معتبر فرض کنند.
این مقاله همچنین تاکید می کند که دیپ فیک های منتشر شده در فضای مجازی تقریبا به همان اندازه خطرناک هستند. یک رهبر ممکن است پس از دیدن یک ویدیوی جعلی، آزمایش موشکی یا تمرین نظامی را با حمله اشتباه بگیرد. به گفته این نشریه آمریکایی، دیپ فیک می تواند بهانه ای برای شروع جنگ، تحریک افکار عمومی یا ایجاد سردرگمی در بحبوحه بحران ایجاد کند.
در عین حال، امور خارجه اذعان میکند که هوش مصنوعی کاربردهای مشروعی در ارتش دارد. از لجستیک و نگهداری گرفته تا ترجمه و تحلیل تصاویر ماهواره ای. اما نویسنده تاکید می کند که برخی از حوزه ها، به ویژه سیستم های هشدار اولیه هسته ای و فرماندهی و کنترل هسته ای، باید کاملاً دور از دسترس هوش مصنوعی باقی بماند. بر اساس این مقاله، فقدان داده های واقعی در مورد حملات هسته ای، آموزش ایمن چنین سیستم هایی را تقریبا غیرممکن می کند و خطر خطا بسیار زیاد است.
فارین افرز هشدار می دهد که جعل های عمیق و اطلاعات نادرست مبتنی بر هوش مصنوعی خطرات بی سابقه ای را برای سیستم های هسته ای ایجاد کرده است. بنابراین، سیاستها باید به صراحت تضمین کنند که ماشینها هرگز تصمیم به شلیک سلاح هستهای بدون کنترل انسان نخواهند داشت و همه کشورهای دارای سلاح هستهای باید به این اصل پایبند باشند. به گفته نویسنده، اگر چنین ملاحظاتی جدی گرفته نشود، هوش مصنوعی می تواند جهان را به یک فاجعه غیرقابل برگشت سوق دهد.





