دوشنبه ۸ دي ۱۴۰۴
بین الملل

فارن‌افرز: واشنگتن از تضمین امنیت ملی آمریکا ناتوان است

فارن‌افرز: واشنگتن از تضمین امنیت ملی آمریکا ناتوان است
اخبار محرمانه - فارس / فارن افرز اعتراف کرد سامانه‌های هشدار هسته‌ای آمریکابرای مقابله با چالش های هوش مصنوعی آماده نیستند. این رسانه آمریکایی به ضعف عمده در امنیت ملی آمریکا ...
  بزرگنمايي:

اخبار محرمانه - فارس / فارن افرز اعتراف کرد سامانه‌های هشدار هسته‌ای آمریکابرای مقابله با چالش های هوش مصنوعی آماده نیستند.
این رسانه آمریکایی به ضعف عمده در امنیت ملی آمریکا با ورود هوش مصنوعی به حوزه‌های حساس هسته‌ای بدون آماده‌سازی کافی اشاره کرده و نکات جالبی را مطرح می کند: پیام اصلی این است که سیستم‌های هشدار زودهنگام آمریکا، که باید تشخیص حملات هسته‌ای را دقیق و بدون خطا انجام دهند، هنوز برای مواجهه با چالش‌های هوش مصنوعی—از جمله خطاهای تشخیصی، توهم داده‌ای و دیپ‌فیک‌ها—آماده نیستند.
با پیشرفت سریع هوش مصنوعی، تهدیدات علیه ثبات هسته‌ای افزایش یافته‌اند. یکی از نگرانی‌ها این است که یک کشور دارنده سلاح هسته‌ای تصمیم به استفاده از سلاح‌ها را به ماشین‌ها واگذار کند. آمریکا برای جلوگیری از این خطر، اقداماتی را به کار گرفته تا تصمیم نهایی برای شلیک همواره در دست انسان باقی بماند. بر اساس استراتژی دفاع ملی ۲۰۲۲، انسان همواره «در حلقه» تصمیم‌گیری درباره استفاده یا توقف استفاده از سلاح‌های هسته‌ای حضور خواهد داشت. همچنین، رئیس‌جمهور آمریکا و رهبر چین توافق کردند که «تصمیم‌گیری درباره استفاده از سلاح‌های هسته‌ای باید تحت کنترل انسان باشد». با این حال، هوش مصنوعی تهدیدی پنهان‌تر نیز ایجاد می‌کند: دیپ‌فیک‌ها. این فناوری‌ها که شامل ویدیو، تصویر و صوت جعلی و بسیار واقعی هستند، انتشار اطلاعات غلط را ساده‌تر می‌کنند. نمونه‌هایی از آن در سال‌های اخیر دیده شده‌اند؛ از جمله ویدیوهای جعلی از رئیس‌جمهور اوکراین و رئیس‌جمهور روسیه که باعث گمراه شدن مردم شدند. در سناریویی افراطی، دیپ‌فیک می‌تواند رهبر یک کشور هسته‌ای را قانع کند که حمله‌ای در حال وقوع است، یا پلتفرم‌های هوش مصنوعی می‌توانند هشدارهای کاذب از جمله حمله بمب کثیف ارائه دهند. در همین حال، دولت ترامپ خواستار استفاده «تهاجمی» از هوش مصنوعی در بخش امنیت ملی شده است. سامانه‌هایی مانند GenAI.mil معرفی شده‌اند که ابزارهای هوش مصنوعی را در اختیار کارکنان وزارت دفاع قرار می‌دهند. اما در ادغام هوش مصنوعی در زیرساخت‌های امنیت ملی، ضروری است که نقش ماشین‌ها در مراحل اولیه تصمیم‌گیری هسته‌ای محدود و تحت کنترل انسان باشد.
بازار



مهندسان هنوز نتوانسته‌اند مشکلات ذاتی هوش مصنوعی مانند «توهم» و «تقلب» را به‌طور کامل رفع کنند، بنابراین باید تصمیم‌گیری نهایی همیشه انسانی باقی بماند.
بحران‌های زنجیره‌ای
رئیس‌جمهور فعلی آمریکا و مشاورانش گاهی دیپ‌فیک‌ها را روی شبکه‌های اجتماعی بازنشر می‌کنند. در این شرایط، احتمال نفوذ اطلاعات جعلی به تصمیمات حیاتی امنیت ملی، از جمله تصمیمات هسته‌ای در ایالات متحده، افزایش می‌یابد. طبق قانون آمریکا، رئیس‌جمهور بدون مشورت با هیچ نهادی می‌تواند دستور استفاده از سلاح هسته‌ای را صادر کند. نیروهای هسته‌ای آمریکا آماده‌اند تا طی نیم ساعت موشک‌های بین‌قاره‌ای خود را به هدف برسانند و پس از شلیک، هیچ‌کس نمی‌تواند آن را متوقف کند. دیپ‌فیک‌ها می‌توانند بهانه‌های جنگ ایجاد کنند. سیستم‌های «شلیک در هشدار» آمریکا و روسیه می‌توانند به محض تشخیص حرکت موشک‌های دشمن، واکنش نشان دهند. بنابراین رهبر کشورها تنها چند دقیقه برای ارزیابی واقعیت دارند. استفاده از هوش مصنوعی برای تفسیر داده‌های هشدار زودهنگام می‌تواند حمله‌ای خیالی را نشان دهد و مقامات آمریکایی را در موقعیتی مشابه موقعیت پتروف (اشاره به حادثه‌ای تاریخی در سال ۱۹۸۳ در شوروی سابق دارد که می‌توان آن را نقطه حساسی در تاریخ جنگ سرد و خطرات هسته‌ای دانست) قرار دهد. تحقیقات نشان می‌دهد که افراد حتی با آشنایی متوسط با هوش مصنوعی، تمایل دارند به خروجی‌های ماشینی اعتماد کنند و آن را بدون بررسی دقیق قبول کنند. در شرایط بحرانی هسته‌ای، این اعتماد می‌تواند به اشتباهات فاجعه‌آمیز منجر شود.
چشم‌انداز بحرانی
دیپ‌فیک‌ها حتی در رسانه‌های عمومی نیز خطرناک هستند. رهبران آمریکایی ممکن است تست‌های موشکی روسیه را حمله واقعی تعبیر کنند یا تمرینات نظامی چین را تهدیدی برای متحدان آمریکا بدانند. این فناوری می‌تواند بهانه جنگ بسازد، حمایت عمومی را جلب کند و سردرگمی ایجاد نماید. هوش مصنوعی در برخی بخش‌های نظامی مفید است، مانند زمان‌بندی تعمیرات، ترجمه اطلاعات و تحلیل تصاویر ماهواره‌ای. اما به کارگیری آن در سیستم‌های هشدار هسته‌ای و فرماندهی و کنترل بسیار خطرناک است، زیرا احتمال خطا و توهم بالا است و داده‌های کافی برای آموزش هوش مصنوعی در این زمینه وجود ندارد. از این رو، جایگزینی نیروهای انسانی با هوش مصنوعی در حوزه هسته‌ای می‌تواند به خطا، تعصب و سوءتفاهم منجر شود. باید همانند پهپادهای خودران، کنترل انسانی معنادار در تمام بخش‌های هشدار هسته‌ای تضمین شود.
ضعف راهبردی آمریکا
امروزه خطر جنگ هسته‌ای بیشتر از دهه‌های پیش است. روسیه تهدید به استفاده از سلاح هسته‌ای در اوکراین کرده، چین زرادخانه خود را سریعاً گسترش می‌دهد، و کره شمالی قادر به هدف گرفتن آمریکا با ICBM است. سیاست‌های کنترل تسلیحات و جلوگیری از اشاعه نیز تضعیف شده‌اند.در این شرایط، ضروری است که انسان‌ها و نه ماشین‌ها، ارزیابی اقدامات و نیات دشمن را انجام دهند. آژانس‌های اطلاعاتی باید منشأ اطلاعات هوش مصنوعی را بهتر رصد کنند و مشخص کنند که داده‌ها اصلی یا جعلی هستند.دیپ‌فیک‌ها می‌توانند رهبران کشورها را فریب دهند و تصور حمله‌ای غیرواقعی را ایجاد کنند. در گذشته، دیپلماسی و گفت‌وگوی واقعی مانع سوءتفاهم میان قدرت‌های هسته‌ای می‌شد. امروز، سیاست‌ها و رویه‌ها باید خطرات اطلاعاتی هوش مصنوعی را کاهش دهند تا از وقوع «آخرالزمان» جلوگیری شود.


نظرات شما