بر اساس این گزارش، کارشناسان معتقدند هوش مصنوعی احتمالاً در انتخاب اهداف برای هزاران حمله امریکا و اسرائیل به ایران از ۹ حوت نقش داشته است، هرچند جزئیات دقیق این کاربردها هنوز بهطور رسمی تایید نشده است.
پیشتر نیز از فناوریهای مشابه در هدایت عملیات نظامی اسرائیل در غزه و همچنین در عملیات امریکا برای بازداشت نیکلاس مادورو استفاده شده بود.
لور دو روسی-روشگونده، پژوهشگر اندیشکده فرانسوی «آیافآرآی» به خبرگزاری فرانسه گفت امروز تقریباً همه قدرتهای نظامی بزرگ جهان سرمایهگذاری گستردهای روی کاربردهای نظامی هوش مصنوعی انجام میدهند.
به گفته او، این فناوری میتواند تقریباً در همه بخشهای عملیات نظامی از جمله تدارکات، شناسایی، دیدهبانی، جنگ اطلاعاتی، جنگ الکترونیک و امنیت سایبری مورد استفاده قرار گیرد. همچنین هوش مصنوعی در برخی تسلیحات از جمله پهپادهای تهاجمی نیمهخودکار نیز به کار گرفته شده است.
یکی از مهمترین کاربردهای این فناوری، کوتاه کردن «زنجیره کشتار» است؛ یعنی کاهش زمان و فرآیند تصمیمگیری میان شناسایی یک هدف و اجرای حمله. در همین چارچوب، نیروهای امریکایی از سامانهای موسوم به «ماون اسمارت سیستم» (Maven Smart System) که توسط شرکت «پالانتیر» توسعه داده شده استفاده میکنند. این سامانه به گفته سازندگان آن قادر است اهداف بالقوه را شناسایی و اولویتبندی کند.
روزنامه واشنگتنپست نیز گزارش داده است که مدل هوش مصنوعی مولد «کلود» (Claude) از شرکت «انتروپیک» (Anthropic) برای افزایش توان شناسایی و شبیهسازی این سامانه با آن ادغام شده است، هرچند این شرکتها به درخواست خبرگزاری فرانسه برای اظهارنظر پاسخ ندادهاند.
برتران روندپییر، رئیس آژانس هوش مصنوعی ارتش فرانسه، در این باره گفت الگوریتمهای هوش مصنوعی امکان پردازش سریعتر و جامعتر اطلاعات را فراهم میکنند. به گفته او این فناوری قادر است حجم عظیمی از دادهها از جمله تصاویر ماهوارهای، دادههای راداری، امواج الکترومغناطیسی، صدا، تصاویر پهپادی و حتی ویدیوهای زنده را تحلیل کند.
با این حال استفاده از هوش مصنوعی در جنگ پرسشهای مهمی درباره مسئولیت و کنترول انسانی مطرح کرده است. این بحث پیشتر در جریان جنگ غزه نیز مطرح شد؛ زمانی که ارتش اسرائیل از برنامهای به نام «لاوندر» (Lavender) برای شناسایی اهداف استفاده کرد.
کارشناسان میگویند چنین سامانهای در غزه به دلیل محدوده جغرافیایی کوچک و وجود سیستمهای نظارت گسترده کارایی بیشتری داشت و احتمال ایجاد سامانهای مشابه در ایران کمتر است.
پیتر آسارو، رئیس کمیته بینالمللی کنترول تسلیحات رباتیک، در گفتوگو با خبرگزاری فرانسه گفت یکی از پرسشهای اصلی این است که در صورت وقوع اشتباه، چه کسی مسئول خواهد بود. او به گزارشهایی درباره بمباران یک مکتب در ایران که گفته میشود ۱۵۰ دانشآموز در آن کشته شدهاند اشاره کرد و گفت ممکن است چنین رویدادی ناشی از هدفگیری اشتباه توسط سامانههای هوش مصنوعی باشد.
با این حال نه امریکا و نه اسرائیل مسئولیت این حمله را نپذیرفتهاند و خبرگزاری فرانسه نیز امکان بررسی مستقل محل حادثه را نداشته است.
به گفته آسارو، اگر در چنین حملهای از هوش مصنوعی استفاده شده باشد، پرسش کلیدی این است که دادههای مورد استفاده برای هدفگیری تا چه اندازه بهروز بوده و آیا خطا در پایگاه داده میتواند باعث حمله به هدف اشتباه شده باشد یا نه.
در مقابل، برخی مقامهای نظامی تاکید میکنند که سامانههای هوش مصنوعی هنوز بدون کنترول انسانی عمل نمیکنند.
روندپییر گفت تصور هوش مصنوعیهایی که بدون نظارت انسان تصمیم میگیرند بیشتر به «علمیتخیلی» شباهت دارد و در عمل فرماندهان نظامی همچنان در مرکز تصمیمگیری قرار دارند. به گفته او هیچ فرمانده نظامی از سامانهای استفاده نمیکند مگر آنکه به عملکرد آن اعتماد داشته باشد و بتواند آن را کنترول کند.
در همین حال بنیامین جنسن، پژوهشگر اندیشکده مرکز مطالعات استراتژیک و بینالمللی، «سیاسآیاس» در واشنگتن که طی یک دهه گذشته در آزمایشهای مربوط به استفاده از هوش مصنوعی در تصمیمگیری نظامی مشارکت داشته، گفت استفاده از این فناوری در ارتشهای جهان هنوز در ابتدای راه است.
او تاکید کرد ارتشها هنوز بهطور کامل در شیوه برنامهریزی و اجرای عملیات نظامی خود بازنگری نکردهاند تا از ظرفیتهای کامل هوش مصنوعی استفاده کنند و به گفته او «ممکن است یک نسل زمان لازم باشد تا جهان نظامی واقعاً بفهمد چگونه از این فناوری بهره ببرد.»