شما در حال مشاهده نسخه متنی وبسایت بیبیسی هستید که از داده کمتری استفاده میکند. نسخه اصلی وبسایت را که شامل تمام تصاویر و ویدیوهاست، مشاهده کنید.
بازگشت به وبسایت یا نسخه اصلی
اطلاعات بیشتر درباره نسخه لایت که برای مصرف کمتر حجم دادههاست
استفاده از هوش مصنوعی در جنگ؛ مسئولیت با انسان است یا ماشین؟
- نویسنده, مارک چیزلک و مت مورفی
- شغل, بیبیسی
- زمان مطالعه: ۵ دقیقه
رئیس شرکت بزرگ فناوری پالانتیر در بریتانیا در گفتوگوی اختصاصی با بیبیسی، ضمن رد نگرانیها درباره خطرات احتمالی و پیشبینینشده استفاده از سیستمهای هوش مصنوعی این شرکت برای مصارف نظامی، تاکید کرد که مسئولیت نهایی نحوه به کار گرفتن این فناوری بر عهده ارتشهاست.
این موضوع در حالی مطرح میشود که کارشناسان درباره استفاده از پلتفرم دفاعی مبتنی بر هوش مصنوعی پالانتیر، سامانه هوشمند میون، در زمان جنگ و گزارشهایی درباره استفاده از آن در حملات آمریکا به ایران ابراز نگرانی کردهاند.
تحلیلگران هشدار دادهاند که استفاده نظامی از این پلتفرم، که به نیروها در برنامهریزی حملات کمک میکند، زمان اندکی برای «راستیآزمایی معنادار» خروجی آن باقی میگذارد و ممکن است به هدف قرار گرفتن اهداف اشتباه منجر شود.
اما لوئیس موسلی، رئیس پالانتیر در بریتانیا و اروپا، در گفتوگویی مفصل به بیبیسی گفت در حالی که پلتفرمهای هوش مصنوعی مانند میون در مدیریت جنگ ایران برای آمریکا «نقش کلیدی» داشتهاند، مسئولیت نحوه استفاده از خروجی آنها باید همواره «بر عهده سازمانهای نظامی» باقی بماند.
او میگوید: «همیشه یک انسان در چرخه حضور دارد، بنابراین همیشه یک انسان وجود دارد که تصمیم نهایی را میگیرد. این ساختار فعلی است.»
سیستم هوشمند میون در سال ۲۰۱۷ از سوی پنتاگون راهاندازی شد و هدف آن سرعت بخشیدن به تصمیمگیریهای مربوط به هدفگیری نظامی از طریق جمعآوری حجم عظیمی از دادهها، از جمله انواع اطلاعات، تصاویر ماهوارهای و تصاویر پهپادی است.
این سیستم دادهها را تحلیل میکند و سپس توصیههایی برای هدفگیری ارائه میدهد. همچنین میتواند بر اساس میزان دسترسی به نیروها و تجهیزات نظامی، مانند هواپیماها، سطح نیروی مورد استفاده را پیشنهاد کند.
اما حساسیتها نسبت به استفاده از چنین ابزارهایی در جنگ بالا گرفته است. در ماه فوریه، پنتاگون اعلام کرد که استفاده از سیستم هوش مصنوعی کلود، متعلق به شرکت آنتروپیک را که به پیشبرد پروژه میون کمک میکرد، به تدریج متوقف میکند. این تصمیم پس از آن گرفته شد که این شرکت اجازه نداد از سیستم هوش مصنوعیاش در سلاحهای خودمختار و سیستمهای نظارتی استفاده شود. پالانتیر میگوید جایگزینهای دیگری میتوانند جای خالی کلود را پر کنند.
گزارشها حاکی از آن است که از زمان آغاز جنگ با ایران در ماه فوریه، ایالات متحده از پروژه میون برای برنامهریزی حملات در سراسر ایران استفاده کرده است.
آقای موسلی در پاسخ به بیبیسی درباره این خطر که میون ممکن است اهداف اشتباه از جمله غیرنظامیان را پیشنهاد دهد، تاکید کرد که این پلتفرم تنها به عنوان یک راهنما برای تسریع روند تصمیمگیری نیروهای نظامی طراحی شده و نباید به عنوان یک سیستم هدفگیری خودکار تلقی شود.
او میگوید: «میتوان آن را به عنوان یک ابزار پشتیبانی در نظر گرفت. این سیستم به آنها اجازه میدهد حجم عظیمی از اطلاعات را که پیشتر مجبور بودند به صورت دستی و یکی یکی بررسی کنند، یکجا ترکیب کنند.»
با این حال، آقای موسلی در پاسخ به چالش بیبیسی درباره این خطر که فرماندهان تحت فشار، ممکن است به افسران خود دستور دهند خروجی میون را به عنوان تائید نهایی بپذیرند، مسئولیت را به ارتشها واگذار کرد.
او گفت: «این واقعا پرسشی برای مشتریان نظامی ما است. آنها هستند که چارچوب سیاستگذاری را تعیین میکنند که مشخص میکند چه کسی چه تصمیمی را میگیرد. این نقش ما نیست.»
در بیش از یک ماه گذشته، آمریکا بیش از ۱۱ هزار حمله علیه ایران انجام داده است که بنا بر گزارشها بسیاری از اهداف آن توسط میون شناسایی شدهاند.
دریادار برد کوپر، فرمانده نیروهای نظامی آمریکا در خاورمیانه، از سیستمهای هوش مصنوعی به خاطر کمک به افسران برای «غربال کردن حجم عظیمی از دادهها در چند ثانیه، تا رهبران ما بتوانند سریعتر از واکنش دشمن تصمیمهای هوشمندانهتری بگیرند» تمجید کرده است.
اما برخی نگراناند که دخالت هوش مصنوعی در برنامهریزی ماموریتها خطرات قابل توجهی ایجاد کند.
الکه شوارتس، استاد دانشگاه کوئین مری لندن، میگوید: «این اولویت دادن به سرعت و مقیاس و استفاده از زور، زمان بسیار کمی برای راستیآزمایی معنادار اهداف باقی میگذارد تا اطمینان حاصل شود که به طور تصادفی شامل اهداف غیرنظامی نمیشوند.»
او میافزاید: «اگر خطر کشتن وجود داشته باشد و شما بخش زیادی از تفکر انتقادی خود را به نرمافزاری واگذار کنید که این کارها را برایتان انجام میدهد، آنگاه به نرمافزار وابسته میشوید. این حرکت به سمت سقوط است.»
در هفتههای اخیر، مقامهای پنتاگون با این پرسش روبرو شدهاند که آیا از ابزارهای هوش مصنوعی مانند میون برای شناسایی اهداف در حمله مرگبار به مدرسهای در شهر میناب ایران استفاده شده است یا خیر. مقامهای ایران اعلام کردند که در این حمله که در نخستین روز جنگ رخ داد، ۱۶۸ نفر از جمله حدود ۱۱۰ کودک کشته شدند.
شماری از دموکراتهای ارشد در کنگره آمریکا، خواهان افزایش نظارت بر پلتفرمهای هوش مصنوعی مانند میون شدهاند.
سارا جیکوبز، عضو کمیته نیروهای مسلح مجلس نمایندگان، خواستار وضع و اجرای قوانین و مقررات شفاف درباره نحوه و زمان استفاده از سیستمهای هوش مصنوعی شده است.
او به شبکه خبری انبیسی گفت: «ابزارهای هوش مصنوعی صد در صد قابل اطمینان نیستند. آنها ممکن است به شکلی نامحسوس دچار خطا شوند، اما با این حال اپراتورها همچنان بیش از حد به آنها اعتماد میکنند.»
او میگوید: «ما مسئولیت داریم محدودیتهای سختگیرانهای بر استفاده ارتش از هوش مصنوعی اعمال کنیم و تضمین کنیم که در هر تصمیم برای استفاده از نیروی مرگبار، یک انسان در چرخه حضور دارد، زیرا هزینه اشتباه میتواند برای غیرنظامیان و نیروهایی که این ماموریتها را اجرا میکنند، ویرانگر باشد.»
اما موسلی این ادعا را رد کرد که سرعت بالای پلتفرم شرکتش باعث شتابزدگی در تصمیمگیریهای پنتاگون و ایجاد موقعیتهای خطرناک شده است. او در مقابل استدلال کرد که سرعت عمل کنونی فرماندهان، نتیجه مستقیم افزایش کارایی است که پروژه میون ایجاد کرده است.
پنتاگون با استناد به «امنیت عملیاتی»، در پاسخ به پرسش بیبیسی درباره این که سیستمهای هوش مصنوعی مانند میون در آینده چگونه استفاده خواهند شد یا در صورت بروز خطا چه کسی مسئول خواهد بود، از اظهار نظر خودداری کرد.
اما به نظر میرسد مقامهای آمریکایی در حال پیشبرد برنامههایی برای ادغام بیشتر میون در سیستمهای خود هستند.
هفته گذشته خبرگزاری رویترز گزارش داد که پنتاگون پروژه میون را به عنوان یک برنامه رسمی ثبتشده معرفی کرده است؛ اقدامی که این فناوری را به بخشی جداییناپذیر و بلند مدت در تمام بخشهای ارتش ایالات متحده تبدیل میکند.
در نامهای که رویترز به آن دست یافته، استیو فاینبرگ، معاون وزیر دفاع، گفته است که این پلتفرم«ابزارهای پیشرفته لازم برای شناسایی، بازدارندگی و غلبه بر دشمنان در همه حوزهها» را در اختیار فرماندهان قرار میدهد.