شورای راهبردی آنلاین - یادداشت: نظامیسازی هوش مصنوعی، مرزهای اخلاق و مسئولیت را در جنگ تضعیف کرده است و منازعات معاصر را به عرصهای بدل کرده است که تصمیمگیری انسانی در آن کمرنگ شده است.
سید جواد محمدی- کارشناس هوش مصنوعی
از انقلاب فناوری تا دگرگونی ماهیت جنگ
در دهههای اخیر، تحولات فناوری، ماهیت جنگ را بهطور بنیادین دگرگون کرده است. اگر در قرن بیستم، قدرت نظامی با تسلیحات سنگین و ظرفیتهای صنعتی تعریف میشد، در قرن بیست و یکم، الگوریتمها، دادهها و سامانههای هوشمند به عناصر تعیینکننده تبدیل شدهاند.
تحلیلهای منتشرشده در مؤسسه «سیپری» نشان میدهد که رقابت میان قدرتهای بزرگ بهطور فزایندهای به حوزه هوش مصنوعی نظامی منتقل شده است. این روند، نهتنها شامل توسعه سلاحهای خودکار، بلکه شامل ادغام هوش مصنوعی در تمامی سطوح عملیات نظامی از شناسایی اهداف تا تصمیمگیری تاکتیکی است.
در همین راستا، گزارشهای فارن پالیسی درباره جنگهای اخیر، بهویژه در اوکراین، نشان میدهد که استفاده از الگوریتمها در هدایت پهپادها و تحلیل دادههای میدان نبرد، به یک عنصر کلیدی تبدیل شده است. این تحول، سرعت و دقت عملیات را افزایش داده است، اما درعینحال، فاصله میان تصمیمگیرنده و پیامدهای انسانی آن را نیز بیشتر کرده است.
نظامیسازی هوش مصنوعی؛ تهدیدی فراتر از سلاح هستهای
برخلاف سلاحهای هستهای که استفاده از آنها به دلیل پیامدهای فاجعهبارشان محدود شده است، هوش مصنوعی نظامی بهسرعت در حال گسترش است و با موانع حقوقی و اخلاقی کمتری مواجه است. ضمن آنکه سلاحهای مبتنی بر هوش مصنوعی میتوانند بدون نظارت انسانی مستقیم عمل کنند و همین ویژگی، خطرات جدیدی را ایجاد میکند.
برخی کارشناسان معتقدند که هوش مصنوعی میتواند به تسلیحاتی تبدیل شود که حتی از سلاحهای هستهای نیز خطرناکتر است. دلیل این امر، نه در قدرت تخریبی آن، بلکه در قابلیت استفاده گسترده، هزینه پایینتر و کاهش آستانه بهکارگیری آن نهفته است.
گزارشهای دانشگاه استنفورد نیز به چالشهای تنظیمگری این فناوری اشاره دارند و نشان میدهند که شکاف میان توسعه فناوری و تدوین قواعد حقوقی، بهسرعت در حال افزایش است. این شکاف، خطر استفاده بیضابطه از هوش مصنوعی در جنگ را تشدید میکند.
از میدان آزمایش تا فاجعه انسانی؛ مدرسه میناب
کاربرد هوش مصنوعی در عملیات نظامی، زمانی که با دادههای ناقص یا سوگیریهای الگوریتمی همراه شود، میتواند پیامدهای فاجعهباری داشته باشد. در حملات اخیر علیه ایران، گزارشهایی از استفاده از سامانههای مبتنی بر هوش مصنوعی برای شناسایی و هدفگیری منتشر شده است که نشان میدهد تصمیمگیری در برخی موارد به الگوریتمها واگذار شده است.
یکی از تلخترین نمونههای این روند، حملهای است که به شهادت ۱۶۸ دانشآموز در میناب منجر شد. این فاجعه، نشان میدهد که چگونه اتکا به سامانههای خودکار، بدون نظارت کافی انسانی، میتواند به اشتباهات مرگبار منجر شود.
در چنین شرایطی، پرسش اساسی این است که مسئولیت این خطاها بر عهده چه کسی است. آیا میتوان یک الگوریتم را مسئول دانست یا باید این مسئولیت را به طراحان و کاربران آن نسبت داد. این پرسش، یکی از چالشهای بنیادین حقوق بینالملل در عصر هوش مصنوعی است.
فرسایش اخلاق در جنگ؛ از تصمیم انسانی تا تصمیم ماشینی
یکی از پیامدهای عمیق نظامیسازی هوش مصنوعی، فرسایش تدریجی اخلاق در جنگ است. در جنگهای سنتی، تصمیمگیری درباره استفاده از زور، هرچند تحتفشار، اما در نهایت توسط انسانها انجام میشد. این امر، حداقلی از مسئولیت اخلاقی را تضمین میکرد.
با ورود هوش مصنوعی، این رابطه دچار اختلال شده است. الگوریتمها، بر اساس دادهها و الگوهای از پیش تعریفشده عمل میکنند و فاقد درک انسانی از مفاهیمی مانند رنج، کرامت و تناسب هستند. این ویژگی، خطر تبدیل جنگ به یک فرایند صرفاً فنی و عاری از ملاحظات انسانی را افزایش میدهد.
توسعه فناوریهای نوین، بدون توجه به حقوق بشر، میتواند به نقض گسترده این حقوق منجر شود. در حوزه نظامی، این خطر بهمراتب بیشتر است، زیرا تصمیمات گرفتهشده، مستقیماً با جان انسانها مرتبط است. در چنین فضایی، مفهوم مسئولیت نیز دچار ابهام میشود. وقتی یک حمله توسط یک سامانه خودکار انجام میشود، تعیین اینکه چه کسی باید پاسخگو باشد، به یک چالش پیچیده تبدیل میشود. این وضعیت، میتواند بهنوعی بیمسئولیتی ساختاری منجر شود که در آن، هیچ بازیگری بهطور کامل پاسخگو نیست.
جنگ آینده، بیش از هر زمان دیگری به عرصهای تبدیل شده است که در آن، فناوری و قدرت نظامی بهطور کامل درهمتنیده شدهاند. هوش مصنوعی، بهعنوان یکی از مهمترین این فناوریها، نهتنها شیوههای جنگیدن را تغییر داده است، بلکه مفاهیم بنیادینی مانند مسئولیت، اخلاق و مشروعیت را نیز به چالش کشیده است.
تجربههای اخیر، از جمله جنایت مدرسه میناب، نشان میدهد که استفاده بیضابطه از این فناوریها میتواند پیامدهای انسانی فاجعهباری داشته باشد. در چنین شرایطی، ضرورت تدوین قواعد حقوقی و اخلاقی جدید، بیش از هر زمان دیگری احساس میشود. بااینحال، واقعیت نظام بینالملل نشان میدهد که رقابت برای برتری فناوری، ممکن است بر این ملاحظات غلبه کند. در نتیجه، آینده جنگ، بیش از آنکه توسط اصول اخلاقی تعیین شود، توسط الگوریتمها و منطق قدرت شکل خواهد گرفت.
0 Comments