به همین سادگی هوشمصنوعی و جنگ ! مسابقه بین چین و آمریکا، دو ابرقدرت جهان، دارای ابعاد مختلفی است، از کشمکشهای مربوط به سهمیههای فلزی گرفته تا نزاعها بر سر ویزای دانشجویی. یکی از نگرانکنندهترین و کمتر دیده شدهترین ابعاد، مسابقه درخصوص جنگ با هوشمصنوعی است. هر دو کشور در حال سرمایهگذاری مبالغ زیادی در […]
به همین سادگی
هوشمصنوعی و جنگ !
مسابقه بین چین و آمریکا، دو ابرقدرت جهان، دارای ابعاد مختلفی است، از کشمکشهای مربوط به سهمیههای فلزی گرفته تا نزاعها بر سر ویزای دانشجویی. یکی از نگرانکنندهترین و کمتر دیده شدهترین ابعاد، مسابقه درخصوص جنگ با هوشمصنوعی است. هر دو کشور در حال سرمایهگذاری مبالغ زیادی در هوشمصنوعی نظامی هستند و از رباتهای خودمختار تا نرمافزارهای هوشمند پیغامرسان به فرمانده جنگ را تولید میکنند.
به گزارش انتخاب به نقل از اکونومیست، چین اعتراف میکند که آمریکا به لطف موفقیتهای شرکتهای غربی مانند موفقیتهای آنها در بازیهای استراتژی پیشرفته، دارای برتری نسبی است. اما آمریکا نیز میترسد که دولت چین از دسترسی آزاد به دادههای فراوان برخوردار باشد و در نتیجه بتواند با سرعت هر چه بیشتر شرکتهایی محلی را برای توسعه هوشمصنوعی ایجاد کند. همانطور که جک شاناهان، یک ژنرال که شخصیتی مهم در پنتاگون است، ماه گذشته اظهار داشت: «آنچه که نمیخواهم ببینم آیندهای است که رقبای احتمالی ما نیرویی هوشمند و کاملاً فعال دارند و ما این قدرت را نداریم.»
سلاحهای با قابلیت فعالسازی مدنظر وی ممکن است سرعت و دقت فوق بشری را ارائه دهند. اما آنها همچنین این توانایی را دارند که موازنه قدرت را بر هم بزنند. برای به دست آوردن یک مزیت نظامی، وسوسه ارتشها این خواهد بود که نه تنها به هوشمصنوعی توصیه کنند بلکه با هوشمصنوعی تصمیم بگیرند و دستور دهند. این میتواند عواقب نگرانکنندهای داشته باشد. فراموش نکنیم که هوشمصنوعی قادر به تفکر سریعتر از انسانهاست و در نتیجه یک سیستم فرماندهی با قابلیت هوشمصنوعی ممکن است حملات موشکی به ناوگان هواپیما و پایگاههای هوایی را با سرعتی فراتر از حد تصور فرمانده جنگ ترتیب دهند. مهمتر از آن، سیستمهای مبتنی بر هوشمصنوعی میتوانند هک شده و دادههای دستکاری شده نیز میتوانند کل سیستم را فریب دهند.
در طول قرن بیستم، جهان سرانجام راهی برای مدیریت تغییر پارادایم در فناوری نظامی و ظهور بمب هستهای پیدا کرد. در واقع از فاجعه جهانی با ترکیبی از سه رویکرد جلوگیری شد: بازدارندگی، کنترل اسلحه و اقدامات ایمنی. اکنون بسیاری از افراد به دنبال این الگو برای هوشمصنوعی هستند. متأسفانه دستاوردها در این زمینه محدود است و این فقط به دلیل جدید بودن فناوری نیست.
بازدارندگی در حوزههایی مثل حمله هستهای سادهتر بود چرا که مشخص است در صورت استفاده از بمبهای هستهای، آنها خطرات فاجعهآمیزی را برای هر دو طرف جنگ به همراه خواهند داشت. اما تهدیدی که توسط هوشمصنوعی صورت میگیرد کمتر روشن و بسیار مبهم است. برخلاف سیلوهای موشکی، نرمافزارها را نمیتوان از ماهوارهها جاسوسی کرد. در حالی که بدون کاهش توان آنها میتوان از کلاهکها استفاده کرد، اما نشان دادن این الگوریتم به جهان خارج میتواند اثربخشی آن را به خطر اندازد. ممکن است همین روش انگیزه این باشد که طرفین بر علیه یکدیگر حمله ترتیب دهند. هنری کیسینجر، که رهبری تلاشهای تسلیحاتی آمریکا با اتحاد جماهیر شوروی را رهبری کرد، میگوید: «ناآگاهی طرفین جنگ از پیکربندیهای توسعه یافته به یک مزیت استراتژیک تبدیل میشود.»
این آخرین حد کنترل ایمنی است. زرادخانههای هستهای شامل سیستمهای پیچیدهای هستند که خطر حوادث در آنها زیاد است. پروتکلهایی ساخته شده است تا اطمینان حاصل شود که مشکلی ایجاد نمیشود و مانند مکانیسمهای ایمن بدون عیب، بمب در صورت انقراض زودرس منفجر نمیشود. اما در مورد چگونگی اعمال و اقدامات مشابه برای فناوری، بهخصوص آنهایی که به نیروهای نظامی مخفی وابسته است هیچ پروتکل ایمنی و ضد انفجاری وجود ندارد.
اصولی که این قوانین باید بهکار گیرند، صریح است. هوشمصنوعی مجبور است ارزشهای انسانی مانند عدالت را منعکس کند و نسبت به تلاش برای فریب آن مقاومت کند. از لحاظ حیاتی، برای امنیت، سلاحهای هوشمصنوعی باید تا حد امکان قابل توضیح باشند تا انسان بتواند نحوه تصمیمگیری در مورد این سلاحها را بفهمد. بسیاری از شرکتهای غربی هوشمصنوعی را برای اهداف تجاری توسعه میدهند، از جمله اتومبیلهای خودران و نرمافزار تشخیص چهره. اما سهم هوشمصنوعی در حوزه نظامی بیشتر است، جایی که در اثر تقابل بین دو قدرت بزرگ جهان، وسوسه سوءاستفاده از هوشمصنوعی هر لحظه پررنگ تر میشود. گرچه مرکز هوشمصنوعی پنتاگون تا کنون اخلاقی عمل کرده اما هر لحظه ممکن است بروز یک جنگ فناوری همه چیز را تغییر دهد.
این مطلب بدون برچسب می باشد.
دیدگاه بسته شده است.