تغییر ماهیت جنگ با ورود هوش‌مصنوعی !

هنری کیسینجر وزیرخارجه اسبق آمریکا و یکی از استراتژیست‌های برجسته این کشور در سخنرانی روز سه‌شنبه(گذشته) خود در واشنگتن در مورد تغییرات ناشی از استفاده از هوش‌مصنوعی در دنیا سخن گفت.

به گزارش مهر به نقل از گیزمودو، وی گفت: متقاعد شده که هوش‌مصنوعی از پتانسیل لازم برای تغییر اساسی آگاهی انسان برخوردار است و درک انسان از خود و نحوه تصمیمگیری‌های استراتژیک اشخاص را متحول می‌کند. وی توسعه‌دهندگان هوش‌مصنوعی را سرزنش کرد و گفت که آنها به اندازه کافی در مورد پیامدهای تولیداتشان فکر نمی‌کنند.

کیسینجر ۹۶ ساله در کنفرانس قدرت از طریق نوآوری در واشنگتن سخن می‌گفت که توسط کمیته هوش‌مصنوعی کنگره با هدف ارزیابی آینده هوش‌مصنوعی در آمریکا و جایگاه آن به منظور تأمین امنیت ملی ایالات متحده برگزار شده بود.

کیسینجر در این مورد گفت: من به مقوله هوش‌مصنوعی به عنوان یک فرد فنی نمی‌نگرم و دغدغه من مربوط به جنبه‌های تاریخی، فلسفی و استراتژیک آن است.

وی تأثیرگذاری هوش‌مصنوعی را مشابه تأثیر ناشی از آغاز عصر روشنگری و رنسانس در غرب دانست و افزود: هوش‌مصنوعی به شکلی تغییرناپذیر شیوه تعامل انسان‌ها و ماشین‌ها را تغییر می‌دهد و این تغییر لزوماً به معنای بهتر شدن این تعامل نخواهد بود. البته من ضد هوش‌مصنوعی نیستم و این ابزار ممکن است بتواند ما را نجات دهد.

مشاور اسبق امنیت ملی آمریکا تصریح کرد: هوش‌مصنوعی ماهیت استراتژی و جنگ را تغییر می‌دهد ولی هنوز بسیاری از تصمیمگیران و فعالان این عرصه به هوش‌مصنوعی تنها به مثابه یک نقطه عزیمت فنی جدید می‌نگرند. آنها هنوز نفهمیدهاند که هوش‌مصنوعی برداشت فلسفی ما را از جهان متحول می‌کند و به طور اساسی بر درک انسان تأثیر می‌گذارد.

کیسینجر با اظهار نگرانی در مورد پیامدهای کاربرد هوش‌مصنوعی در عرصه نظامی‌گفت: ممکن است دیپلماسی در آینده دیگر نتواند برای متوقف کردن نظامی‌گری مبتنی بر هوش‌مصنوعی کارآیی داشته باشد. ماهیت مخفی و به سرعت متحول شونده هوش‌مصنوعی بدان معناست که بازیگران دولتی نمی‌توانند آن را به عنوان یک تهدید قطعی مانند تسلیحات هسته‌ای بر روی میز گذاشته و در موردش مذاکره کنند.

وی افزود: در حال حرکت به حوزه‌ای هستیم که با توانایی‌های خارق‌العاده‌ای مواجه خواهیم شد و دشمن نمی‌تواند به سرعت دریابد که تهدید از کجا فرا می‌رسد. همین سردرگمی ‌می‌تواند به هرج و مرج در میدان نبرد یا اشتباه یک کشور در شناسایی منبع حمله منجر شود و لذا هوش‌مصنوعی خطر جنگ هسته‌ای را افزایش می‌دهد. لذا ما باید در مورد ماهیت پدیده کنترل تسلیحاتی و کاربرد آن در آینده از نو فکر کنیم.

کیسینجر با اشاره به سیستم‌های هوش‌مصنوعی گوگل که به عنوان مثال می‌توانند هر انسانی را در بازی شطرنج شکست دهند، گفت: ما باید درک کنیم که چنین تحولاتی در مقیاس بزرگ‌تر چه معانی دارد و باید در زمینه تولید مخلوقاتی که توان درک ندارند، مطالعه کنیم. ما در جامعه خود هنوز در این زمینه آگاهی نداریم.

او پیشبینی کرد که الگوریتم‌های هوش‌مصنوعی روزی به عنوان بخشی از فرآیند تصمیمگیری نظامی‌به کار گرفته می‌شوند. اما برنامه‌ریزان استراتژیک باید این موضوع را در بازی‌های جنگی و حتی در موقعیت‌های واقعی از قبل آزمایش کنند تا میزان کارآیی آن مشخص شود و ما دریابیم که آیا ما از پس استفاده از چنین الگوریتم‌هایی برمی‌آییم و پیامدهای آن چیست.

وی شرایط فعلی جهان را به شرایط قبل از آغاز جنگ اول جهانی تشبیه کرد که در نهایت مجموعه‌ای از رویدادهای به نظر منطقی پیامدهایی پیشبینی نشده و ناخواسته را به وجود آورد و جنگ آغاز شد. وی گفت: اگر پیامدهای فناوری‌ها و از جمله ظرفیتهای عاطفی و احساسی انسان‌ها را برای مدیریت پیامدهای غیرقابل پیشبینی فناوری‌ها، مورد توجه قرار ندهید، در حوزه استراتژیک هم شکست می‌خورید. هنوز مشخص نیست بازیگران دولتی چگونه قادر به اعمال دیپلماسی در شرایطی خواهند بود که از طرز فکر طرف مقابل مطمئن نیستند یا حتی قادر به ارائه تضمین به آن طرف نمی‌باشند. زمانی که با استفاده از هوش‌مصنوعی سلاح‌های پرقدرت می‌سازیم باید به طور جدی به این موضوع فکر کنیم که چگونه می‌خواهیم در مورد آنها گفت‌وگو کنیم و چگونه می‌خواهیم برای استفاده از آنها خویشتنداری پیشه کنیم؟

کیسینجر تأکید کرد: در این شرایط سلاح شما به شریک شما مبدل می‌شود و اگر این سلاح برای انجام وظیفهای خاص طراحی شود، شما چگونه می‌توانید آن را تحت شرایطی خاص متحول و دستکاری کنید. باید به این سوالات پاسخداد. هوش‌مصنوعی چالش فلسفی آینده ماست، زیرا ما با اشیای هوشمندی تعامل خواهیم کرد که قبلا هرگز تصورش را هم نداشتیم و محدودیت‌های ما نیز بسیار وسیع است.


نظر خود را اضافه کنید.

ارسال نظر به عنوان مهمان

0
نظر شما به دست مدیر خواهد رسید
شرایط و قوانین.
  • هیچ نظری یافت نشد