آغاز مسابقه تسلیحاتی هوش مصنوعی !

آغاز مسابقه تسلیحاتی هوش مصنوعی ! ولادیمیر پوتین، رییس‌جمهور روسیه در سال ۲۰۱۷ اعلام کرد که “کشور روسیه به رهبر جهان در حوزه فن‌آوری تبدیل خواهد شد”. این دیدگاه در دولت‌های مختلف جهان متداول است. در حال حاضر، بیش از ده دولت، ابتکارات ملی خود در حوزه هوش مصنوعی را اعلام کرده‌اند. در سال ۲۰۱۷، […]

آغاز مسابقه تسلیحاتی هوش مصنوعی !

ولادیمیر پوتین، رییس‌جمهور روسیه در سال ۲۰۱۷ اعلام کرد که “کشور روسیه به رهبر جهان در حوزه فن‌آوری تبدیل خواهد شد”. این دیدگاه در دولت‌های مختلف جهان متداول است. در حال حاضر، بیش از ده دولت، ابتکارات ملی خود در حوزه هوش مصنوعی را اعلام کرده‌اند. در سال ۲۰۱۷، چین از برنامه خود تا سال ۲۰۳۰ برای رهبری جهانی در حوزه هوش مصنوعی پرده‌برداری کرد و کاخ سفید نیز در اوایل سال جاری، طرح ابتکاری هوش مصنوعی آمریکا را راه‌اندازی کرد. وزارت دفاع ایالات متحده نیز از یک استراتژی هوش مصنوعی رونمایی کرد.

به گزارش انتخاب، روایت در حال ظهور “مسابقه تسلیحاتی هوش مصنوعی” نشان دهنده یک دیدگاه اشتباه و بی‌اطلاعی از خطرات هوش مصنوعی است و در نتیجه پیامدهای خطرناک قابل توجهی را به وجود می‌آورد. برای هر کشوری، خطر واقعی این است که خود را پشت سر دیگر کشور‌ها در حوزه هوش مصنوعی تصور کند، بنابراین ادراک حضور در مسابقه موجب می‌شود که هر کشور برای رسیدن به سیستم‌های ناامن هوش مصنوعی عجله کند. به عبارتی دقیق تر در میل شدید به پیروزی، کشور‌ها به اندازه دشمنان و رقبا خود را به خطر می‌اندازند.

هوش مصنوعی وعده داده است که از مزایای فوق‌العاده در همه چیز از مراقبت‌های بهداشتی تا حمل و نقل، برخوردار است. اما این خدمات با خطراتی نیز همراه است. این روز‌ها حضور ربات‌ها بین انسان‌ها صرفاً به فیلم‌های علمی و تخیلی محدود نمی‌شود.

در حال حاضر، سیستم‌های هوش مصنوعی بسیار قدرتمند اما غیرقابل اعتماد هستند. بسیاری از آن‌ها در برابر حملات پیچیده آسیب پذیرند و بدون آموزش کافی شکست می‌خورند. دولت‌ها می‌خواهند سیستم‌های خود را به درستی استفاده کنند، اما رقابت باعث کاهش استاندارد‌ها می‌شود. حتی اگر کشورهای دیگر در آستانه دستیابی به پیشرفت‌های عمده‌ای در زمینه فن‌آوری اطلاعات قرار نگیرند، ادراک این که آن‌ها در حال رشد هستند، می‌تواند دیگران را به عجله در حوزه فعالیت‌های هوش مصنوعی تحریک کند و اگر دولتی یک سیستم سلاح مبتنی بر هوش مصنوعی طراحی کند دیگر کشور‌ها نیز برای رسیدن به نقطه امن تلاشی شتاب زده و گاه فاجعه بار خواهند داشت.

سیاست‌گذاران باید از تاریخ شبکه‌های کامپیوتری درس بگیرند و امنیت را مبنای هوش مصنوعی قرار دهند. شفاف‌‌ترین نوع سیستم هوش مصنوعی سیستمی است که تعدادی از وظایف را با پیروی از یک سری قوانین از پیش تعیین شده توسط انسان‌ها انجام می‌دهد. این نوع سیستم حدود یک دهه قدمت دارد و در حال گسترش است. اما در چند سال گذشته، پیشرفت در جمع‌آوری داده‌ها، قدرت پردازش کامپیوتری و طراحی الگوریتم به پژوهشگران اجازه داده نوع دیگری از سیستم یعنی سیستم‌های یادگیری ماشینی را توسعه دهند.

دریادگیری ماشینی، یک برنامه نویس قوانینی را می‌نویسد و سپس هوش مصنوعی هزاران بار داده‌ها را بر اساس الگوریتم‌ها بازسازی می‌کند.رونق فعلی هوش مصنوعی از سال ۲۰۱۲ آغاز شد، یعنی زمانی که محققان با استفاده از تکنیک یادگیری ماشینی به نام «یادگیری عمیق»، که بر شبکه‌های عصبی عمیق متکی بود، پیشرفت کردند.

این سیستم نوعی ازشبکه عصبی مبتنی بر تکنیک‌های هوش مصنوعی است که به وضوح از نورون‌های بیولوژیک الهام گرفته و از سلول‌هایی استفاده می‌کند که با فرستادن و دریافت امواج الکتریکی با دیگر سلول‌ها ارتباط برقرار می‌کنند.

از نمونه‌های رایج این نوع سیستم می‌توان به توانایی تشخیص چهره‌ها، شناسایی اشیاء، تکرار گفتار و بازی‌های پیچیده اشاره کرد. افزون بر این‌ها محققان در حال حاضر از هوش مصنوعی برای حل مشکلات در جهان واقعی مثل درمان سرطان، بهبود رانندگی، مشاوره تحصیلی و … استفاده می‌کنند. حتی دوره‌های برنامه نویسی رایگان به مردم یاد می‌دهند که چگونه سیستم‌های هوش مصنوعی خود را ایجاد می‌کنند و شبکه‌های عصبی آموزش دیده نیز برای دانلود رایگان هستند. اما این ابزار هوشمند به هر فردی که قصد آسیب رساندن به دیگران را دارد نیز کمک می‌کند.

این یک واقعیت است که آسیب از طریق هوش مصنوعی اتفاقی نیست. حتی استفاده از هوش مصنوعی برای سوء استفاده از اطلاعات کاربران در شبکه‌های اجتماعی می‌تواند خطرناک باشد. این روز‌ها فیلم‌های جعلی متعددی با کمک هوش مصنوعی ساخته می‌شوند و حتی چهره افراد مشهور روی فیلم‌های مستهجن قرارداده می‌شود.

این مثال‌ها ساده‌‌ترین نوع سوء استفاده محسوب می‌شود. درواقع کمپین‌های سیاسی با استفاده از تجزیه و تحلیل داده‌ها با کمک هوش مصنوعی به مقاصد خود دست پیدا می‌کنند. استفاده از هوش مصنوعی برای دستکاری داده‌ها از طریق حملات فیشینگ نیز بسیار رایج شده است.

قدرت هوش مصنوعی به عنوان یک ابزار سرکوب بیشتر ترسناک است. دولت‌های اقتدارگرا می‌توانند از عمیق‌‌ترین انواع هوش مصنوعی برای مبارزه با مخالفان حکومت استفاده کنند و با کمک تکنولوژی تشخیص چهره این افراد را ردیابی کنند. در حال حاضر چین یکی از کشورهایی است که از این روش استفاده می‌کند و شبکه‌های گسترده‌ای از دوربین‌های نظارتی را برای نظارت برمردم استفاده می‌کند.

چین فقط به فکر ساختن یک نظارت دولتی تکنولوژیک در خانه خود نیست؛ این کشور تکنولوژی خود را صادر کرده است. در سال ۲۰۱۸، زیمبابوه قراردادی رابا شرکت چینیCloudWalk Technology امضا کرد تا یک پایگاه داده ملی از چهره‌ها و سیستم‌های نظارت بر تشخیص چهره در فرودگاه‌ها، ایستگاه‌های راه‌آهن و ایستگاه‌های اتوبوس نصب کند. افزون بر این، چین قصد دارد تکنولوژی نظارت را در مالزی، مغولستان و سنگاپور به فروش برساند.

خطرات واقعی یک مسابقه تسلیحاتی هوش مصنوعی

با کمک هوش مصنوعی چه کارهایی انجام خواهد شد؟

هر کشوری که در زمینه هوش مصنوعی فعال است، می‌تواند نسبت به دیگر کشور‌ها برخی از مزیت‌های اقتصادی و نظامی را به دست آورد.پیش‌بینی می‌شود تا سال ۲۰۳۰هوش مصنوعی بین ۱۳ تا ۱۵ تریلیون دلار به اقتصاد جهانی بیفزاید. هوش مصنوعی مي تواند سرعت اکتشافات علمی را تسریع کند. در سال ۲۰۱۹ یک شبکه عصبی مصنوعی به‌طور قابل ملاحظه‌ای بهتر از گذشته عمل می‌کند و وظایفی کلیدی در تحقیقات بیولوژیکی دارد.

عجله واشنگتن برای توسعه هوش مصنوعی نیز به این خاطر است که نمی‌خواهد در ماراتن رقابتی از چین عقب بماند. در حال حاضر غول‌های فن‌آوری چین مثل علی بابا دوشادوش گوگل و مایکروسافت در حال پیشروی هستند. بنابراین شاید تا ده سال پیش، هدف چین برای تبدیل شدن به رهبر جهانی در حوزه هوش مصنوعی تا سال ۲۰۳۰، به نظر گمراه کننده بود اما امروز، این احتمال واقعی است.

یک نگرانی دیگر برای دولت ایالات متحده استفاده چین از هوش مصنوعی برای مقاصد نظامی است. کارکنان در گوگل و مایکروسافت با قرارداد‌های شرکت‌هایشان با پنتاگون مخالفت کرده‌اند، که منجر به توقف کار گوگل در پروژه استفاده از هوش مصنوعی برای تجزیه و تحلیل فیلم‌های ویدئویی شد. اما رژیم اقتدارگرای چین این نوع مشکلات را ندارد و به راحتی هوش مصنوعی را در دستاوردهای نظامی استفاده می‌کند.

تنها حرکت کردن در حوزه هوش مصنوعی برنده بازی را تعیین نمی‌کند

فن‌آوری‌های مبتنی بر هوش مصنوعی این روز‌ها قدرتمند اما غیرقابل اعتمادند.سیستم‌های مبتنی بر قوانین می‌توانند با شرایطی که برنامه نویسان پیش‌بینی نکرده‌اند نیز مقابله کنند.سیستم‌های یادگیری ماشینی محدود به اطلاعاتی هستند که بر اساس آن آموزش دیده‌اند. شکست‌های هوش مصنوعی نیز می‌تواند به تراژدی‌هایی جدی تبدیل شود..

درواقع شکست هوش مصنوعی موضوعی دور از ذهن نیست. اما این شکست‌ها از دید بسیاری از محققان و سیاستمداران بسیار تلخ و ناخوشایند است، چرا که هر بار شکست یک سیستم مبتنی بر هوش مصنوعی می‌تواند مهاجمان را برای سوء استفاده از هوش مصنوعی حریص تر کند.

حتی اگر سازندگان یک سیستم یادگیری عمیق از منابع داده خود محافظت کنند، سیستم می‌تواند با استفاده از آنچه که به عنوان مثال “نمونه‌های متضاد” شناخته می‌شود، فریب داده شود.دولت‌ها در حال آزمایش ابزارهای نظامی، سایبری و نظارتی زیادی هستند اما هنوز نمی‌توانند تضمین کنند که این روش‌ها درست عمل می‌کنند یا هر مشکلی را حل خواهند کرد.

اول ایمنی بعد هوش مصنوعی

تهدیدات فوری دنیای هوش مصنوعی نیاز به پاسخ‌های فوری دارند.یکی از مهم‌ترین راه‌هایی که سیاست‌گذاران می‌توانند با خطرات هوش مصنوعی برخورد کنند، افزایش منابع مالی برای تحقیقات ایمنی هوش مصنوعی است.شرکت‌ها میلیارد‌ها دلار برای پیدا کردن برنامه‌های کاربردی تجاری برای هوش مصنوعی صرف می‌کنند، اما دولت ایالات متحده می‌تواند در تأمین مالی تحقیقاتی علمی هوش مصنوعی نقش مهمی ایفا کند.

هنگامی که در مورد استفاده از هوش مصنوعی برای تأمین امنیت ملی صحبت به میان می‌اید،سازمان‌های دولتی مجبور به تجدید نظر در روش‌های سنتی خود برای آزمایش هستند. این آزمایش‌ها می‌تواند از خودروهای خودران تا ربات‌های پرستار گسترده باشد.در نهایت، ایالات متحده باید به دنبال راه‌هایی برای کار با کشورهای دیگر، حتی دشمنان خود، برای اطمینان از ایمنی هوش مصنوعی باشد. همکاری بین‌المللی در زمینه فن‌آوری‌های جدید دارای یک رکورد متفاوت است، اما کشور‌ها گاهی اوقات موفق به همکاری با یکدیگر برای جلوگیری از آسیب متقابل می‌شوند. در طول جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی برای محدود کردن انواع خاصی از سیستم‌های تحویل کلاهک‌های هسته‌ای که هر دو طرف در مورد آن به توافق رسیدند، به‌طور خاص بی‌ثبات بودند.

فراموش نکنیم که هر پیشرفتی با خطراتی همراه است. در قرن نوزدهم، صنعتی شدن جهان، رشد اقتصادی فوق‌العاده‌ای را به همراه آورد، اما تانک، تفنگ و گاز خردل را نیزبه ارتش انتقال داد. هوش مصنوعی خود را باتغییرات مطابقت می‌دهد. اکثر اثرات آن نیز مثبت خواهد بود، رشد اقتصادی را تقویت خواهد کرد، به تشخیص و درمان بیماری‌هاکمک می‌کند، تصادفات اتومبیل را کاهش می‌دهد و زندگی روزمره مردم را در هزاران راه بزرگ و کوچک بهبود می‌بخشد. با این حال، مانند هر تکنولوژی جدید، هوش مصنوعی نیز یک طرف تیره دارد و تنها راه مبارزه با این وجه تیره، هوشیاری دولت‌ها است.