رشد سریع هوشمصنوعی نهتنها سبب نگرانی مردم و قانونگذاران شده است، بلکه حتی در میان برخی از پیشگامان فناوری و کسانی که خودشان در بطن ماجرا بودهاند نیز نگرانیهایی ایجاد کرده است. در همین حال، یک استاد علوم و مهندسی رایانه در دانشگاه واشنگتن، میگوید: به اذعان بیشتر محققان، نگرانی بیش از اندازه درخصوص هوشمصنوعی، […]
رشد سریع هوشمصنوعی نهتنها سبب نگرانی مردم و قانونگذاران شده است، بلکه حتی در میان برخی از پیشگامان فناوری و کسانی که خودشان در بطن ماجرا بودهاند نیز نگرانیهایی ایجاد کرده است. در همین حال، یک استاد علوم و مهندسی رایانه در دانشگاه واشنگتن، میگوید: به اذعان بیشتر محققان، نگرانی بیش از اندازه درخصوص هوشمصنوعی، ضروری به نظر نمیرسد. برخی از کارشناسان، از جمله جفری هینتون «پدرخوانده هوشمصنوعی»، هشدار دادهاند که هوشمصنوعی درست شبیه به بیماریهای همهگیر و جنگ هستهای میتواند انسان را در معرض خطر انقراض قرار دهد. از رئیس شرکت سازنده «چت جیپیتی» گرفته تا رئیس آزمایشگاه هوشمصنوعی گوگل، بیش از ۳۵۰ نفر گفتهاند که مدیریت ریسک و مقابله با «خطر انقراض انسان با هوشمصنوعی» باید «اولویت جهانی» باشد. هوشمصنوعی در عین حال که میتواند کارهای نجاتبخشی کند از جمله طراحی الگوریتمهای بررسی تصویرهای پزشکی مانند پرتوایکس و اسکن و سونوگرافی قابلیت رشد سریع و استفاده گستردهتر از آن به نگرانیهایی نیز دامن زده است. مقاله اسکاینیوز به برخی از نگرانیهای اصلی از کاربرد هوشمصنوعی نگاهی انداخته و به این موضوع پرداخته است که چرا منتقدان برخی از این ترسها را بیش از حد و بیمورد میدانند.
اطلاعات نادرست و تصویرهای جعلی ساخت هوشمصنوعی
برنامههای کاربردی هوشمصنوعی در وبسایتهای رسانههای اجتماعی منتشر و پربازدید شدهاند. بسیاری از کاربران تصویرهایی جعلی از افراد مشهور و سیاستمداران منتشر میکنند و دانشجوها از «چت جیپیتی» و دیگر «الگوهای یادگیری زبان» برای تولید مقالههای دانشگاهی استفاده میکنند. یکی از نگرانیهای کلی در مورد هوشمصنوعی و توسعه آن مربوط به اطلاعات نادرست تولید شده هوشمصنوعی است و اینکه این اطلاعات جعلی چگونه سبب سردرگمی در فضای آنلاین میشود. پروفسور استوارت راسل، دانشمند بریتانیایی، میگوید یکی از بزرگترین نگرانیها در مورد اطلاعات نادرست و بهاصطلاح «دیپفیک» (Deep Fake) است. دیپفیک به ویدیوها یا عکسهایی گفته میشود که در آنها صورت یا بدن شخص به صورت دیجیتالی تغییر داده میشود و سر و بدن افراد متفاوت روی هم گذاشته میشود. این کار را معمولاً از روی کینهتوزی یا برای انتشار عمدی اطلاعات نادرست میکنند. پروفسور راسل میگوید تولید اطلاعات نادرست از مدتها پیش برای هدفهای «تبلیغاتی» وجود داشته است، اما اکنون تفاوت در این است که مثلاً او میتواند از چتبات آنلاین «جیپیتی۴» بخواهد که سخنان یک مجری تلویزیونی را بهکلی به نحو دیگری تغییر دهد. اخیراً، یک تصویر جعلی که به نظر میرسید انفجاری در نزدیکی پنتاگون باشد برای مدت کوتاهی در رسانههای اجتماعی منتشر و بهسرعت پربازدید شد. آن تصویر عدهای را به راستیآزمایی واداشت و خدمات آتشنشانی را نیز به واکنش و انتشار بیانیهای در رد آن ادعا وادار کرد. آن تصویر، که ظاهراً توده بزرگی از دود سیاه را در کنار مقر وزارت دفاع آمریکا نشان میداد، گویا با استفاده از فناوری هوشمصنوعی درست شده بود. آن تصویر نخستین بار در توئیتر منتشر شد و حسابهای خبری تأیید شده، اما جعلی، بهسرعت آن را بازنشر کردند. اما راستیآزمایی آن خیلی زود ثابت کرد که هیچ انفجاری در پنتاگون رخ نداده است. در عین حال، اقدامهای دیگری نیز در این مورد در جریان است. در ماه نوامبر، دولت تأیید کرد که به اشتراکگذاری هرزهنگاریهای «دیپ فیک» بدون رضایت افراد براساس قانون جدید جرم محسوب میشود.
پیشی گرفتن از هوش انسان
سامانههای هوشمصنوعی بهنوعی شبیهسازی ماشینی از فرآیندهای هوش انساناند. اما آیا بهراستی این خطر وجود دارد که این سامانهها به اندازهای پیشرفت کنند که از کنترل انسان خارج شوند؟ پروفسور اندرو بریگز از دانشگاه آکسفورد به اسکاینیوز گفت که این هراس وجود دارد که در اثر قدرتمندتر شدن ماشینها، روزی فرا برسد که ظرفیت هوشمصنوعی از انسان فراتر رود. او میگوید که در حالحاضر هر چیزی را که ماشین باید بهینه کند انسان انتخاب میکند. ممکن است این انتخاب با هدف مثبت یا منفی صورت بگیرد. در حالحاضر، انسان است که درباره آن تصمیم میگیرد. به گفته او، هراس اینجاست که وقتی ماشینها مدام باهوشتر و قدرتمندتر میشوند، چهبسا روزی فرا برسد که ظرفیت هوشمصنوعی بسیار بیشتر از ظرفیت انسان باشد و انسانها توانایی کنترل آنچه را ماشین به دنبال بهینهسازیاش است از دست بدهند. او میگوید که از همینرو، توجه به احتمال آسیب دیدن از هوشمصنوعی مهم است. بریگز اضافه میکند: «این موضوع برای من یا هیچیک از ما روشن نیست که آیا دولتها واقعا میدانند این موضوع را چگونه میتوان به شکلی ایمن حل و فصل کرد یا نه.» همچنین، نگرانیهای بسیار دیگری نیز در مورد هوشمصنوعی وجود دارد از جمله اثر آن بر آموزش. بهخصوص، با در نظر گرفتن هشدارهایی که کارشناسان درباره انتشار مقاله و از دست رفتن مشاغل طرح میکنند.
آخرین هشدار
در میان امضاءکنندگان بیانیه «مرکز ایمنی هوشمصنوعی» نام هینتون و یوشوا بنجیو دو تن از سه پدرخوانده هوشمصنوعی نیز دیده میشود که به پاس کار خود در زمینه یادگیری عمیق، جایزه تورینگ ۲۰۱۸ را گرفتند. اما این نخستینبار نیست که شاهد نگرانی کارشناسان فناوری درخصوص توسعه هوشمصنوعی هستیم. در ماه مارس، ایلانماسک و گروهی از کارشناسان هوشمصنوعی، بهدلیل آنچه خطرهای احتمالی برای جامعه و بشر میخواندند، خواستار توقف آموزش سامانههای هوشمصنوعی قوی شدند. در نامهای که مؤسسه غیرانتفاعی «فیوچر آفلایف» تنظیم کرد و بیش از ۱۰۰۰ نفر آن را امضاء کردند، امضاکنندگان در مورد خطرهای احتمالی سامانههای هوشمصنوعی رقیب انسان برای جامعه و تمدن هشدار داده بود. در آن نامه آمده بود که هوشمصنوعی ممکن است در قالب اختلالهای اقتصادی و سیاسی برای جامعه و تمدن خطرساز باشد. این عده خواستار توقف شش ماهه «رقابت خطرناک» برای توسعه سامانههای قدرتمندتر از «جیپیتی۴» شده بودند، سامانهای که «اوپنایآی» بهتازگی راهاندازی کرده است. همچنین، در اوایل این هفته، نخستوزیر بریتانیا ریشی سوناک با مدیر اجرایی گوگل ملاقات کرد تا در مورد «ایجاد تعادل مناسب» میان قوانین هوشمصنوعی از یکسو، و نوآوری از سوی دیگر صحبت کند. دفتر نخستوزیری گفت که نخستوزیر با «ساندار پیچای» در مورد اهمیت تضمین وجود «نردههای محافظ» مناسب برای اطمینان از ایمنی فنی صحبت کرده است.
هشدارهای «بیمورد» یا خطری جدی؟
اگرچه برخی از کارشناسان با بیانیه مرکز ایمنی هوشمصنوعی موافقاند، برخی دیگر در این زمینه مفهوم «پایان تمدن بشری» را ادعایی «بیربط و بیاساس» میخوانند. پدرو دومینگوس، استاد علوم و مهندسی رایانه در دانشگاه واشنگتن، در توئیتی نوشت: «یادآوری: بیشتر محققان هوشمصنوعی فکر میکنند این که هوشمصنوعی به تمدن بشری پایان میدهد بیربط است.» هینتون؛ در ادامه پرسید که برنامه دومینگوس برای ایمنی هوشمصنوعی و اینکه هوشمصنوعی کنترل را از دست ما در نیاورد چیست. پروفسور دومینگوس پاسخ داد: «همین حالا هم هر روزه افرادی که حتی به اندازه شما باهوش نیستند شما را کنترل و بازیچه خودشان میکنند، اما به هر حال، هنوز سر جای خودتان هستید و مشکلی ندارید. پس چرا فکر میکنید که این نگرانی بزرگ در مورد هوشمصنوعی موضوعی خاص و متفاوت است؟»
این مطلب بدون برچسب می باشد.
دیدگاه بسته شده است.