با توسعه روزافزون هوشمصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپفیک به مسألهای اساسی بدل شده است. به گزارش مهر، تولید دیپفیک (deep fake) یکی از توانمندیهای هوشمصنوعی است که برای ایجاد تصاویر و ویدیو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری […]
با توسعه روزافزون هوشمصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپفیک به مسألهای اساسی بدل شده است. به گزارش مهر، تولید دیپفیک (deep fake) یکی از توانمندیهای هوشمصنوعی است که برای ایجاد تصاویر و ویدیو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهکنندهای که تولید میکند را در بر میگیرد. دیپفیکها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند. آنها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد. بزرگترین خطری که دیپفیک ایجاد میکند، تواناییاش در انتشار اطلاعات نادرستی است که به نظر قابلاعتماد میآید. مورد دیگر نگرانیهایی است که در مورد احتمال دخالت دیپفیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپفیکها در حالیکه تهدید جدی هستند در مواردی مانند بازیهای ویدیویی و برنامههای پشتیبانی مشتری و پاسخ به تماسگیرندگان، کاربردهای قانونی دارند. همانطور که سابقاً اشاره شد، ویدیوهای دیپفیک شامل فیلمهای دستکاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آنها را تغییر میدهد و هویت شخص دیگری را جایگزین میکند. یک نوع دیگر از دیپفیک، جعل صدای افراد است که در مواردی میتواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپفیک استفاده کرده و صدای مدیر واقعی را جعل کرده است. عکسهای دیپفیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیسبوک دهها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی بهعنوان عکس پروفایل استفاده میکردند.
شیوع محتوای جعلی
یکی دیگر از خطرات هوشمصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوشمصنوعیهای مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند. هوشمصنوعی مولد قادر است اطلاعات نادرست و جعلی را بهطور گسترده و مانند ویروس شیوع دهد. الگوریتمهای هوشمصنوعی مولد میتوانند متون، تصاویر و ویدیوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همهگیری ویروس کرونا، یکی از آسیبهایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوشمصنوعی مولد قادر است چالشهای مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیبهایی مانند بازی دادن افکار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را در پی داشته باشد.
حوزههای در معرض آسیب
الگوریتمهای هوشمصنوعی مولد، قادرند محتواهای تصویری و چندرسانهای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپفیکها میتوانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسأله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامهنگاری داشته باشد. یکی دیگر از حوزههایی که ممکن است با دیپفیک به خطر بیفتد، حوزه قضاوت است. با همهگیرشدن استفاده از هوشمصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدیو و تصاویر جعلی قادرند فرآیند دادرسی را پیچیدهتر کنند. حوادث مهم سیاسی و اجتماعی نیز میتواند به بستری برای جولان سوءاستفادهکنندگان از هوشمصنوعی مولد تبدیل شود.
انتخابات
همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصههایی است که در عصر جدید نیاز به مراقبتهای بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت میگیرد و در غیر این صورت مردم بازیچه دست ذینفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپفیک هستند و بهنظر میرسد قانونگذاران به تکاپوی تنظیمگری این حوزه خواهند افتاد یا متحمل آسیبهای جبرانناپذیر خواهند شد!
کشور چین، در خطمقدم مقابله با محتوای دیپفیک
در بیشتر نقاط جهان، مسؤولین هنوز اقدامی در جهت مقابله با دیپفیک و انتشار اخبار جعلی توسط هوشمصنوعی مولد نکردهاند و این به دلیل شناخت کم آنها از این فناوری نو است. مادامی که تکنولوژی پیچیدهتر و در دسترستر برای عموم میشود، مقابله با خطرات و آسیبهای آن نیز دشوارتر میشود. چین که یکی از بسترهای توسعه هوشمصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیبهای دیپفیک برخیزد. این کشور اخیراً قوانین گستردهای تصویب کرده که براساس آن مطالب دستکاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسؤولیت رد شایعات را برعهده ارائهدهندگان خدمات ساخت محتواهای دیپفیک گذاشته است. مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سوءاستفاده دارند عموماً باهویت جعلی و یا بیهویت و مخفیانه دست به اقدامات نادرست میزنند. شناسایی آنها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیمگرانه هوشمصنوعی مولد نشدهاند. سختگیریهای زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تاکنون کشوری اقدام به اعمال محدودیتهای شدید در این حوزه نکرده است. به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپفیک کنند. سابقهها بر این منوال است که قانونگذاران در سراسر جهان ترجیح میدهند قبل از تدوین چارچوبهای جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند. راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» میگوید: «این عرصه برای تعیین سیاست جهانی سرنوشتساز است، زیرا کشورها در حال رقابتاند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص میکند.»
دیپفیک و برخی فواید
با وجود همه چالشهای ذکر شده برای این فناوری، دیپفیک در بسیاری از صنایع میتواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راهرفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین میتواند برای ساختن برنامههای طنز و سرگرمی، خریداران آنلاین لباس که میتوانند با استفاده از این فناوری لباسها را در اتاقهای تزئین مجازی امتحان کنند و انیمیشنسازان مفید باشد.
هوشمصنوعی میتواند تا ۴۰ درصد مشاغل جهان را دگرگون کند و شکاف فناوری بین کشورها را عمیقتر سازد. به گزارش فارس به نقل از ماکروسافت نیوز، آژانس تجارت و توسعه سازمان ملل متحد در گزارشی جدید اعلام کرده که هوشمصنوعی ممکن است بر ۴۰ درصد مشاغل در سراسر جهان تأثیر بگذارد. این تأثیر میتواند باعث […]
معاون پژوهشی وزیر علوم، از ابلاغ شیوهنامه استفاده از هوشمصنوعی در اوایل سال ۱۴۰۴ خبر داد و گفت: این شیوهنامه به نشریات علمی ابلاغ خواهد شد. پیمان صالحی؛ در گفتگو با ایرنا، در مورد ورود هوشمصنوعی به عرصه تحقیق و پژوهش، گفت: بهطور کل ورود هوشمصنوعی قطعاً اثرات خیلی مهمی در زندگی همه افراد داشته […]
هوشمصنوعی هر روز باهوشتر میشود، اما آیا واقعاً میفهمد؟ وقتی ماشینها در آزمونهای اخلاقی مردد میمانند، آیا باید نگران باشیم؟ شاید AI فقط یک توهم از دانش باشد، نه چیزی بیشتر! در سال ۲۰۲۳، محققان گوگل دیپمایند مدل هوشمصنوعی Gemini را معرفی کردند که تواناییهای استدلالی آن به حدی پیچیده بود که برخی آن را […]
در جلسه «شورایعالی راهبری برنامه هفتم توسعه» در دفتر معاون اول رئیسجمهور برگزار شد، موضوعات «برنامه مقابله با فقر» و «برنامه ملی توسعه هوشمصنوعی در دولت» مورد بحث و بررسی قرار گرفت. به گزارش مهر، در جلسه «شورایعالی راهبری برنامه هفتم توسعه» که در دفتر محمدرضا عارف؛ معاون اول رئیسجمهور برگزار شد، «برنامه عملیاتی محرومیتزدایی […]
دیدگاه بسته شده است.