با توسعه روزافزون هوشمصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپفیک به مسألهای اساسی بدل شده است. به گزارش مهر، تولید دیپفیک (deep fake) یکی از توانمندیهای هوشمصنوعی است که برای ایجاد تصاویر و ویدیو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری […]
با توسعه روزافزون هوشمصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپفیک به مسألهای اساسی بدل شده است. به گزارش مهر، تولید دیپفیک (deep fake) یکی از توانمندیهای هوشمصنوعی است که برای ایجاد تصاویر و ویدیو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهکنندهای که تولید میکند را در بر میگیرد. دیپفیکها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند. آنها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد. بزرگترین خطری که دیپفیک ایجاد میکند، تواناییاش در انتشار اطلاعات نادرستی است که به نظر قابلاعتماد میآید. مورد دیگر نگرانیهایی است که در مورد احتمال دخالت دیپفیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپفیکها در حالیکه تهدید جدی هستند در مواردی مانند بازیهای ویدیویی و برنامههای پشتیبانی مشتری و پاسخ به تماسگیرندگان، کاربردهای قانونی دارند. همانطور که سابقاً اشاره شد، ویدیوهای دیپفیک شامل فیلمهای دستکاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آنها را تغییر میدهد و هویت شخص دیگری را جایگزین میکند. یک نوع دیگر از دیپفیک، جعل صدای افراد است که در مواردی میتواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپفیک استفاده کرده و صدای مدیر واقعی را جعل کرده است. عکسهای دیپفیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیسبوک دهها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی بهعنوان عکس پروفایل استفاده میکردند.
شیوع محتوای جعلی
یکی دیگر از خطرات هوشمصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوشمصنوعیهای مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند. هوشمصنوعی مولد قادر است اطلاعات نادرست و جعلی را بهطور گسترده و مانند ویروس شیوع دهد. الگوریتمهای هوشمصنوعی مولد میتوانند متون، تصاویر و ویدیوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همهگیری ویروس کرونا، یکی از آسیبهایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوشمصنوعی مولد قادر است چالشهای مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیبهایی مانند بازی دادن افکار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را در پی داشته باشد.
حوزههای در معرض آسیب
الگوریتمهای هوشمصنوعی مولد، قادرند محتواهای تصویری و چندرسانهای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپفیکها میتوانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسأله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامهنگاری داشته باشد. یکی دیگر از حوزههایی که ممکن است با دیپفیک به خطر بیفتد، حوزه قضاوت است. با همهگیرشدن استفاده از هوشمصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدیو و تصاویر جعلی قادرند فرآیند دادرسی را پیچیدهتر کنند. حوادث مهم سیاسی و اجتماعی نیز میتواند به بستری برای جولان سوءاستفادهکنندگان از هوشمصنوعی مولد تبدیل شود.
انتخابات
همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصههایی است که در عصر جدید نیاز به مراقبتهای بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت میگیرد و در غیر این صورت مردم بازیچه دست ذینفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپفیک هستند و بهنظر میرسد قانونگذاران به تکاپوی تنظیمگری این حوزه خواهند افتاد یا متحمل آسیبهای جبرانناپذیر خواهند شد!
کشور چین، در خطمقدم مقابله با محتوای دیپفیک
در بیشتر نقاط جهان، مسؤولین هنوز اقدامی در جهت مقابله با دیپفیک و انتشار اخبار جعلی توسط هوشمصنوعی مولد نکردهاند و این به دلیل شناخت کم آنها از این فناوری نو است. مادامی که تکنولوژی پیچیدهتر و در دسترستر برای عموم میشود، مقابله با خطرات و آسیبهای آن نیز دشوارتر میشود. چین که یکی از بسترهای توسعه هوشمصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیبهای دیپفیک برخیزد. این کشور اخیراً قوانین گستردهای تصویب کرده که براساس آن مطالب دستکاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسؤولیت رد شایعات را برعهده ارائهدهندگان خدمات ساخت محتواهای دیپفیک گذاشته است. مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سوءاستفاده دارند عموماً باهویت جعلی و یا بیهویت و مخفیانه دست به اقدامات نادرست میزنند. شناسایی آنها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیمگرانه هوشمصنوعی مولد نشدهاند. سختگیریهای زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تاکنون کشوری اقدام به اعمال محدودیتهای شدید در این حوزه نکرده است. به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپفیک کنند. سابقهها بر این منوال است که قانونگذاران در سراسر جهان ترجیح میدهند قبل از تدوین چارچوبهای جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند. راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» میگوید: «این عرصه برای تعیین سیاست جهانی سرنوشتساز است، زیرا کشورها در حال رقابتاند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص میکند.»
دیپفیک و برخی فواید
با وجود همه چالشهای ذکر شده برای این فناوری، دیپفیک در بسیاری از صنایع میتواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راهرفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین میتواند برای ساختن برنامههای طنز و سرگرمی، خریداران آنلاین لباس که میتوانند با استفاده از این فناوری لباسها را در اتاقهای تزئین مجازی امتحان کنند و انیمیشنسازان مفید باشد.
شرکت دیپسیک قابلیتهای هوشمصنوعی ارائه میکند که با چت جیپیتی اوپنایآی رقابت میکند و میتوان حتی ادعا کرد از آن بهتر است زیرا با هزینهای اندک ساخته شده، از منابع کمتری استفاده میکند و همزمان رایگان است. دیپسیک یک شرکت مستقر در چین و سهامدار اصلی آن لیانگ ونفنگ؛ یکی از مؤسسان صندوق پوشش ریسک […]
کارشناسان ورود هوشمصنوعی به آموزش مدارس را به دلیل نبود بودجه و زیرساخت لازم؛ یک هدف رویایی ارزیابی میکنند. آنها معتقدند تا زمانی که زیرساخت مناسب برای دستیابی به یک هدف وجود نداشته باشد نمیتوان به نتیجه رسید، این در حالی است که از ابتدای سال کاربردی کردن هوشمصنوعی در آموزش و پرورش در دستور […]
معاون وزیر ارتباطات و فناوری اطلاعات، در جمع اعضای اتاق بازرگانی گفت که بهزودی مجوز اپراتور هوشمصنوعی توسط وزارت ارتباطات و فناوری اطلاعات صادر خواهد شد. به گزارش مناقصهمزایده به نقل از وزارت ارتباطات و فناوری اطلاعات، در این نشست احسان چیتساز؛ معاون سیاستگذاری، برنامهریزی توسعه فاوا و اقتصاد دیجیتال، طی سخنانی به ترسیم چهره […]
با اقدامات و مذاکرات انجام شده از سوی سازمان با نمایندگان مجلس، سازمان نظام صنفی رایانهای بهعنوان نماینده و تنها تشکل بخشخصوصی، عضو شورایملی راهبری هوشمصنوعی شد. به گزارش مناقصهمزایده به نقل از سازمان نظام صنفی رایانهای کشور، کمیسیونهای صنایع و معادن و آموزش، تحقیقات و فناوری مجلس شورای اسلامی در طرح قانون ملی هوشمصنوعی […]
دیدگاه بسته شده است.