با توسعه روزافزون هوشمصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپفیک به مسألهای اساسی بدل شده است. به گزارش مهر، تولید دیپفیک (deep fake) یکی از توانمندیهای هوشمصنوعی است که برای ایجاد تصاویر و ویدیو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری […]
با توسعه روزافزون هوشمصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپفیک به مسألهای اساسی بدل شده است. به گزارش مهر، تولید دیپفیک (deep fake) یکی از توانمندیهای هوشمصنوعی است که برای ایجاد تصاویر و ویدیو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهکنندهای که تولید میکند را در بر میگیرد. دیپفیکها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند. آنها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد. بزرگترین خطری که دیپفیک ایجاد میکند، تواناییاش در انتشار اطلاعات نادرستی است که به نظر قابلاعتماد میآید. مورد دیگر نگرانیهایی است که در مورد احتمال دخالت دیپفیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپفیکها در حالیکه تهدید جدی هستند در مواردی مانند بازیهای ویدیویی و برنامههای پشتیبانی مشتری و پاسخ به تماسگیرندگان، کاربردهای قانونی دارند. همانطور که سابقاً اشاره شد، ویدیوهای دیپفیک شامل فیلمهای دستکاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آنها را تغییر میدهد و هویت شخص دیگری را جایگزین میکند. یک نوع دیگر از دیپفیک، جعل صدای افراد است که در مواردی میتواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپفیک استفاده کرده و صدای مدیر واقعی را جعل کرده است. عکسهای دیپفیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیسبوک دهها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی بهعنوان عکس پروفایل استفاده میکردند.
شیوع محتوای جعلی
یکی دیگر از خطرات هوشمصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوشمصنوعیهای مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند. هوشمصنوعی مولد قادر است اطلاعات نادرست و جعلی را بهطور گسترده و مانند ویروس شیوع دهد. الگوریتمهای هوشمصنوعی مولد میتوانند متون، تصاویر و ویدیوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همهگیری ویروس کرونا، یکی از آسیبهایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوشمصنوعی مولد قادر است چالشهای مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیبهایی مانند بازی دادن افکار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را در پی داشته باشد.
حوزههای در معرض آسیب
الگوریتمهای هوشمصنوعی مولد، قادرند محتواهای تصویری و چندرسانهای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپفیکها میتوانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسأله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامهنگاری داشته باشد. یکی دیگر از حوزههایی که ممکن است با دیپفیک به خطر بیفتد، حوزه قضاوت است. با همهگیرشدن استفاده از هوشمصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدیو و تصاویر جعلی قادرند فرآیند دادرسی را پیچیدهتر کنند. حوادث مهم سیاسی و اجتماعی نیز میتواند به بستری برای جولان سوءاستفادهکنندگان از هوشمصنوعی مولد تبدیل شود.
انتخابات
همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصههایی است که در عصر جدید نیاز به مراقبتهای بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت میگیرد و در غیر این صورت مردم بازیچه دست ذینفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپفیک هستند و بهنظر میرسد قانونگذاران به تکاپوی تنظیمگری این حوزه خواهند افتاد یا متحمل آسیبهای جبرانناپذیر خواهند شد!
کشور چین، در خطمقدم مقابله با محتوای دیپفیک
در بیشتر نقاط جهان، مسؤولین هنوز اقدامی در جهت مقابله با دیپفیک و انتشار اخبار جعلی توسط هوشمصنوعی مولد نکردهاند و این به دلیل شناخت کم آنها از این فناوری نو است. مادامی که تکنولوژی پیچیدهتر و در دسترستر برای عموم میشود، مقابله با خطرات و آسیبهای آن نیز دشوارتر میشود. چین که یکی از بسترهای توسعه هوشمصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیبهای دیپفیک برخیزد. این کشور اخیراً قوانین گستردهای تصویب کرده که براساس آن مطالب دستکاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسؤولیت رد شایعات را برعهده ارائهدهندگان خدمات ساخت محتواهای دیپفیک گذاشته است. مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سوءاستفاده دارند عموماً باهویت جعلی و یا بیهویت و مخفیانه دست به اقدامات نادرست میزنند. شناسایی آنها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیمگرانه هوشمصنوعی مولد نشدهاند. سختگیریهای زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تاکنون کشوری اقدام به اعمال محدودیتهای شدید در این حوزه نکرده است. به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپفیک کنند. سابقهها بر این منوال است که قانونگذاران در سراسر جهان ترجیح میدهند قبل از تدوین چارچوبهای جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند. راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» میگوید: «این عرصه برای تعیین سیاست جهانی سرنوشتساز است، زیرا کشورها در حال رقابتاند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص میکند.»
دیپفیک و برخی فواید
با وجود همه چالشهای ذکر شده برای این فناوری، دیپفیک در بسیاری از صنایع میتواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راهرفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین میتواند برای ساختن برنامههای طنز و سرگرمی، خریداران آنلاین لباس که میتوانند با استفاده از این فناوری لباسها را در اتاقهای تزئین مجازی امتحان کنند و انیمیشنسازان مفید باشد.
مدیرعامل شرکت ملی پخش فرآوردههای نفتی ایران، گفت: با توجه به حجم عظیم انتقال فرآورده و امکان بروز اختلال و خطا، همچنین لزوم پایش و رصد مستمر شاخصهای توزیع فرآورده در بیش از ۳۷ منطقه و ۲۳۵ ناحیه عملیاتی، استفاده از سامانههای هوشمصنوعی باید در ساختار این شرکت قرار گیرد. به گزارش مناقصهمزایده به نقل […]
یک مطالعه جدید این پرسش را مطرح میکند که آیا مدلهای زبانی بزرگ هوشمصنوعی، واقعاً مدلهای منسجمی از جهان میسازند؟ به گزارش فارس به نقل از نوروساینسنیوز، یک مطالعه جدید این پرسش را مطرح میکند که آیا مدلهای زبانی بزرگ هوشمصنوعی (LLM)، علیرغم خروجیهای دقیق آنها در وظایف پیچیدهای مانند ارائه مسیریابی یا انجام بازیها، […]
عضو هیئتعلمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا میتوان مسئولیت نویسندگی یک مقاله را برعهده هوشمصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریفزاده؛ در کرسی ترویجی «اخلاق و سیاست هوشمصنوعی» از سری پیشنشستهای هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه […]
فعالان حوزه هوشمصنوعی باور دارند نبودن سرمایهگذار پایهای و مهاجرت نیروی کار متخصص از اصلیترین چالشهای استارتآپهای هوشمصنوعی در ایران هستند. به گزارش پیوست، دومین گردهمایی استارتآپی پاندورا با هدف اجرای پروژههای عملیاتی هوشمصنوعی و تمرکز بر کسبوکارهای این حوزه برگزار شد. نوید شهدی، مدیرعامل شرکت Vector، درباره چالش کسبوکارهای حوزه هوشمصنوعی در ایران، گفت: […]
دیدگاه بسته شده است.