عضو هیئتعلمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا میتوان مسئولیت نویسندگی یک مقاله را برعهده هوشمصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریفزاده؛ در کرسی ترویجی «اخلاق و سیاست هوشمصنوعی» از سری پیشنشستهای هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه […]
عضو هیئتعلمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا میتوان مسئولیت نویسندگی یک مقاله را برعهده هوشمصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریفزاده؛ در کرسی ترویجی «اخلاق و سیاست هوشمصنوعی» از سری پیشنشستهای هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه «آیا میتوان چت جیپیتی را بهعنوان مؤلف شناسایی کرد؟»، گفت: چت جیپیتی محصول ترکیب NLP و یادگیری ماشین است. این ابزار در تولید متن به خوبی عمل کرده و یکی از جذابیتهای این محصول است. وی درخصوص امکانات چت جیپیتی، گفت: این ابزار در مفهوم پردازی و تحلیل (تولید فرضیه استخراج ایده، طراحی پژوهش، فراتحلی، خلاصهسازی، مرور ادبیات، پیشنهاد روششناسی، تفسیر و تحلیل دادهها، ارائه نقد و بازخورد)، نگارش پژوهش (ترجمه، بازنویسی، پیشنهاد عنوان، چکیده و نتیجهگیری)، ویرایش و تصحیح (تقویت واژگان، بررسی گرامر و املا، بررسی ارجاعات و…) و انتشار دانشگاهی (پیدا کردن مجله مناسب، فرمت دادن به مقاله براساس شیوهنامه مجله و…) کاربرد دارد. عضو هیئتعلمی ایرانداک، با اشاره به اینکه این چتبات میتواند درگیر سرقت ادبی، دادهسازی، دستکاری داده شود، گفت: البته این چالشها ذاتی نیستند و میتواند با توسعه و بهبود این ابزار رفع شود. وی با اشاره به موضوع «سایهنویسی ماشینی» که یکی دیگر از مسائلی است که با استفاده از این ابزار میتوان درگیر آن شد، گفت: موضوع سایهنویسی ماشین و اینکه آیا متنی که چتبات نوشته را ما به اسم خودمان منتشر کنیم، مسئلهای است که نیاز به بررسی بیشتر دارد. به گفته شریفزاده؛ ناشران مجلات در مورد این موضوع رویههایی در پیش گرفتند ولی نگاهی وجود دارد که عنوان میکند نمیتوانیم چت جیپیتی را بهعنوان مؤلف بدانیم. وی با اشاره به انتشار مقالهای که اولینبار چت جیپیتی را بهعنوان مؤلف دوم خود درج کرد، گفت: چند روز بعد از انتشار این مقاله، ناشر چت جیپیتی را از لیست مؤلفهای آن حذف کرد و توضیح داد که در حالحاضر چتباتها نمیتوانند معیارهای مؤلف بودن ما را کسب کنند. چرا که مؤلف یک مقاله بودن نیاز به مسئولیت نویسندگی دارد و ما نمیتوانیم این مسئولیت را به چتبات دهیم. عضو هیئتعلمی ایرانداک، درباره معیارهایی که در مفهوم تالیف وجود دارد، توضیح داد: در توصیهنامه ونکوور یا کنوانسیون کمیته بینالمللی سردبیران مجلات پزشکی چهار مؤلفه و معیار برای یک مؤلف در نظر گرفته است: «مشارکت اساسی در مفهومسازی یا طراحی پژوهش؛ یا بهدست آوردن، تحلیل یا تفسیر دادههای پژوهش»، «نگارش کار یا بازبینی انتقادی محتوای فکری مهم»، «تأیید نهایی نسخه قابل انتشار» و «پذیرش مسئولیت درستی پژوهش انجامشده در تمام اجزا و جوانب آن». بر این اساس مؤلف کسی است که هر چهار شرط را داشته باشد. وی ادامه داد: چون چت جیپیتی کارهایی مثل مؤلفهای انسانی انجام میدهد، سه شرط اول را میتواند پوشش دهد ولی در مورد مسئولیت سؤال وجود دارد. شریفزاده؛ با بیان اینکه معنای عمیقتر مسئولیت، مسئولیت اخلاقی است، گفت: برای پذیرفتن مسئولیت اولین شرط این است که عاملیت اخلاقی داشته باشد یعنی قابلیت انجام کنشهای اخلاقاً مهم، تعبیه ارزشهای اخلاقی در آن و قرارگرفتن در یک فرآیند یادگیری اخلاقی پیوسته را داشته باشد. دومین شرط نیز مسئولیت اخلاقی است یعنی قابلیت سرزنش و ستایش اخلاقی را داشته باشد. عضو هیئتعلمی ایرانداک، اظهار کرد: در مخالفت با نسبت دادن مسئولیت اخلاقی به چت جیپیتی دو استدلال وجود دارد. یک استدلال مبتنی بر «اتاق چینی» است. یعنی این ابزار فاقد ذهن است و معنا، آگاهی را درک نمیکند و حس و حال را درک نمیکند. میتواند از واژهها و جملات استفاده کند ولی مثلاً حس و حال شعر خیام و گل سرخ را درک نمیکند؛ بنابراین نمیتوان به آن مسئولیت اخلاقی داد. وی ادامه داد: دومین استدلال مربوط به (ناسازگاری) است؛ این که چت جیپیتی یک موجود «متعین» است و توسط الگوریتم برنامهنویسی شده است؛ بنابراین جبر بر آن حاکم است؛ در حالی که مسئولیت اخلاقی مستلزم داشتن اراده آزاد است. شریفزاده؛ در پاسخ به این دو استدلال، گفت: من نمیخواهم پاسخ محکمی به این دو استدلال بدهم ولی برای این دو استدلال، دو پاسخ وجود دارد. در پاسخ به استدلال نخست یا اتاق چینی که عنوان میشود که این چتبات به ساخت معنا وارد نمیشود؛ پیشفرض این استدلال «ماشینها نمیتوانند فکر کنند» را مورد سؤال قرار میدهد.
یک سؤال این است که آیا عدم فهم معنایی، میتواند مستلزم عدم مسئولیت اخلاقی باشد؟
وی ادامه داد: برای مثال اگر فردی معنای یک متن را نفهمد، میتواند مسئولیت اخلاقی در برابر آن نداشته باشد؟ به نظر میرسد که جواب این سؤال منفی است. مثلاً یک استاد اخلاق به من گفته از یک واژه که به زبان دیگری است و من آن زبان را نمیدانم استفاده نکنم؛ ولی با وجود اینکه معنی آن را نمیدانم ولی از آن استفاده میکنم. آیا من مسئولیت اخلاقی نداشتم؟ وی در پاسخ به استدلال دوم (ناسازگاری)،گفت: مثلاً اگر من مجبور به کشتن فردی شوم، چون گزینه دیگری نداشتم؛ پس مسئولیت اخلاقی کشتن فرد از من سلب میشود؟ اینگونه نیست. عضو هیئتعلمی ایرانداک، در پایان اظهار کرد: به نظر میرسد دستکم از لحاظ نظری مانع محکمی بر سر راه اینکه عامل غیرانسانی را مؤلف بشناسیم وجود ندارد.
مدیرعامل شرکت ملی پخش فرآوردههای نفتی ایران، گفت: با توجه به حجم عظیم انتقال فرآورده و امکان بروز اختلال و خطا، همچنین لزوم پایش و رصد مستمر شاخصهای توزیع فرآورده در بیش از ۳۷ منطقه و ۲۳۵ ناحیه عملیاتی، استفاده از سامانههای هوشمصنوعی باید در ساختار این شرکت قرار گیرد. به گزارش مناقصهمزایده به نقل […]
یک مطالعه جدید این پرسش را مطرح میکند که آیا مدلهای زبانی بزرگ هوشمصنوعی، واقعاً مدلهای منسجمی از جهان میسازند؟ به گزارش فارس به نقل از نوروساینسنیوز، یک مطالعه جدید این پرسش را مطرح میکند که آیا مدلهای زبانی بزرگ هوشمصنوعی (LLM)، علیرغم خروجیهای دقیق آنها در وظایف پیچیدهای مانند ارائه مسیریابی یا انجام بازیها، […]
فعالان حوزه هوشمصنوعی باور دارند نبودن سرمایهگذار پایهای و مهاجرت نیروی کار متخصص از اصلیترین چالشهای استارتآپهای هوشمصنوعی در ایران هستند. به گزارش پیوست، دومین گردهمایی استارتآپی پاندورا با هدف اجرای پروژههای عملیاتی هوشمصنوعی و تمرکز بر کسبوکارهای این حوزه برگزار شد. نوید شهدی، مدیرعامل شرکت Vector، درباره چالش کسبوکارهای حوزه هوشمصنوعی در ایران، گفت: […]
کمیسیون تجارت فدرال آمریکا در گزارش جدیدی، اعلام کرد شرکتهای شبکه اجتماعی، حجم وسیعی از اطلاعات کاربران خود را جمعآوری، همرسانی و پردازش میکنند، بدون اینکه شفافیتی درباره نحوه استفاده از آنها توسط سیستمهای دارای هوشمصنوعی داشته باشند، یا امکان کنترل نحوه استفاده از دادههای شخصی را برای کاربران فراهم کنند. به گزارش ایسنا، این […]
دیدگاه بسته شده است.