عضو هیئتعلمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا میتوان مسئولیت نویسندگی یک مقاله را برعهده هوشمصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریفزاده؛ در کرسی ترویجی «اخلاق و سیاست هوشمصنوعی» از سری پیشنشستهای هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه […]
عضو هیئتعلمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا میتوان مسئولیت نویسندگی یک مقاله را برعهده هوشمصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریفزاده؛ در کرسی ترویجی «اخلاق و سیاست هوشمصنوعی» از سری پیشنشستهای هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه «آیا میتوان چت جیپیتی را بهعنوان مؤلف شناسایی کرد؟»، گفت: چت جیپیتی محصول ترکیب NLP و یادگیری ماشین است. این ابزار در تولید متن به خوبی عمل کرده و یکی از جذابیتهای این محصول است. وی درخصوص امکانات چت جیپیتی، گفت: این ابزار در مفهوم پردازی و تحلیل (تولید فرضیه استخراج ایده، طراحی پژوهش، فراتحلی، خلاصهسازی، مرور ادبیات، پیشنهاد روششناسی، تفسیر و تحلیل دادهها، ارائه نقد و بازخورد)، نگارش پژوهش (ترجمه، بازنویسی، پیشنهاد عنوان، چکیده و نتیجهگیری)، ویرایش و تصحیح (تقویت واژگان، بررسی گرامر و املا، بررسی ارجاعات و…) و انتشار دانشگاهی (پیدا کردن مجله مناسب، فرمت دادن به مقاله براساس شیوهنامه مجله و…) کاربرد دارد. عضو هیئتعلمی ایرانداک، با اشاره به اینکه این چتبات میتواند درگیر سرقت ادبی، دادهسازی، دستکاری داده شود، گفت: البته این چالشها ذاتی نیستند و میتواند با توسعه و بهبود این ابزار رفع شود. وی با اشاره به موضوع «سایهنویسی ماشینی» که یکی دیگر از مسائلی است که با استفاده از این ابزار میتوان درگیر آن شد، گفت: موضوع سایهنویسی ماشین و اینکه آیا متنی که چتبات نوشته را ما به اسم خودمان منتشر کنیم، مسئلهای است که نیاز به بررسی بیشتر دارد. به گفته شریفزاده؛ ناشران مجلات در مورد این موضوع رویههایی در پیش گرفتند ولی نگاهی وجود دارد که عنوان میکند نمیتوانیم چت جیپیتی را بهعنوان مؤلف بدانیم. وی با اشاره به انتشار مقالهای که اولینبار چت جیپیتی را بهعنوان مؤلف دوم خود درج کرد، گفت: چند روز بعد از انتشار این مقاله، ناشر چت جیپیتی را از لیست مؤلفهای آن حذف کرد و توضیح داد که در حالحاضر چتباتها نمیتوانند معیارهای مؤلف بودن ما را کسب کنند. چرا که مؤلف یک مقاله بودن نیاز به مسئولیت نویسندگی دارد و ما نمیتوانیم این مسئولیت را به چتبات دهیم. عضو هیئتعلمی ایرانداک، درباره معیارهایی که در مفهوم تالیف وجود دارد، توضیح داد: در توصیهنامه ونکوور یا کنوانسیون کمیته بینالمللی سردبیران مجلات پزشکی چهار مؤلفه و معیار برای یک مؤلف در نظر گرفته است: «مشارکت اساسی در مفهومسازی یا طراحی پژوهش؛ یا بهدست آوردن، تحلیل یا تفسیر دادههای پژوهش»، «نگارش کار یا بازبینی انتقادی محتوای فکری مهم»، «تأیید نهایی نسخه قابل انتشار» و «پذیرش مسئولیت درستی پژوهش انجامشده در تمام اجزا و جوانب آن». بر این اساس مؤلف کسی است که هر چهار شرط را داشته باشد. وی ادامه داد: چون چت جیپیتی کارهایی مثل مؤلفهای انسانی انجام میدهد، سه شرط اول را میتواند پوشش دهد ولی در مورد مسئولیت سؤال وجود دارد. شریفزاده؛ با بیان اینکه معنای عمیقتر مسئولیت، مسئولیت اخلاقی است، گفت: برای پذیرفتن مسئولیت اولین شرط این است که عاملیت اخلاقی داشته باشد یعنی قابلیت انجام کنشهای اخلاقاً مهم، تعبیه ارزشهای اخلاقی در آن و قرارگرفتن در یک فرآیند یادگیری اخلاقی پیوسته را داشته باشد. دومین شرط نیز مسئولیت اخلاقی است یعنی قابلیت سرزنش و ستایش اخلاقی را داشته باشد. عضو هیئتعلمی ایرانداک، اظهار کرد: در مخالفت با نسبت دادن مسئولیت اخلاقی به چت جیپیتی دو استدلال وجود دارد. یک استدلال مبتنی بر «اتاق چینی» است. یعنی این ابزار فاقد ذهن است و معنا، آگاهی را درک نمیکند و حس و حال را درک نمیکند. میتواند از واژهها و جملات استفاده کند ولی مثلاً حس و حال شعر خیام و گل سرخ را درک نمیکند؛ بنابراین نمیتوان به آن مسئولیت اخلاقی داد. وی ادامه داد: دومین استدلال مربوط به (ناسازگاری) است؛ این که چت جیپیتی یک موجود «متعین» است و توسط الگوریتم برنامهنویسی شده است؛ بنابراین جبر بر آن حاکم است؛ در حالی که مسئولیت اخلاقی مستلزم داشتن اراده آزاد است. شریفزاده؛ در پاسخ به این دو استدلال، گفت: من نمیخواهم پاسخ محکمی به این دو استدلال بدهم ولی برای این دو استدلال، دو پاسخ وجود دارد. در پاسخ به استدلال نخست یا اتاق چینی که عنوان میشود که این چتبات به ساخت معنا وارد نمیشود؛ پیشفرض این استدلال «ماشینها نمیتوانند فکر کنند» را مورد سؤال قرار میدهد.
یک سؤال این است که آیا عدم فهم معنایی، میتواند مستلزم عدم مسئولیت اخلاقی باشد؟
وی ادامه داد: برای مثال اگر فردی معنای یک متن را نفهمد، میتواند مسئولیت اخلاقی در برابر آن نداشته باشد؟ به نظر میرسد که جواب این سؤال منفی است. مثلاً یک استاد اخلاق به من گفته از یک واژه که به زبان دیگری است و من آن زبان را نمیدانم استفاده نکنم؛ ولی با وجود اینکه معنی آن را نمیدانم ولی از آن استفاده میکنم. آیا من مسئولیت اخلاقی نداشتم؟ وی در پاسخ به استدلال دوم (ناسازگاری)،گفت: مثلاً اگر من مجبور به کشتن فردی شوم، چون گزینه دیگری نداشتم؛ پس مسئولیت اخلاقی کشتن فرد از من سلب میشود؟ اینگونه نیست. عضو هیئتعلمی ایرانداک، در پایان اظهار کرد: به نظر میرسد دستکم از لحاظ نظری مانع محکمی بر سر راه اینکه عامل غیرانسانی را مؤلف بشناسیم وجود ندارد.
شرکت دیپسیک قابلیتهای هوشمصنوعی ارائه میکند که با چت جیپیتی اوپنایآی رقابت میکند و میتوان حتی ادعا کرد از آن بهتر است زیرا با هزینهای اندک ساخته شده، از منابع کمتری استفاده میکند و همزمان رایگان است. دیپسیک یک شرکت مستقر در چین و سهامدار اصلی آن لیانگ ونفنگ؛ یکی از مؤسسان صندوق پوشش ریسک […]
کارشناسان ورود هوشمصنوعی به آموزش مدارس را به دلیل نبود بودجه و زیرساخت لازم؛ یک هدف رویایی ارزیابی میکنند. آنها معتقدند تا زمانی که زیرساخت مناسب برای دستیابی به یک هدف وجود نداشته باشد نمیتوان به نتیجه رسید، این در حالی است که از ابتدای سال کاربردی کردن هوشمصنوعی در آموزش و پرورش در دستور […]
معاون وزیر ارتباطات و فناوری اطلاعات، در جمع اعضای اتاق بازرگانی گفت که بهزودی مجوز اپراتور هوشمصنوعی توسط وزارت ارتباطات و فناوری اطلاعات صادر خواهد شد. به گزارش مناقصهمزایده به نقل از وزارت ارتباطات و فناوری اطلاعات، در این نشست احسان چیتساز؛ معاون سیاستگذاری، برنامهریزی توسعه فاوا و اقتصاد دیجیتال، طی سخنانی به ترسیم چهره […]
با اقدامات و مذاکرات انجام شده از سوی سازمان با نمایندگان مجلس، سازمان نظام صنفی رایانهای بهعنوان نماینده و تنها تشکل بخشخصوصی، عضو شورایملی راهبری هوشمصنوعی شد. به گزارش مناقصهمزایده به نقل از سازمان نظام صنفی رایانهای کشور، کمیسیونهای صنایع و معادن و آموزش، تحقیقات و فناوری مجلس شورای اسلامی در طرح قانون ملی هوشمصنوعی […]
دیدگاه بسته شده است.