آیا هوش‌مصنوعی می‌تواند مؤلف یک مقاله علمی باشد؟

عضو هیئت‌علمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا می‌توان مسئولیت نویسندگی یک مقاله را برعهده هوش‌مصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریف‌زاده؛ در کرسی ترویجی «اخلاق و سیاست هوش‌مصنوعی» از سری پیش‌نشست‌های هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه […]

عضو هیئت‌علمی ایرانداک، با پرداختن به جوانب اخلاقی به این سؤال پاسخ داد که آیا می‌توان مسئولیت نویسندگی یک مقاله را برعهده هوش‌مصنوعی گذاشت یا خیر؟ به گزارش مهر، رحمان شریف‌زاده؛ در کرسی ترویجی «اخلاق و سیاست هوش‌مصنوعی» از سری پیش‌نشست‌های هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد اینکه «آیا می‌توان چت جی‌پی‌تی را به‌عنوان مؤلف شناسایی کرد؟»، گفت: چت جی‌پی‌تی محصول ترکیب NLP و یادگیری ماشین است. این ابزار در تولید متن به خوبی عمل کرده و یکی از جذابیت‌های این محصول است. وی درخصوص امکانات چت جی‌پی‌تی، گفت: این ابزار در مفهوم پردازی و تحلیل (تولید فرضیه استخراج ایده، طراحی پژوهش، فراتحلی، خلاصه‌سازی، مرور ادبیات، پیشنهاد روش‌شناسی، تفسیر و تحلیل داده‌ها، ارائه نقد و بازخورد)، نگارش پژوهش (ترجمه، بازنویسی، پیشنهاد عنوان، چکیده و نتیجه‌گیری)، ویرایش و تصحیح (تقویت واژگان، بررسی گرامر و املا، بررسی ارجاعات و…) و انتشار دانشگاهی (پیدا کردن مجله مناسب، فرمت دادن به مقاله براساس شیوه‌نامه مجله و…) کاربرد دارد. عضو هیئت‌علمی ایرانداک، با اشاره به اینکه این چت‌بات می‌تواند درگیر سرقت ادبی، داده‌سازی، دستکاری داده شود، گفت: البته این چالش‌‌ها ذاتی نیستند و می‌تواند با توسعه و بهبود این ابزار رفع شود. وی با اشاره به موضوع «سایه‌نویسی ماشینی» که یکی دیگر از مسائلی است که با استفاده از این ابزار می‌توان درگیر آن شد، گفت: موضوع سایه‌نویسی ماشین و اینکه آیا متنی که چت‌بات نوشته را ما به اسم خودمان منتشر کنیم، مسئله‌ای است که نیاز به بررسی بیشتر دارد. به گفته شریف‌زاده؛ ناشران مجلات در مورد این موضوع رویه‌هایی در پیش گرفتند ولی نگاهی وجود دارد که عنوان می‌کند نمی‌توانیم چت جی‌پی‌تی را به‌عنوان مؤلف بدانیم. وی با اشاره به انتشار مقاله‌ای که اولین‌بار چت جی‌پی‌تی را به‌عنوان مؤلف دوم خود درج کرد، گفت: چند روز بعد از انتشار این مقاله، ناشر چت جی‌پی‌تی را از لیست مؤلف‌های آن حذف کرد و توضیح داد که در حال‌حاضر چت‌بات‌‌ها نمی‌توانند معیارهای مؤلف بودن ما را کسب کنند. چرا که مؤلف یک مقاله بودن نیاز به مسئولیت نویسندگی دارد و ما نمی‌توانیم این مسئولیت را به چت‌بات دهیم. عضو هیئت‌علمی ایرانداک، درباره معیارهایی که در مفهوم تالیف وجود دارد، توضیح داد: در توصیه‌نامه ونکوور یا کنوانسیون کمیته بین‌المللی سردبیران مجلات پزشکی چهار مؤلفه و معیار برای یک مؤلف در نظر گرفته است: «مشارکت اساسی در مفهوم‌سازی یا طراحی پژوهش؛ یا به‌دست آوردن، تحلیل یا تفسیر داده‌های پژوهش»، «نگارش کار یا بازبینی انتقادی محتوای فکری مهم»، «تأیید نهایی نسخه قابل انتشار» و «پذیرش مسئولیت درستی پژوهش انجام‌شده در تمام اجزا و جوانب آن». بر این اساس مؤلف کسی است که هر چهار شرط را داشته باشد. وی ادامه داد: چون چت جی‌پی‌تی کارهایی مثل مؤلف‌های انسانی انجام می‌دهد، سه شرط اول را می‌تواند پوشش دهد ولی در مورد مسئولیت سؤال وجود دارد. شریف‌زاده؛ با بیان این‌که معنای عمیق‌تر مسئولیت، مسئولیت اخلاقی است، گفت: برای پذیرفتن مسئولیت اولین شرط این است که عاملیت اخلاقی داشته باشد یعنی قابلیت انجام کنش‌های اخلاقاً مهم، تعبیه ارزش‌های اخلاقی در آن و قرارگرفتن در یک فرآیند یادگیری اخلاقی پیوسته را داشته باشد. دومین شرط نیز مسئولیت اخلاقی است یعنی قابلیت سرزنش و ستایش اخلاقی را داشته باشد. عضو هیئت‌علمی ایرانداک، اظهار کرد: در مخالفت با نسبت دادن مسئولیت اخلاقی به چت جی‌پی‌تی دو استدلال وجود دارد. یک استدلال مبتنی بر «اتاق چینی» است. یعنی این ابزار فاقد ذهن است و معنا، آگاهی را درک نمی‌کند و حس و حال را درک نمی‌کند. می‌تواند از واژه‌ها و جملات استفاده کند ولی مثلاً حس و حال شعر خیام و گل سرخ را درک نمی‌کند؛ بنابراین نمی‌توان به آن مسئولیت اخلاقی داد. وی ادامه داد: دومین استدلال مربوط به (ناسازگاری) است؛ این که چت جی‌پی‌تی یک موجود «متعین» است و توسط الگوریتم برنامه‌نویسی شده است؛ بنابراین جبر بر آن حاکم است؛ در حالی که مسئولیت اخلاقی مستلزم داشتن اراده آزاد است. شریف‌زاده؛ در پاسخ به این دو استدلال، گفت: من نمی‌خواهم پاسخ محکمی به این دو استدلال بدهم ولی برای این دو استدلال، دو پاسخ وجود دارد. در پاسخ به استدلال نخست یا اتاق چینی که عنوان می‌شود که این چت‌بات به ساخت معنا وارد نمی‌شود؛ پیش‌فرض این استدلال «ماشین‌‌ها نمی‌توانند فکر کنند» را مورد سؤال قرار می‌دهد.

یک سؤال این است که آیا عدم فهم معنایی، می‌تواند مستلزم عدم مسئولیت اخلاقی باشد؟

وی ادامه داد: برای مثال اگر فردی معنای یک متن را نفهمد، می‌تواند مسئولیت اخلاقی در برابر آن نداشته باشد؟ به نظر می‌رسد که جواب این سؤال منفی است. مثلاً یک استاد اخلاق به من گفته از یک واژه که به زبان دیگری است و من آن زبان را نمی‌دانم استفاده نکنم؛ ولی با وجود این‌که معنی آن را نمی‌دانم ولی از آن استفاده می‌کنم. آیا من مسئولیت اخلاقی نداشتم؟ وی در پاسخ به استدلال دوم (ناسازگاری)،گفت: مثلاً اگر من مجبور به کشتن فردی شوم، چون گزینه دیگری نداشتم؛ پس مسئولیت اخلاقی کشتن فرد از من سلب می‌شود؟ این‌گونه نیست. عضو هیئت‌علمی ایرانداک، در پایان اظهار کرد: به نظر می‌رسد دستکم از لحاظ نظری مانع محکمی بر سر راه اینکه عامل غیرانسانی را مؤلف بشناسیم وجود ندارد.