رهبران اپنایآی، خواستار تنظیم مقررات برای جلوگیری از نابودی بشریت توسط هوشمصنوعی و ایجاد نهادی مانند آژانس انرژی اتمی شدند. به گزارش فارس به نقل از رویترز، تیم پشتیبان چتجیپیتی میگوید که برای محافظت در برابر خطرات هوشمصنوعی فوقهوشمند به یک ناظر معادل آژانس انرژی اتمی نیاز است. رهبران شرکت اپنایآی، توسعهدهنده چتجیپیتی، خواستار تنظیمگری […]
رهبران اپنایآی، خواستار تنظیم مقررات برای جلوگیری از نابودی بشریت توسط هوشمصنوعی و ایجاد نهادی مانند آژانس انرژی اتمی شدند. به گزارش فارس به نقل از رویترز، تیم پشتیبان چتجیپیتی میگوید که برای محافظت در برابر خطرات هوشمصنوعی فوقهوشمند به یک ناظر معادل آژانس انرژی اتمی نیاز است. رهبران شرکت اپنایآی، توسعهدهنده چتجیپیتی، خواستار تنظیمگری هوشمصنوعی فوقهوشمند شدهاند و استدلال میکنند که معادل آژانس بینالمللی انرژی اتمی برای محافظت بشریت از خطر ایجاد تصادفی چیزی با قدرت نابود کردن انسان مورد نیاز است. گرگ براکمن؛ رئیس اداری و ایلیا سوتسکِور، دانشمند ارشد و سم آلتمن مدیر اجرایی، از یک تنظیمکننده بینالمللی خواستند تا در مورد چگونگی بازرسی سیستمها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کار کند و محدودیتهایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش خطر وجودی چنین سیستمهایی ایجاد کند. آنها نوشتند: «می توان تصور کرد که در ۱۰ سال آینده، سیستمهای هوشمصنوعی در بیشتر حوزهها از سطح مهارتهای متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکتهای امروزی فعالیتهای سازندهای را انجام خواهند داد. از نظر جنبههای مثبت و منفی، ابرهوشمند قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است. ما میتوانیم آیندهای مرفهتر داشته باشیم؛ اما برای رسیدن به آن باید خطرات را مدیریت کنیم و با توجه به احتمال خطر وجودی، نمیتوانیم تنها واکنش نشان دهیم.» این سه نفر در کوتاهمدت، خواستار درجاتی از هماهنگی میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوشمصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد.بهعنوان مثال این هماهنگی میتواند از طریق یک پروژه تحت رهبری دولت یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوشمصنوعی انجام شود. محققان دهها سال است که درباره خطرات بالقوه ابرهوشمند شدن هشدار میدهند، اما با افزایش سرعت توسعه هوشمصنوعی، این خطرات عینیتر شدهاند. مرکز ایمنی هوشمصنوعی (CAIS) مستقر در ایالات متحده، که برای کاهش خطرات در مقیاس اجتماعی ناشی از هوشمصنوعی کار میکند، هشت دسته خطر فاجعه بار و وجودی ناشی از توسعه هوشمصنوعی را توصیف کرده است. در حالی که برخی نگران این هستند که یک هوشمصنوعی قدرتمند بهطور تصادفی یا عمدی بشریت را نابود کند، مرکز ایمنی هوشمصنوعی آسیبهای مخرب دیگری را توصیف میکند. جهانی که در آن سیستمهای هوشمصنوعی بهطور داوطلبانه نیروی کار بیشتری را به دست میآورند منجر به از دست دادن توانایی خودگردانی و وابستگی کامل بشر به ماشینها میشود و گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوشمصنوعی را به یک نیروی متمرکز تبدیل کنند. رهبران اپنایآی، میگویند که این خطرات به این معنی است که مردم در سراسر جهان باید بهطور دموکراتیک در مورد محدودیتها و پیش فرضهای سیستمهای هوشمصنوعی تصمیم بگیرند؛ اما اذعان دارند که ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها میگویند توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد. مدلهای هوشمصنوعی مولد به دلیل اشتباهات یا سوگیریها، اطلاعات نادرست را با اطمینان عجیبی منتشر میکنند. چنین اشتباهاتی میتواند عواقب جدی داشته باشد. اتحادیه اروپا در حال نوشتن پیشنویس قوانین جدید هوشمصنوعی پیشرو است؛ اما چند سال طول میکشد تا این قانون اجرا شود بنابراین رگولاتورها قصد دارند قوانین موجود را در این مورد اعمال کنند. این قوانین همه چیز از حق نسخهبرداری و حریم خصوصی دادهها گرفته تا دو موضوع کلیدی دادههای وارد شده به مدلها و محتوای تولید شده را شامل میشوند.
دیدگاه بسته شده است.