هوشمصنوعی هر روز باهوشتر میشود، اما آیا واقعاً میفهمد؟ وقتی ماشینها در آزمونهای اخلاقی مردد میمانند، آیا باید نگران باشیم؟ شاید AI فقط یک توهم از دانش باشد، نه چیزی بیشتر! در سال ۲۰۲۳، محققان گوگل دیپمایند مدل هوشمصنوعی Gemini را معرفی کردند که تواناییهای استدلالی آن به حدی پیچیده بود که برخی آن را […]
هوشمصنوعی هر روز باهوشتر میشود، اما آیا واقعاً میفهمد؟ وقتی ماشینها در آزمونهای اخلاقی مردد میمانند، آیا باید نگران باشیم؟ شاید AI فقط یک توهم از دانش باشد، نه چیزی بیشتر! در سال ۲۰۲۳، محققان گوگل دیپمایند مدل هوشمصنوعی Gemini را معرفی کردند که تواناییهای استدلالی آن به حدی پیچیده بود که برخی آن را «نزدیکترین چیز به تفکر انسانی» دانستند. در همان سال، سام آلتمن؛ مدیرعامل OpenAI، درباره امکان رسیدن به «هوش عمومی مصنوعی» (AGI) هشدار داد؛ سیستمی که نهتنها دادهها را پردازش میکند، بلکه شاید بتواند بهطور واقعی «درک» کند. اما این پرسش همچنان مطرح است: آیا افزایش قدرت پردازشی و مدلهای پیچیده یادگیری عمیق، ماشینها را از سطح دانستن به سطح درک کردن و قضاوت اخلاقی میبرد؟ یا شکافی غیرقابل عبور بین شناخت ماشینی و حکمت انسانی وجود دارد؟
از باغ عدن تا الگوریتمهای عصبی!
مسیحیان معتقدند؛ از نخستین لحظهای که آدم (ع) و حوا از «درخت معرفت» خوردند، آگاهی انسان متحول شد! در روایتهای دینی و فلسفی اسلامی نیز، دانش چیزی فراتر از دریافت اطلاعات است؛ تجربهای است که به تشخیص و تمایز اخلاقی میانجامد. در فلسفه ارسطو، «فرونسیس» یا حکمت عملی، تنها از طریق تجربه زندگی و مواجهه با موقعیتهای واقعی شکل میگیرد، نه با حفظ دادهها یا پردازش اطلاعات. امروزه، شبکههای عصبی مصنوعی و مدلهای زبانی مانند GPT-4، به تحلیل و پردازش دادههایی میپردازند که در طول تاریخ بشر گردآوری شده است. آیا این بدان معناست که آنها میتوانند واقعاً قضاوت اخلاقی کنند؟ یا صرفاً الگوهای آماری را بازتولید میکنند؟
صعود ماشینها: آیا هوشمصنوعی میتواند قضاوت کند؟
در سال ۲۰۲۲، یک آزمایش جالب در دانشگاه استنفورد انجام شد که در آن از مدلهای هوشمصنوعی خواسته شد تا تصمیمات اخلاقی در سناریوهای پیچیده اتخاذ کنند. در مواردی مانند «مسئله واگن» که باید بین جان دو گروه از افراد یکی را نجات داد، مدلهای زبانی به پاسخهایی میرسیدند که شباهت زیادی به قضاوتهای انسانی داشتند. اما این تصمیمات بر پایه یادگیری الگوهای قبلی بود، نه تجربه زیسته. از سوی دیگر، متفکرانی مانند راجر پنروز و جان سرل؛ معتقدند که حتی پیچیدهترین سیستمهای هوشمصنوعی نیز فاقد «نیتمندی»(Intentionality) هستند. نظریه «اتاق چینی» سرل نشان میدهد که پردازش زبان در سطح بالای ماشینها به معنی درک واقعی نیست، بلکه صرفاً تطبیق الگوها و پاسخدهی براساس احتمالهای آماری است
شکاف بین دانستن و درک کردن: آمارها چه میگویند؟
برای درک بهتر محدودیتهای هوشمصنوعی در قضاوت و حکمت، بررسی چند آمار واقعی جالب خواهد بود:
طبق گزارش مؤسسه مککینزی (۲۰۲۳)، ۷۲درصد از مدیران ارشد شرکتهای بزرگ معتقدند که AI میتواند فرآیند تصمیمگیری را بهبود بخشد، اما تنها ۱۸درصد بر این باورند که این سیستمها میتوانند تصمیماتی با سطح اخلاقی مشابه انسان بگیرند. یک مطالعه در MIT نشان داد که مدلهای زبانی میتوانند استدلالهایی شبیه انسان ارائه دهند، اما در ۳۵درصد مواقع درک اشتباه از متنهای مبهم یا طنزآمیز دارند. در یک آزمایش در گوگل، مدلهای هوشمصنوعی در پاسخ به سوالات اخلاقی پیچیده در ۶۰درصد مواقع با نظرات انسانها هماهنگ بودند، اما در ۴۰درصد مواقع پاسخهایی ارائه کردند که بهنظر میرسید تنها براساس آمار و نه درک واقعی از ارزشها شکل گرفته است.
آینده: نزدیک شدن به مرز درک یا تقلیدی پیچیدهتر؟
چهرههایی مانند ایلانماسک هشدار دادهاند که ما به سمت «تکینگی» (Singularity) پیش میرویم؛ لحظهای که در آن AI از سطح محاسباتی به نوعی خودآگاهی میرسد. اما فیلسوفانی مانند نیک بوستروم بر این باورند که حتی اگر AI به درکی سطحی از اخلاق دست یابد، این نوع قضاوت هرگز نمیتواند جایگزین تجربه انسانی شود. ما در کجای این مسیر ایستادهایم؟ آیا ماشینها صرفاً شبحی از حکمت انسانی را ارائه میدهند، یا واقعاً در حال عبور از شکاف دانستن به درک کردن هستند؟ در نهایت، مسئولیت اخلاقی و قضاوت، همچنان در دستان انسان باقی میماند؛ چرا که تجربه زیسته، عاملیت، و درک از پیامدها، چیزهایی هستند که هیچ الگوریتمی نمیتواند آنها را تجربه کند.
منابع: فارس
«The AI Dilemma: Can Machines Ever Truly Understand?» – MIT Technology Review, 2023.
«Ethical AI: Navigating the Gap Between Data and Judgment» – McKinsey Report, 2023.
«Roger Penrose on AI, Consciousness, and the Limits of Computation» – Oxford University Press, 2022.
«Google DeepMind’s Gemini: A Step Toward Artificial General Intelligence?» – Stanford AI Review, 2023.
در جلسه «شورایعالی راهبری برنامه هفتم توسعه» در دفتر معاون اول رئیسجمهور برگزار شد، موضوعات «برنامه مقابله با فقر» و «برنامه ملی توسعه هوشمصنوعی در دولت» مورد بحث و بررسی قرار گرفت. به گزارش مهر، در جلسه «شورایعالی راهبری برنامه هفتم توسعه» که در دفتر محمدرضا عارف؛ معاون اول رئیسجمهور برگزار شد، «برنامه عملیاتی محرومیتزدایی […]
رئیس مرکز تحقیقات راه، مسکن و شهرسازی، گفت: «نبود بانک اطلاعاتی»، نخستین چالش بهکارگیری هوشمصنوعی در صنعت ساختمان ایران است. به گزارش مناقصهمزایده، غزال راهب؛ در همایش «نقش هوشمصنوعی در رشد فناوری ساختمان» با رویکرد توسعه پایدار در اصفهان، افزود: اگر بهدنبال استفاده مؤثر از هوشمصنوعی هستیم باید این همت در مقیاس حکمرانی وجود داشته […]
شرکت دیپسیک قابلیتهای هوشمصنوعی ارائه میکند که با چت جیپیتی اوپنایآی رقابت میکند و میتوان حتی ادعا کرد از آن بهتر است زیرا با هزینهای اندک ساخته شده، از منابع کمتری استفاده میکند و همزمان رایگان است. دیپسیک یک شرکت مستقر در چین و سهامدار اصلی آن لیانگ ونفنگ؛ یکی از مؤسسان صندوق پوشش ریسک […]
کارشناسان ورود هوشمصنوعی به آموزش مدارس را به دلیل نبود بودجه و زیرساخت لازم؛ یک هدف رویایی ارزیابی میکنند. آنها معتقدند تا زمانی که زیرساخت مناسب برای دستیابی به یک هدف وجود نداشته باشد نمیتوان به نتیجه رسید، این در حالی است که از ابتدای سال کاربردی کردن هوشمصنوعی در آموزش و پرورش در دستور […]
ارسال دیدگاه
قوانین ارسال دیدگاه