هوشمصنوعی فقط یک توهم از علم است؟!
هوشمصنوعی هر روز باهوشتر میشود، اما آیا واقعاً میفهمد؟ وقتی ماشینها در آزمونهای اخلاقی مردد میمانند، آیا باید نگران باشیم؟ شاید AI فقط یک توهم از دانش باشد، نه چیزی بیشتر! در سال ۲۰۲۳، محققان گوگل دیپمایند مدل هوشمصنوعی Gemini را معرفی کردند که تواناییهای استدلالی آن به حدی پیچیده بود که برخی آن را […]
هوشمصنوعی هر روز باهوشتر میشود، اما آیا واقعاً میفهمد؟ وقتی ماشینها در آزمونهای اخلاقی مردد میمانند، آیا باید نگران باشیم؟ شاید AI فقط یک توهم از دانش باشد، نه چیزی بیشتر! در سال ۲۰۲۳، محققان گوگل دیپمایند مدل هوشمصنوعی Gemini را معرفی کردند که تواناییهای استدلالی آن به حدی پیچیده بود که برخی آن را «نزدیکترین چیز به تفکر انسانی» دانستند. در همان سال، سام آلتمن؛ مدیرعامل OpenAI، درباره امکان رسیدن به «هوش عمومی مصنوعی» (AGI) هشدار داد؛ سیستمی که نهتنها دادهها را پردازش میکند، بلکه شاید بتواند بهطور واقعی «درک» کند. اما این پرسش همچنان مطرح است: آیا افزایش قدرت پردازشی و مدلهای پیچیده یادگیری عمیق، ماشینها را از سطح دانستن به سطح درک کردن و قضاوت اخلاقی میبرد؟ یا شکافی غیرقابل عبور بین شناخت ماشینی و حکمت انسانی وجود دارد؟
از باغ عدن تا الگوریتمهای عصبی!
مسیحیان معتقدند؛ از نخستین لحظهای که آدم (ع) و حوا از «درخت معرفت» خوردند، آگاهی انسان متحول شد! در روایتهای دینی و فلسفی اسلامی نیز، دانش چیزی فراتر از دریافت اطلاعات است؛ تجربهای است که به تشخیص و تمایز اخلاقی میانجامد. در فلسفه ارسطو، «فرونسیس» یا حکمت عملی، تنها از طریق تجربه زندگی و مواجهه با موقعیتهای واقعی شکل میگیرد، نه با حفظ دادهها یا پردازش اطلاعات. امروزه، شبکههای عصبی مصنوعی و مدلهای زبانی مانند GPT-4، به تحلیل و پردازش دادههایی میپردازند که در طول تاریخ بشر گردآوری شده است. آیا این بدان معناست که آنها میتوانند واقعاً قضاوت اخلاقی کنند؟ یا صرفاً الگوهای آماری را بازتولید میکنند؟
صعود ماشینها: آیا هوشمصنوعی میتواند قضاوت کند؟
در سال ۲۰۲۲، یک آزمایش جالب در دانشگاه استنفورد انجام شد که در آن از مدلهای هوشمصنوعی خواسته شد تا تصمیمات اخلاقی در سناریوهای پیچیده اتخاذ کنند. در مواردی مانند «مسئله واگن» که باید بین جان دو گروه از افراد یکی را نجات داد، مدلهای زبانی به پاسخهایی میرسیدند که شباهت زیادی به قضاوتهای انسانی داشتند. اما این تصمیمات بر پایه یادگیری الگوهای قبلی بود، نه تجربه زیسته. از سوی دیگر، متفکرانی مانند راجر پنروز و جان سرل؛ معتقدند که حتی پیچیدهترین سیستمهای هوشمصنوعی نیز فاقد «نیتمندی»(Intentionality) هستند. نظریه «اتاق چینی» سرل نشان میدهد که پردازش زبان در سطح بالای ماشینها به معنی درک واقعی نیست، بلکه صرفاً تطبیق الگوها و پاسخدهی براساس احتمالهای آماری است
شکاف بین دانستن و درک کردن: آمارها چه میگویند؟
برای درک بهتر محدودیتهای هوشمصنوعی در قضاوت و حکمت، بررسی چند آمار واقعی جالب خواهد بود:
طبق گزارش مؤسسه مککینزی (۲۰۲۳)، ۷۲درصد از مدیران ارشد شرکتهای بزرگ معتقدند که AI میتواند فرآیند تصمیمگیری را بهبود بخشد، اما تنها ۱۸درصد بر این باورند که این سیستمها میتوانند تصمیماتی با سطح اخلاقی مشابه انسان بگیرند. یک مطالعه در MIT نشان داد که مدلهای زبانی میتوانند استدلالهایی شبیه انسان ارائه دهند، اما در ۳۵درصد مواقع درک اشتباه از متنهای مبهم یا طنزآمیز دارند. در یک آزمایش در گوگل، مدلهای هوشمصنوعی در پاسخ به سوالات اخلاقی پیچیده در ۶۰درصد مواقع با نظرات انسانها هماهنگ بودند، اما در ۴۰درصد مواقع پاسخهایی ارائه کردند که بهنظر میرسید تنها براساس آمار و نه درک واقعی از ارزشها شکل گرفته است.
آینده: نزدیک شدن به مرز درک یا تقلیدی پیچیدهتر؟
چهرههایی مانند ایلانماسک هشدار دادهاند که ما به سمت «تکینگی» (Singularity) پیش میرویم؛ لحظهای که در آن AI از سطح محاسباتی به نوعی خودآگاهی میرسد. اما فیلسوفانی مانند نیک بوستروم بر این باورند که حتی اگر AI به درکی سطحی از اخلاق دست یابد، این نوع قضاوت هرگز نمیتواند جایگزین تجربه انسانی شود. ما در کجای این مسیر ایستادهایم؟ آیا ماشینها صرفاً شبحی از حکمت انسانی را ارائه میدهند، یا واقعاً در حال عبور از شکاف دانستن به درک کردن هستند؟ در نهایت، مسئولیت اخلاقی و قضاوت، همچنان در دستان انسان باقی میماند؛ چرا که تجربه زیسته، عاملیت، و درک از پیامدها، چیزهایی هستند که هیچ الگوریتمی نمیتواند آنها را تجربه کند.
منابع: فارس
«The AI Dilemma: Can Machines Ever Truly Understand?» – MIT Technology Review, 2023.
«Ethical AI: Navigating the Gap Between Data and Judgment» – McKinsey Report, 2023.
«Roger Penrose on AI, Consciousness, and the Limits of Computation» – Oxford University Press, 2022.
«Google DeepMind’s Gemini: A Step Toward Artificial General Intelligence?» – Stanford AI Review, 2023.
ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0