چرا از خطرات هوشمصنوعی مطلع نیستیم ! بسیاری از کشورهای جهان در رقابتی جدی در حوزه فناوری قرار دارند. اما نکته عجیب این است که بسیاری از افراد درباره اهمیت هوشمصنوعی چیز زیادی نمیدانند. این موضوع حتی در سطح دولتها گسترده است. هنگامی که سازمان غذا و داروی ایالات متحده امکانات جدید اپلواچ را تصویب […]
چرا از خطرات هوشمصنوعی مطلع نیستیم !
بسیاری از کشورهای جهان در رقابتی جدی در حوزه فناوری قرار دارند. اما نکته عجیب این است که بسیاری از افراد درباره اهمیت هوشمصنوعی چیز زیادی نمیدانند. این موضوع حتی در سطح دولتها گسترده است. هنگامی که سازمان غذا و داروی ایالات متحده امکانات جدید اپلواچ را تصویب کرد پذیرفت که این ساعتها میتوانند جایگزینی برای مراقبتهای بهداشتی باشد. اما متخصصان قلب و عروق هشدار دادند که این برنامه میتواند منجر به نقض حریمخصوصی و حتی ایجاد اخلال در مراقبتهای بهداشتی شود.
به گزارش انتخاب به نقل از پولیتیکو، خوب است که یک ارزیابی معتبر از جوانب مثبت و منفی فناوری جدید داشته باشیم. اتفاقی که در ایالات متحده رخ نمیدهد. در انگلیس، فرانسه و اتحادیه اروپا، آژانسهای دولتی تأثیر اخلاقی، اجتماعی و اقتصادی هوشمصنوعی و سایر فناوریهای مهم جدید را بررسی میکنند. اما در حالی که تعداد زیادی از نهادها در ایالات متحده مشغول فعالیتهای متعدد در حوزه هوشمصنوعی هستند، بررسی امنیت هوشمصنوعی در ایالات متحده چندان قوی اجرا نمیشود.
سوءاستفاده از هوشمصنوعی در برخی کشورها بسیار خطرناک است. برای مثال سوءاستفاده از هوشمصنوعی در چین در قالب رصد مداوم شهروندان یا دستکاری ژنومهای انسانی رخ میدهد. اما چرا این موضوع تا این حد در ایالات متحد مورد غفلت واقع شده است؟ بخشی از این بیتوجهی به کمبود بودجه و بخشی دیگر نیز به عدم قوانین معتبر و مصوب مرتبط است. قوانینی که میتوانند مهارکننده برخی تخلفات در حوزه هوشمصنوعی باشند.
جان ویلبانکس، متخصص و تکنسین در Sage Bionetworks گفت: «اگرچه بسیاری از اساتید دانشگاه و اندیشکدههای مبتنی بر فناوری، دادههای گسترده و آموزش ماشینی دارند، اما هیچ سیاست نظارتی برای کنترل هوشمصنوعی وجود ندارد.»
با این وجود این فناوریها تأثیرات عمیقی بر آینده ما دارند و سؤالات عظیمی برای جامعه ایجاد میکنند. مسائل مربوط به حریمخصوصی بیش از هر چیز درباره هوشمصنوعی مطرح میشود. اریک پراکسلیس، کارشناس امنیت فضای مجازی دانشگاه دوک در این خصوص میگوید: «مصرفکنندگان، پزشکان و مؤسسات باید درک کنند که سلامت شخصی نوعی موضوع مرتبط با حریمخصوصی است و نمیتوان به راحتی به هر برنامهای اعتماد کرد.»
یک خطر دیگر، فروش یا نقض یا سوءاستفاده از دادههای الکترونیکی است. درست مثل همان اتفاقی که برای کاربران فیسبوک رخ داد. به گفته منتقدین، الکتروکاردیوگرام موجود در اپلواچ، که ضربان قلب فرد را اندازه میگیرد و میتواند فیبریلاسیون AFib)) دهلیزی را تشخیص دهد. میتواند شامل خطاهای گستردهای باشد یا حتی میتواند اطلاعاتی اشتباه درباره سلامت افراد منتشر کند. اریک توپول، متخصص قلب، نویسنده و بنیانگذار مؤسسه پژوهشی اسکریپس میگوید اساساً این نوع اندازهگیری سلامتی را فاقد اعتبار میداند چرا که نمیتواند با علم پزشکی تطابق کامل داشته باشد.
به نظر میرسد باز هم به موضوع پیشین باز میگردیم که در مقابل این نوع دادهسنجی و ثبت داده هیچ قانون دقیقی وجود ندارد و به عبارتی دقیقتر هیچ بحث عمومی درباره چگونگی استفاده از دادهها میلیونها آمریکایی وجود ندارد. این الگوریتمها میتوانند برای شکل دادن بیمهنامه استفاده شوند، ممکن است بر تصمیم پزشکان تأثیر بگذارند یا حتی در پژوهشهای علمی استفاده شوند اما حقوق مصرفکنندگان چه میشود؟
نکته نهایی این است که گفتوگو در مورد ابعاد و حوزه حریمخصوصی هوشمصنوعی نیز بسیار مهم است. درک هوشمصنوعی بسیار سختتر از دیگر حوزههاست و عدهای معتقدند به همین دلیل تدوین قانون در این زمینه بسیار سخت است. توپول در این زمینه میگوید: «فرض کنید بخواهیم قوانینی درباره تکنولوژیهای تشخیص چهره وضع کنیم چگونه قرار است ابعاد آن را تعیین کنیم. اساساً چگونه مشخص میشود کدام سازمانها حق دارند از این تکنولوژیها استفاده کنند.»
نگاهی به قوانین نشان میدهد اروپاییها نسبت به آمریکاییها قوانینی سرسختانهتر برابر تکنولوژی و حتی شرکتهای سرشناسی مثل گوگل، فیسبوک و مایکروسافت و… وضع کردهاند. با این حال حتی قوانین اتحادیه اروپا نیز ناقص است.
این مطلب بدون برچسب می باشد.
دیدگاه بسته شده است.