آیا باید نگران هوش مصنوعی باشیم?

Father dragging son from the computer

آیا روزی فرا می‌رسد که هوش مصنوعی به انسان‌ها غلبه کند یا هوش انسان‌ها را به سخره بگیرد؟ احتمالاً بعد از دیدن فیلم‌هایی مانند ماتریکس یا ترمیناتور به این فکر فرو رفته‌اید که شاید در دهه‌های آینده هوش مصنوعی یا همان AI جای انسان‌ها را بگیرد و حکمرانی خود را آغاز کند ولی خارج از این فضای تخیلی آیا واقعاً از لحاظ علمی هم می‌تواند خطرناک باشد؟

دو کاربرد مهم هوش مصنوعی که ممکن است بعضی از افراد را به‌ اشتباه بکشاند یا حداقل کمی آن‌ها را گیج کند موضوع تجاری‌سازی و آینده هوش مصنوعی است. در مورد اول، تقریباً هر آنچه کامپیوترها می‌توانند انجام دهد که به نظر هوشمندانه و مفید است، مانند Siri، تصور می‌شود که از AI استفاده می‌کند. مورد دوم همان تخیلات در مورد ربات‌هایی است که قرار است در آینده ساخته شوند و بسیار باهوش خواهند بود. به این مورد AGI هم می‌گویند که به معنای هوش مصنوعی عمومی است.

چگونه قرار است به این مرحله برسیم؟

در دنیای مدرن امروز و با ظهور دانش یادگیری ماشین و حتی در مراحل بالاتر، یادگیری عمیق، به نظر می‌رسد ربات‌ها دیگر به برنامه‌نویسی نیاز نخواهند داشت و خودشان یادگیری را به‌روز رسانی می‌کنند. بگذارید برای روشن‌تر شدن این موضوع یک مثال بزنم. Alpha Zero یک برنامه‌ی بازی شطرنج است. این بازی توسط Deepmind که حالا بخشی از گوگل است ساخته شده است. در این بازی AI میلیون‌ها بار علیه خودش بازی کرده تا بتواند خودش را شکست دهد و تمام راه‌های شکست را یاد گرفته است و اکنون یکی از سخت‌ترین بازی‌های شطرنج به شمار می‌رود.

در همین اواخر پروژه‌ی جدید Deepmind به نام AlphaFold 2 به‌عنوان یک نقطه عطف مهم در زمینه ی بیولوژیکی برای فولدینگ پروتئین مورد استقبال قرار گرفت. AlphaFold 2 می‌تواند شکل و ساختار مولکول‌ها و پروتئین‌های بدن را پیش‌بینی کند که در حوزه‌ی ژنتیک و طراحی دارو بسیار موثر است.

AI

یادگیری ماشین

یادگیری ماشین یا Machine learning یعنی میزان انبوهی از داده‌ها را در اختیار هوش مصنوعی قرار دهید تا آموزش ببینند. اصولاً این داده‌ها به‌ صورت تصاویر و عکس‌ هستند و به ماشین کمک می‌کنند عکس مشابه بعدی را حدس بزند.

همچنین از سایر داده‌ها مثل ترابایت‌های گرفته شده از اینترنت برای ربات‌هایی استفاده می‌شود که semi-plausible essays را می‌سازند مانند GPT 2. اما باید در نظر داشته باشید که مجموعه‌داده‌ها لزوما منبعی از اطلاعات خالص نیستند، بلکه بیشتر شبیه رمزهایی هستند که ابتدا انسان‌ها باید آن‌ها را رمزگشایی کنند.

مثلاً در حوزه‌ی تشخیص سرطان از هوش مصنوعی استفاده می‌شود که برای این منظور ابتدا عکس‌های زیادی از بیماران جمع آوری می‌شود و پزشکان از روی عکس‌های پاتولوژی منطقه‌ای که تومور در آن وجود دارد را شناسایی می‌کنند. سپس این داده‌ها به ماشین داده می‌شود و بعد از یادگیری هزاران عکس، هوش مصنوعی می‌تواند عکس بعدی را تشخیص دهد و اعلام کند آیا این عکس شبیه به سایر عکس‌های دارای تومور بوده است یا خیر.

اخیراً فیس‌بوک برای اخبار خود از الگوریتمی استفاده می‌کند که از مخاطبینی که اخبار مربوط به افراد سیاه‌پوست را دنبال می‌کردند پرسیده بود آیا علاقه‌ای به دیدن اخبار پریمات‌ها نیز دارند یا خیر (به پستانداران نخستین پریمات می‌گویند). البته فیس‌بوک بعد از پخش شدن این اخبار که سیاه‌پوستان را با پریمات‌ها مقایسه کرده بود عذرخواهی کرد.

علاوه بر آن، در حال حاضر در ایالات مختلف آمریکا برای سنجیدن فضای سیاسی از هوش مصنوعی استفاده می‌شود. حتی می‌توان با AI مشخص کرد که کدام مباحث برای مردم مهم‌تر است و آیا کاندیدای بعدی را قبول می‌کنند یا خیر. در واقع با دادن داده‌ها و الگوریتمی که مردم روی آن‌ها حساس هستند به AI آموزش می‌دهند تا برای پیش‌بینی تعصبات سیاسی و تاریخی مردم بتوانند از آن استفاده کنند.

سیستم‌های رایانه‌ای (مانند خلبان‌های خودکار هواپیما) می‌توانند برای انسان‌ها یک موهبت با ارزش باشند. بنابراین، نمی‌توان گفت نقص‌های موجود در «AI» به خودی خود استدلالی برای اثبات وجود مشکل در اصل طراحی سیستم‌های هوشمند در زمینه‌هایی مانند تشخیص پزشکی هستند.

یک مشکل جامعه‌شناختی چالش‌برانگیزتری هم وجود دارد. قضاوت‌های الگوریتم‌محور برای تشخیص می‌تواند یک وسیله‌ای وسوسه‌انگیز برای رد کردن مسئولیت‌ها و هزینه‌ها باشد. در واقع دیگر کسی مسئول خطای هوش مصنوعی نیست. چه قاضی، چه پزشک یا کارآفرین فناوری.

آیا ربات‌ها توانای بر عهده گرفتن همه مشاغل را دارند؟ نگرانی بعدی در مورد هزینه‌ها و چرخش پول در اقتصاد است. آیا کارخانه‌ها و دفاتر همه‌ی کارکنان خود را اخراج می‌کنند تا از ربات‌های مجهز به هوش مصنوعی استفاده کنند؟

AI

یک سوال چالش‌برانگیز

در حال حاضر یک مشکل دیگر نیز وجود دارد. آیا روزی می‌رسد که هوش مصنوعی و ماشین‌ها به مرحله‌ای برسند که مانند هوش خدادادی و آگاهی انسان‌ها، تصمیم‌گیری کنند.

سایت موسسه آینده بشریت در دانشگاه آکسفورد، فیلسوف نیک بوستروم، معتقد است تلاش بشر برای ساخت هوش مصنوعی مثل بازی کودکان با بمب است. با این حال سایر دانشمندان معتقدند خطر هوش مصنوعی قابل کنترل است و هنوز به این مرحله از هوش خدادادی نرسیده است، پس بهتر است از این موهبت علم بهره ببریم. موضوع کنترل هوش مصنوعی یک نگرانی جهانی است.

ارزش‌های هوش مصنوعی

یکی دیگر از خطرات هوش مصنوعی بحث سیستم ارزش‌گذاری است. فیلسوفان زیادی در طی قرن‌های گذشته به دنبال ارزش‌گذاری انسان‌ها بوده‌اند ولی هیچ کدام ملاک یکسانی برای ارزش‌گذاری انسانیت ندارند، حالا سیستم AI چگونه می‌خواهد بین خوب و بد تمیز دهد.

با این حال، برخی افراد بسیار خوش‌بین هستند. Novacane، دانشمند و جیمز لاولاک نظریه‌پرداز گایا، استدلال می‌کنند که اگر بتوانیم ماشین‌های هوشمند را در قالب مرحله‌ی بعدی مسیر تکامل راه‌اندازی کنیم، انسان‌ها باید شاکر و خوشحال باشند، زیرا خودمان نمونه‌ی کامل‌تری از انسان را به زمین آورده‌ایم.

جینت وینترسون بسیار خوش‌بین است که حداقل هوش مصنوعی “با حرص و آز، زمین‌خواری، موقعیت‌طلبی و خشونتی که مشخصه انسان خردمند است” تفاوت خواهد داشت. همان‌طور که دانشمند کامپیوتر، درو مک درموت در مقاله‌ای می‌نویسد، شاید در نهایت ما از هوش مصنوعی کمتر بترسیم تا از حماقت طبیعی.

دیدگاهتان را بنویسید

موسسه موج حامی رسانه، به لطف قادرمتعال، افتخار همکاری با بسیاری از جوانان و متخصصان توانمند میهن عزیزمان ایران را داشته است، و همیشه با این افتخار به خود بالیده است و همواره این همکاری را بزرگترین سرمایه خود دانسته و می داند.

در تماس باشید

نشانی: تهران، خ فرجام شرقی، خ باغدارنیا، خ قهاری(178) غربی،به سمت اتوبان، دست راست پ51

2191309064

info@mojmedia.ir

mojmedia_com@

logo-samandehi