
آیا روزی فرا میرسد که هوش مصنوعی به انسانها غلبه کند یا هوش انسانها را به سخره بگیرد؟ احتمالاً بعد از دیدن فیلمهایی مانند ماتریکس یا ترمیناتور به این فکر فرو رفتهاید که شاید در دهههای آینده هوش مصنوعی یا همان AI جای انسانها را بگیرد و حکمرانی خود را آغاز کند ولی خارج از این فضای تخیلی آیا واقعاً از لحاظ علمی هم میتواند خطرناک باشد؟
دو کاربرد مهم هوش مصنوعی که ممکن است بعضی از افراد را به اشتباه بکشاند یا حداقل کمی آنها را گیج کند موضوع تجاریسازی و آینده هوش مصنوعی است. در مورد اول، تقریباً هر آنچه کامپیوترها میتوانند انجام دهد که به نظر هوشمندانه و مفید است، مانند Siri، تصور میشود که از AI استفاده میکند. مورد دوم همان تخیلات در مورد رباتهایی است که قرار است در آینده ساخته شوند و بسیار باهوش خواهند بود. به این مورد AGI هم میگویند که به معنای هوش مصنوعی عمومی است.
چگونه قرار است به این مرحله برسیم؟
در دنیای مدرن امروز و با ظهور دانش یادگیری ماشین و حتی در مراحل بالاتر، یادگیری عمیق، به نظر میرسد رباتها دیگر به برنامهنویسی نیاز نخواهند داشت و خودشان یادگیری را بهروز رسانی میکنند. بگذارید برای روشنتر شدن این موضوع یک مثال بزنم. Alpha Zero یک برنامهی بازی شطرنج است. این بازی توسط Deepmind که حالا بخشی از گوگل است ساخته شده است. در این بازی AI میلیونها بار علیه خودش بازی کرده تا بتواند خودش را شکست دهد و تمام راههای شکست را یاد گرفته است و اکنون یکی از سختترین بازیهای شطرنج به شمار میرود.
در همین اواخر پروژهی جدید Deepmind به نام AlphaFold 2 بهعنوان یک نقطه عطف مهم در زمینه ی بیولوژیکی برای فولدینگ پروتئین مورد استقبال قرار گرفت. AlphaFold 2 میتواند شکل و ساختار مولکولها و پروتئینهای بدن را پیشبینی کند که در حوزهی ژنتیک و طراحی دارو بسیار موثر است.

AI
یادگیری ماشین
یادگیری ماشین یا Machine learning یعنی میزان انبوهی از دادهها را در اختیار هوش مصنوعی قرار دهید تا آموزش ببینند. اصولاً این دادهها به صورت تصاویر و عکس هستند و به ماشین کمک میکنند عکس مشابه بعدی را حدس بزند.
همچنین از سایر دادهها مثل ترابایتهای گرفته شده از اینترنت برای رباتهایی استفاده میشود که semi-plausible essays را میسازند مانند GPT 2. اما باید در نظر داشته باشید که مجموعهدادهها لزوما منبعی از اطلاعات خالص نیستند، بلکه بیشتر شبیه رمزهایی هستند که ابتدا انسانها باید آنها را رمزگشایی کنند.
مثلاً در حوزهی تشخیص سرطان از هوش مصنوعی استفاده میشود که برای این منظور ابتدا عکسهای زیادی از بیماران جمع آوری میشود و پزشکان از روی عکسهای پاتولوژی منطقهای که تومور در آن وجود دارد را شناسایی میکنند. سپس این دادهها به ماشین داده میشود و بعد از یادگیری هزاران عکس، هوش مصنوعی میتواند عکس بعدی را تشخیص دهد و اعلام کند آیا این عکس شبیه به سایر عکسهای دارای تومور بوده است یا خیر.
اخیراً فیسبوک برای اخبار خود از الگوریتمی استفاده میکند که از مخاطبینی که اخبار مربوط به افراد سیاهپوست را دنبال میکردند پرسیده بود آیا علاقهای به دیدن اخبار پریماتها نیز دارند یا خیر (به پستانداران نخستین پریمات میگویند). البته فیسبوک بعد از پخش شدن این اخبار که سیاهپوستان را با پریماتها مقایسه کرده بود عذرخواهی کرد.
علاوه بر آن، در حال حاضر در ایالات مختلف آمریکا برای سنجیدن فضای سیاسی از هوش مصنوعی استفاده میشود. حتی میتوان با AI مشخص کرد که کدام مباحث برای مردم مهمتر است و آیا کاندیدای بعدی را قبول میکنند یا خیر. در واقع با دادن دادهها و الگوریتمی که مردم روی آنها حساس هستند به AI آموزش میدهند تا برای پیشبینی تعصبات سیاسی و تاریخی مردم بتوانند از آن استفاده کنند.
سیستمهای رایانهای (مانند خلبانهای خودکار هواپیما) میتوانند برای انسانها یک موهبت با ارزش باشند. بنابراین، نمیتوان گفت نقصهای موجود در «AI» به خودی خود استدلالی برای اثبات وجود مشکل در اصل طراحی سیستمهای هوشمند در زمینههایی مانند تشخیص پزشکی هستند.
یک مشکل جامعهشناختی چالشبرانگیزتری هم وجود دارد. قضاوتهای الگوریتممحور برای تشخیص میتواند یک وسیلهای وسوسهانگیز برای رد کردن مسئولیتها و هزینهها باشد. در واقع دیگر کسی مسئول خطای هوش مصنوعی نیست. چه قاضی، چه پزشک یا کارآفرین فناوری.
آیا رباتها توانای بر عهده گرفتن همه مشاغل را دارند؟ نگرانی بعدی در مورد هزینهها و چرخش پول در اقتصاد است. آیا کارخانهها و دفاتر همهی کارکنان خود را اخراج میکنند تا از رباتهای مجهز به هوش مصنوعی استفاده کنند؟

AI
یک سوال چالشبرانگیز
در حال حاضر یک مشکل دیگر نیز وجود دارد. آیا روزی میرسد که هوش مصنوعی و ماشینها به مرحلهای برسند که مانند هوش خدادادی و آگاهی انسانها، تصمیمگیری کنند.
سایت موسسه آینده بشریت در دانشگاه آکسفورد، فیلسوف نیک بوستروم، معتقد است تلاش بشر برای ساخت هوش مصنوعی مثل بازی کودکان با بمب است. با این حال سایر دانشمندان معتقدند خطر هوش مصنوعی قابل کنترل است و هنوز به این مرحله از هوش خدادادی نرسیده است، پس بهتر است از این موهبت علم بهره ببریم. موضوع کنترل هوش مصنوعی یک نگرانی جهانی است.
ارزشهای هوش مصنوعی
یکی دیگر از خطرات هوش مصنوعی بحث سیستم ارزشگذاری است. فیلسوفان زیادی در طی قرنهای گذشته به دنبال ارزشگذاری انسانها بودهاند ولی هیچ کدام ملاک یکسانی برای ارزشگذاری انسانیت ندارند، حالا سیستم AI چگونه میخواهد بین خوب و بد تمیز دهد.
با این حال، برخی افراد بسیار خوشبین هستند. Novacane، دانشمند و جیمز لاولاک نظریهپرداز گایا، استدلال میکنند که اگر بتوانیم ماشینهای هوشمند را در قالب مرحلهی بعدی مسیر تکامل راهاندازی کنیم، انسانها باید شاکر و خوشحال باشند، زیرا خودمان نمونهی کاملتری از انسان را به زمین آوردهایم.
جینت وینترسون بسیار خوشبین است که حداقل هوش مصنوعی “با حرص و آز، زمینخواری، موقعیتطلبی و خشونتی که مشخصه انسان خردمند است” تفاوت خواهد داشت. همانطور که دانشمند کامپیوتر، درو مک درموت در مقالهای مینویسد، شاید در نهایت ما از هوش مصنوعی کمتر بترسیم تا از حماقت طبیعی.
