پنج نگرانی اصلی در مورد هوش مصنوعی
با پیشرفت روزافزون سیستمهای هوش مصنوعی و یادگیری ماشین، نگرانیهایی نیز در مورد این فناوریها در میان محققان و دانشمندان بروز کرده است. به تازگی سازمان تحقیقات گوگل با انتشار مقالهای، پنج مسئله بنیادین در مورد هوش مصنوعی را مطرح کرده و راهکارهایی را نیز برای حل آنها پیشنهاد داده است.
هنگامی که حرف از هوش مصنوعی و مخاطرات بالقوه آن به میان میآید، بیش از هر چیز، قیام رباتهای آخرالزمانی یا چیزهایی مشابه به این به ذهنها متبادر میشود. اما مسائل دیگری نیز وجود دارند که بسیار پیشپا افتاده و زمینیتر از این حرفها هستند، مانند احتمال شکسته شدن یک گلدان توسط یک ربات یا عامل هوش مصنوعی نظافت کار. سازمان تحقیقات گوگل در گذشته روشهایی را برای حفظ هوش مصنوعی در مسیر مستقیم مطرح کرده بود، این کمپانی به تازگی نیز یک مقاله پژوهشی منتشر کرده که در آن به زمینههایی پرداخته است که امروزه مسائلی جزئی تلقی میشوند اما با فراگیر شدن روزافزون فناوریهای مرتبط با هوش مصنوعی به توجه بیشتری نیاز خواهند داشت.
به گزارش کلیک، این مقاله که با همکاری دانشمندان کمپانیهای گوگل و OpenAI و همچنین محققان دانشگاههای استنفورد و برکلی به رشته تحریر درآمده است، تمرکز خود را بر کاهش رخدادهای آسیبزا و سوانح در سیستمهای یادگیری ماشین معطوف کرده است. این پژوهشگران، سوانح را رفتارهای ناخواسته و مضری توصیف کردهاند که با تبیین توابع هدف نادرست برای سیستمهای یادگیری ماشین از آنها پدیدار میشوند. محققان در این راستا، ارتباط میان وقوع سوانح را با فرآیندهای یادگیری یا دیگر خطاهای مرتبط با پیادهسازی سیستمهای یادگیری ماشین، ناچیز میدانند.
این پژوهشگران، پنج مسئله اصلی را که منجر به وقوع سوانح و بروز خطا میشود، شناسایی کردهاند که عبارتاند از اثرات جانبی منفی، هک کردن پاداش، نظارت مقیاسپذیر، اکتشاف امن و مقاومت در برابر تغییرات توزیعی. آنها علاوه بر بیان این پنج مسئله، زمینههای تحقیقاتی مورد نیاز برای حل آنها را نیز پیشنهاد داده و این مسائل را با تکیه بر مثال تمیز کردن یک گلدان توسط یک ربات در محیطی اداری تبیین نمودهاند.
اثرات جانبی منفی میتوانند از تمرکز یک جانبه هوش مصنوعی روی یک وظیفه خاص ناشی شوند. به طور مثال، ربات نظافت کار ممکن است سریعترین مسیر را برای تکمیل وظیفه خود فارغ از روش تمیز کردن، محاسبه کند. بنابراین تنها چیزی که برای او اهمیت دارد این است که صرفا کار خود را به اتمام برساند. میتوان به ربات آموزش داد تا از وارد آوردن فشار اضافی به گلدان هنگام تمیز کردن آن اجتناب کند، اما این راهکاری موثر برای تبیین جداگانه تمامی روشهای مواجهه با موانع برای عامل هوش مصنوعی نیست. محققان بر این نکته تاکید میکنند که توسعه یک رویکرد عمومی که در آن هوش مصنوعی وظایف خود را بر اساس محدودیتهای عقل سلیم انجام داده و به خاطر ایجاد تغییرات عمده در محیط تنبیه شود، میتواند زمینه تحقیقاتی جذابی برای آینده باشد.
هک کردن پاداش، تمایل گستاخانه یک عامل هوش مصنوعی برای یافتن و بهرهبرداری از یک میانبر برای رسیدن به هدف خود و پاداشهای بعدی است که احتمال دارد هدف اصلی او را تضعیف کنند. این مسئله با برخی اثرات جانبی منفی همراه بوده و عمدتا توسط طراحان هوش مصنوعی با اشتباه در تعیین تابع هدف ایجاد میشود. به طور مثال، روش تبیین یک کار یا وظیفه به عامل هوش مصنوعی اجازه میدهد که هدف خود را برخلاف خواسته برنامهنویس، تفسیر کند.
بنابراین ربات نظافت کار ممکن است زمانی پاداش دریافت کند که هیچ آلودگی یا شی کثیفی را شناسایی نکرده باشد و این به نوبه خود میتواند منجر به نادیده گرفتن محیطهای کثیف توسط او شود. یا اگر بر اساس پاک کردن فعالانه آلودگی به ربات پاداش داده شود، او ممکن است تصمیم بگیرد تا آلودگی بیشتری را برای تمیز کردن تولید کند. بدیهی است که هیچیک از روشهای پاداشدهی یاد شده نمیتوانند راهی موثر برای نظافت محیط یک دفتر اداری باشند.
محققان بر این باورند که حل مسئله "هک کردن پاداش" به دلیل روشهای متعددی که یک هوش مصنوعی ممکن است وظیفه یا محیط خود را تفسیر کند، بسیار دشوار خواهد بود اما آنها در مقاله خود چندین پیشنهاد را برای تحقیقات آتی مطرح کردهاند. «آگاه سازی» یک عامل هوش مصنوعی از سازوکار اعطای پاداش به او ممکن است از دستکاری سیستم امتیازدهی فیزیکی توسط او جلوگیری کند و یا دانشمندان میتوانند با توسعه سنجههایی برای ارزیابی موقعیت ربات، از دخالت او در فرآیند پاداشدهی ممانعت به عمل آورند.
نظارت مقیاسپذیر به این اشاره دارد که چگونه یک عامل هوش مصنوعی از قرارگیری در مسیر صحیح، اطمینان حاصل کرده یا نتایجی را به بار میآورد که دلخواه و مطلوب انسان است. یک تابع هدف مختلط به این معناست که یک عامل هوش مصنوعی میتواند به طور مرتب توسط یک ناظر انسانی پایش شود، اما انجام این کار در اغلب موارد، آزار دهنده و غیر بهرهور است. برای غلبه بر این مشکل، محققان نیاز دارند که روشهایی را برای پیادهسازی اصول پاداشدهی بدون تضعیف اهداف کلی پیدا کنند.
بخش عمدهای از یادگیری ماشین، فرآیند اکتشاف است که در آن، عامل هوش مصنوعی با چندین روش، آزموده شده، نتایج را مشاهده کرده، عملکرد خود را برای دریافت پاداش ارزیابی کرده و تصمیم میگیرد که آیا باید در آینده آن عمل را انجام دهد یا خیر. این یک تابع بسیار کارآمد برای بیشتر بخشها است، اما بهوضوح میتواند منجر به بروز برخی از اثرات نامطلوب شود. هک کردن پاداش، ممکن است باعث وارد آمدن آسیب به ربات، محیط یا افراد پیرامون آن شود. شما به دنبال این هستید که ربات نظافت کار، روشهای متفاوت شستوشو را امتحان کند اما قطعا نمیخواهید که او یک پریز برق را بشوید. دانشمندان پیشنهاد میکنند که فرآیند تعلیم عوامل هوش مصنوعی در محیطهای شبیه سازی شده، انجام شده تا فرآیند اکتشاف منجر به وارد آمدن آسیب به دنیای واقعی نشود. آنها بر این باورند که تحقیقات آینده باید با تنظیم پارامترهایی، راه را برای اکتشاف ایمن رباتها در محیط، هموار کند.
در نهایت، هوش مصنوعی نیاز دارد تا در برابر تغییرات ناشی از توزیع، مقاوم شود. اگر فرآیند تعلیم یک هوش مصنوعی در یک محیط بسته انجام شود، احتمالا در آینده عملکرد عامل با اختلال مواجه خواهد شد، چرا که درسهای آموخته شده به او ممکن است قابل تعمیم به محیطهای دیگر نباشند. به طور مثال، احتمال دارد ربات نظافت کار، برای نظافت کف یک کارخانه، استفاده از مواد شوینده قوی را موثر بداند اما قطعا متوجه نخواهد شد که این مواد برای شستوشوی یک فرش در یک دفتر اداری کوچک، مناسب نیستند. عوامل هوش مصنوعی در این مورد، بسیار آسیبپذیر هستند، چرا که برخلاف انسان، رباتها در یک محیط جدید در آموختههای خود تردید نکرده و با اعتماد به نفس کامل دست به کار میشوند و این به نوبه خود میتواند منجر به وقوع سلسله رخدادهای آسیبزا شود.
مواجهه با این مسئله نیز میتواند در قالب بهبود و توسعه روشهای سنجش بهتر، مطرح گردد. به طور مثال، عامل هوش مصنوعی تخصیص توان به یک شبکه برق میتواند به جای ارقام گسسته از درصد استفاده کند تا از مقایسه شبکهها با اندازههای متفاوت، جلوگیری شده و از تحمیل اضافهبار به یک سیستم انرژی ممانعت به عمل آید.
محققان در پایان این مقاله به این نتیجه دست یافتهاند که میتوان با فناوریهای امروزی بر مسائل یاد شده فائق آمد اما با پیشرفت روزافزون و فراگیر شدن سیستمهای هوش مصنوعی و یادگیری ماشین، در آینده حل این مسائل با چالشهایی جدی مواجه خواهد شد.