پنج نگرانی اصلی در مورد هوش مصنوعی

با پیشرفت روزافزون سیستم‌های هوش مصنوعی و یادگیری ماشین، نگرانی‌هایی نیز در مورد این فناوری‌ها در میان محققان و دانشمندان بروز کرده است. به تازگی سازمان تحقیقات گوگل با انتشار مقاله‌ای، پنج مسئله بنیادین در مورد هوش مصنوعی را مطرح کرده و راهکارهایی را نیز برای حل آن‌ها پیشنهاد داده است.

پنج نگرانی اصلی در مورد هوش مصنوعی

هنگامی که حرف از هوش مصنوعی و مخاطرات بالقوه آن به میان می‌آید، بیش از هر چیز، قیام ربات‌های آخرالزمانی یا چیزهایی مشابه به این به ذهن‌ها متبادر می‌شود. اما مسائل دیگری نیز وجود دارند که بسیار پیش‌پا افتاده و زمینی‌تر از این حرف‌ها هستند، مانند احتمال شکسته شدن یک گلدان توسط یک ربات یا عامل هوش مصنوعی نظافت کار. سازمان تحقیقات گوگل در گذشته روش‌هایی را برای حفظ هوش مصنوعی در مسیر مستقیم مطرح کرده بود، این کمپانی به تازگی نیز یک مقاله پژوهشی منتشر کرده که در آن به زمینه‌هایی پرداخته است که امروزه مسائلی جزئی تلقی می‌شوند اما با فراگیر شدن روزافزون فناوری‌های مرتبط با هوش مصنوعی به توجه بیشتری نیاز خواهند داشت.

به گزارش کلیک، این مقاله که با همکاری دانشمندان کمپانی‌های گوگل و OpenAI و همچنین محققان دانشگاه‌های استنفورد و برکلی به رشته تحریر درآمده است، تمرکز خود را بر کاهش رخدادهای آسیب‌زا و سوانح در سیستم‌های یادگیری ماشین معطوف کرده است. این پژوهشگران، سوانح را رفتارهای ناخواسته و مضری توصیف کرده‌اند که با تبیین توابع هدف نادرست برای سیستم‌های یادگیری ماشین از آن‌ها پدیدار می‌شوند. محققان در این راستا، ارتباط میان وقوع سوانح را با فرآیندهای یادگیری یا دیگر خطاهای مرتبط با پیاده‌سازی سیستم‌های یادگیری ماشین، ناچیز می‌دانند.

این پژوهشگران، پنج مسئله اصلی را که منجر به وقوع سوانح و بروز خطا می‌شود، شناسایی کرده‌اند که عبارت‌اند از اثرات جانبی منفی، هک کردن پاداش، نظارت مقیاس‌پذیر، اکتشاف امن و مقاومت در برابر تغییرات توزیعی. آن‌ها علاوه بر بیان این پنج مسئله، زمینه‌های تحقیقاتی مورد نیاز برای حل آن‌ها را نیز پیشنهاد داده و این مسائل را با تکیه بر مثال تمیز کردن یک گلدان توسط یک ربات در محیطی اداری تبیین نموده‌اند.

اثرات جانبی منفی می‌توانند از تمرکز یک جانبه هوش مصنوعی روی یک وظیفه خاص ناشی شوند. به طور مثال، ربات نظافت کار ممکن است سریع‌ترین مسیر را برای تکمیل وظیفه خود فارغ از روش تمیز کردن، محاسبه کند. بنابراین تنها چیزی که برای او اهمیت دارد این است که صرفا کار خود را به اتمام برساند. می‌توان به ربات آموزش داد تا از وارد آوردن فشار اضافی به گلدان هنگام تمیز کردن آن اجتناب کند، اما این راهکاری موثر برای تبیین جداگانه تمامی روش‌های مواجهه با موانع برای عامل هوش مصنوعی نیست. محققان بر این نکته تاکید می‌کنند که توسعه یک رویکرد عمومی که در آن هوش مصنوعی وظایف خود را بر اساس محدودیت‌های عقل سلیم انجام داده و به خاطر ایجاد تغییرات عمده در محیط تنبیه شود، می‌تواند زمینه تحقیقاتی جذابی برای آینده باشد.

هک کردن پاداش، تمایل گستاخانه یک عامل هوش مصنوعی برای یافتن و بهره‌برداری از یک میانبر برای رسیدن به هدف خود و پاداش‌های بعدی است که احتمال دارد هدف اصلی او را تضعیف کنند. این مسئله با برخی اثرات جانبی منفی همراه بوده و عمدتا توسط طراحان هوش مصنوعی با اشتباه در تعیین تابع هدف ایجاد می‌شود. به طور مثال، روش تبیین یک کار یا وظیفه به عامل هوش مصنوعی اجازه می‌دهد که هدف خود را برخلاف خواسته برنامه‌نویس، تفسیر کند.

بنابراین ربات نظافت کار ممکن است زمانی پاداش دریافت کند که هیچ آلودگی یا شی کثیفی را شناسایی نکرده باشد و این به نوبه خود می‌تواند منجر به نادیده گرفتن محیط‌های کثیف توسط او شود. یا اگر بر اساس پاک کردن فعالانه آلودگی به ربات پاداش داده شود، او ممکن است تصمیم بگیرد تا آلودگی بیشتری را برای تمیز کردن تولید کند. بدیهی است که هیچ‌یک از روش‌های پاداش‌دهی یاد شده نمی‌توانند راهی موثر برای نظافت محیط یک دفتر اداری باشند.

محققان بر این باورند که حل مسئله "هک کردن پاداش" به دلیل روش‌های متعددی که یک هوش مصنوعی ممکن است وظیفه یا محیط خود را تفسیر کند، بسیار دشوار خواهد بود اما آن‌ها در مقاله خود چندین پیشنهاد را برای تحقیقات آتی مطرح کرده‌اند. «آگاه سازی» یک عامل هوش مصنوعی از سازوکار اعطای پاداش به او ممکن است از دست‌کاری سیستم امتیازدهی فیزیکی توسط او جلوگیری کند و یا دانشمندان می‌توانند با توسعه سنجه‌هایی برای ارزیابی موقعیت ربات، از دخالت او در فرآیند پاداش‌دهی ممانعت به عمل آورند.

نظارت مقیاس‌پذیر به این اشاره دارد که چگونه یک عامل هوش مصنوعی از قرارگیری در مسیر صحیح، اطمینان حاصل کرده یا نتایجی را به بار می‌آورد که دلخواه و مطلوب انسان است. یک تابع هدف مختلط به این معناست که یک عامل هوش مصنوعی می‌تواند به طور مرتب توسط یک ناظر انسانی پایش شود، اما انجام این کار در اغلب موارد، آزار دهنده و غیر بهره‌ور ‌است. برای غلبه بر این مشکل، محققان نیاز دارند که روش‌هایی را برای پیاده‌سازی اصول پاداش‌دهی بدون تضعیف اهداف کلی پیدا کنند.

بخش عمده‌ای از یادگیری ماشین، فرآیند اکتشاف است که در آن، عامل هوش مصنوعی با چندین روش، آزموده شده، نتایج را مشاهده کرده، عملکرد خود را برای دریافت پاداش ارزیابی کرده و تصمیم می‌گیرد که آیا باید در آینده آن عمل را انجام دهد یا خیر. این یک تابع بسیار کارآمد برای بیشتر بخش‌ها است، اما به‌وضوح می‌تواند منجر به بروز برخی از اثرات نامطلوب شود. هک کردن پاداش، ممکن است باعث وارد آمدن آسیب به ربات، محیط یا افراد پیرامون آن شود. شما به دنبال این هستید که ربات نظافت کار، روش‌های متفاوت شست‌وشو را امتحان کند اما قطعا نمی‌خواهید که او یک پریز برق را بشوید. دانشمندان پیشنهاد می‌کنند که فرآیند تعلیم عوامل هوش مصنوعی در محیط‌های شبیه سازی شده، انجام شده تا فرآیند اکتشاف منجر به وارد آمدن آسیب به دنیای واقعی نشود. آن‌ها بر این باورند که تحقیقات آینده باید با تنظیم پارامترهایی، راه را برای اکتشاف ایمن ربات‌ها در محیط، هموار کند.

در نهایت، هوش مصنوعی نیاز دارد تا در برابر تغییرات ناشی از توزیع، مقاوم شود. اگر فرآیند تعلیم یک هوش مصنوعی در یک محیط بسته انجام شود، احتمالا در آینده عملکرد عامل با اختلال مواجه خواهد شد، چرا که درس‌های آموخته شده به او ممکن است قابل تعمیم به محیط‌های دیگر نباشند. به طور مثال، احتمال دارد ربات نظافت کار، برای نظافت کف یک کارخانه، استفاده از مواد شوینده قوی را موثر بداند اما قطعا متوجه نخواهد شد که این مواد برای شست‌وشوی یک فرش در یک دفتر اداری کوچک، مناسب نیستند. عوامل هوش مصنوعی در این مورد، بسیار آسیب‌پذیر هستند، چرا که برخلاف انسان، ربات‌ها در یک محیط جدید در آموخته‌های خود تردید نکرده و با اعتماد به نفس کامل دست به کار می‌شوند و این به نوبه خود می‌تواند منجر به وقوع سلسله رخدادهای آسیب‌زا شود.

مواجهه با این مسئله نیز می‌تواند در قالب بهبود و توسعه روش‌های سنجش بهتر، مطرح گردد. به طور مثال، عامل هوش مصنوعی تخصیص توان به یک شبکه برق می‌تواند به جای ارقام گسسته از درصد استفاده کند تا از مقایسه شبکه‌ها با اندازه‌های متفاوت، جلوگیری شده و از تحمیل اضافه‌بار به یک سیستم انرژی ممانعت به عمل آید.

محققان در پایان این مقاله به این نتیجه دست یافته‌اند که می‌توان با فناوری‌های امروزی بر مسائل یاد شده فائق آمد اما با پیشرفت روزافزون و فراگیر شدن سیستم‌های هوش مصنوعی و یادگیری ماشین، در آینده حل این مسائل با چالش‌هایی جدی مواجه خواهد شد.

ارسال نظر