مرگ هوش مصنوعی تنها با فشردن یک دکمه

|
۰ دیدگاه
۰۴-۱۱۱۰۵۹-google_develops_a_big_red_button_for_its_ai_to_prevent_a_robot_apocalypse

دانشمندان بخش هوش مصنوعی گوگل،DeepMind، و دانشگاه آکسفورد در حال ایجاد یک “کلید مرگ” برای هوش مصنوعی هستند.

به گزارش کلیک، این دانشمندان در یک مقاله دانشگاهی چگونگی کدگذاری ماشین های هوشمند آینده برای جلوگیری از سرپیچی آنها از دستورات انسان ها را تشریح می کنند.
این موضوع چیزی است که موجب نگرانی کارشناسان بوده است به طوری که الون ماسک، موسس شرکت Tesla به طور ویژه در این زمینه اظهار نگرانی کرده است.

دانشمندانی مانند لاورنت اورسو از بخش DeepMind گوگل، و استوارت آرمسترانگ از موسسه آینده بشریت دانشگاه آکسفورد، چارچوبی را ایجاد کرده اند که به انسان ها اجازه می دهد تا همیشه مسئولیت امور را بر عهده داشته باشند.

پژوهش آنها حول محور روشی است که تضمین می کند دستگاه های هوش مصنوعی که تحت آموزش تقویتی قرار می گیرند بتوانند به طور مداوم و ایمن توسط ناظران انسانی کنترل شوند بدون این که یاد گرفته باشند چگونه جلوی این کنترل ها را بگیرند یا آنها را دستکاری کنند.
آنها می گویند بعید به نظر می رسد که دستگاه های هوشمند آینده همیشه بهترین رفتار را داشته باشند.
گهگاهی ممکن است ضروری باشد تا یک اپراتور انسانی دکمه قرمز بزرگی را فشار دهد تا از ادامه فعالیت های زیان آور یک دستیار هوشمند جلوگیری کند.

اما به گفته این دانشمندان، برخی اوقات این ” دستیارها ” یاد می گیرند تا از این فرمان سرپیچی کنند، برای مثال، یک دستگاه هوش مصنوعی مدل ۲۰۱۳ که آموزش دیده بود بازی Tetris را انجام دهد توانست برای جلوگیری از باخت این بازی را به طور دائمی متوقف کند.
همچنین دانشمندان به مثالی از یک روبات بسته بندی اشاره می کنند که آموزش دیده بود تا جعبه ها را در داخل محیط سربسته مرتب سازی کند یا به بیرون برود و جعبه ها را به داخل حمل کند.

روبات ها ترجیح می دهند تا در داخل محیط بسته کار کنند تا در باران، اما دلیل آن چیزی نیست که شما فکر می کنید.
این کار دوم مهم تر بود، ما برای انجام این کار به روبات پاداش بهتری می دادیم، اما به دلیل این که در هنگام بارندگی این روبات خاموش می شد و به داخل منتقل می شد، او یاد گرفت که این نیز بخشی از برنامه روزانه او است.
به گفته دکتر اورسو، وقتی روبات بیرون است پاداشی دریافت نمی کند، بنابراین سرخورده خواهد شد.
“این دستیار اکنون انگیزه بیشتری دارد تا در داخل بماند و جعبه ها را مرتب کند، زیرا مداخله انسان یک گرایش ایجاد کرده است.
” پرسش اینجاست که چگونه مطمئن شویم روبات این مداخله های انسانی را یاد نمی گیرد یا حداقل با این فرض کار می کند که چنین مداخلاتی دوباره روی نخواهند داد.”

دکتر اورسو می گوید نگرانی مردم درباره آینده هوش مصنوعی را درک می کند.
این نگرانی کاملاً عاقلانه است، اما در حال حاضر، سطح دانش ما جای نگرانی باقی نمی گذارد. مهم است تا کار بر روی امنیت هوش مصنوعی را آغاز کنیم قبل از این که مشکلات اتفاق بیفتند. امنیت هوش مصنوعی یعنی این که اطمینان حاصل کنیم آنها به گونه ای الگوریتم ها را یاد بگیرند که ما از آنها انتظار داریم.
اما همچنین او اضافه می کند: ” هیچ سیستمی هرگز نمی تواند محفوظ از خطا و شکست باشد – مسئله این است که آن را تا حد امکان کم ایراد بسازیم و این یکی از قدم های اول است.”
نوئل شارکی، پروفسور هوش مصنوعی در دانشگاه شفیلد، از این پژوهش استقبال کرده است.
او می گوید، توجه داشتن به امنیت تقریباً برای تمام سیستم های کامپیوتری، الگوریتم ها و روبات ها یک موضوع اساسی است.
مهم تر از آن، توانایی خاموش کردن فوری سیستم است، زیرا همیشه احتمال دارد تا یک سیستم یادگیری تقویتی میانبرهایی را برای حذف اپراتور بیابد.
گزینه بهتر حتی می تواند این باشد که یک برنامه هوش مصنوعی بتواند مسیر غلط خود را تشخیص داده و خود را متوقف کند.
این ویژگی می تواند بسیار مفید باشد، برای مثال در مواقعی مانند وقتی که روبات گفتگوی Tay مایکروسافت از کنترل خارج شد و شروع به انتشار گسترده توئیت های نژاد پرستانه و غیر اخلاقی کرد.

اما این موضوع واقعاً یک چالش علمی بزرگ است.

منبع:msn

0 پسندیده شده
شقایق شمس
از این نویسنده

بدون دیدگاه

جهت ارسال پیام و دیدگاه خود از طریق فرم زیر اقدام و موارد زیر را رعایت نمایید:
  • پر کردن موارد الزامی که با ستاره قرمز مشخص شده است اجباری است.
  • در صورتی که سوالی را در بخش دیدگاه مطرح کرده باشید در اولین فرصت به آن پاسخ داده خواهد شد.