شرکت OpenAI تیم جدیدی برای ارزیابی و کاهش خطرات هوش مصنوعی تشکیل میدهد
این تیم خطراتی از جمله توانایی هوش مصنوعی در فریب انسانها و همچنین تهدیدات امنیت سایبری را بررسی میکند.
OpenAI، سازنده ChatGPT در حال تشکیل یک تیم جدید برای کاهش «خطرات فاجعه آمیز» مرتبط با هوش مصنوعی است. به گفته این شرکت، تیم جدید آمادگی «ردیابی، ارزیابی، پیشبینی و محافظت» مشکلات ناشیشده از هوشمصنوعی را خواهد داشت.
همانطور که OpenAI در پست خود توضیح میدهد، این تیم همچنین برای کاهش «تهدیدات شیمیایی، بیولوژیکی و رادیولوژیکی» و همچنین «تکثیر خودکار» یا عمل تکراری یک هوش مصنوعی کار خواهد کرد. خطرات دیگی که رسیدگی به آنها جزء مسئولیتهای این تیم محسوب میشود شامل توانایی هوش مصنوعی در فریب انسانها و همچنین تهدیدات امنیت سایبری میشود.
OpenAI در این پست مینویسد:
«معتقدیم که مدلهای هوش مصنوعی پیشتاز که قابلیت آنها از پیشرفتهترین مدلهای موجود فراتر خواهد رفت، این پتانسیل را دارند که برای تمام بشریت مفید باشند. اما آنها همچنین خطرات شدیدتری را بههمراه دارند.»
«الکساندر مادری» که اکنون از سمت خود بهعنوان مدیر مرکز یادگیری ماشینی MIT کنارهگیری کرده است، این تیم را مدیریت میکند. OpenAI همچنین اشاره میکند که این تیم یک «سیاست توسعه مبتنی بر ریسک» را توسعه خواهد داد که کارهای شرکت برای ارزیابی و نظارت بر مدلهای هوش مصنوعی را تشریح میکند.
«سم آلتمن»، مدیرعامل OpenAI تاکنون بارها درباره احتمال وقوع اتفاقات خطرناک از طریق هوشمصنوعی هشدار داده است. در ماه مه، او بههمراه محققان دیگری یک بیانیه 22 کلمهای صادر کردند که میگوید «خطر انقراض توسط هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای به اولویت جهانی تبدیل شود». او همچنین در جریان مصاحبهای گفته بود که دولتها باید با هوش مصنوعی به اندازه سلاحهای هستهای «جدی» رفتار کنند.
منبع: دیجیاتو