کاخ سفید برای هوش مصنوعی منشور حقوقی منتشر کرد

عده‌ای از افراد هوش مصنوعی را تهدیدی برای آینده تکنولوژی و به‌طور کلی داده‌های افراد جامعه می‌دانند، حالا کاخ سفید نیز برای توسعه‌دهندگان سیستم‌های هوش مصنوعی منشور حقوقی تدارک دیده است.

کاخ سفید برای هوش مصنوعی منشور حقوقی منتشر کرد

یکی از چالش‌های بزرگی که جهان امروز با آن روبه‌روست، ظهور هوش مصنوعی است که ممکن است حقوق مردم را به خطر بیندازد. دسترسی به داده‌ها و اطلاعات کاربران از طریق به‌کارگیری هوش مصنوعی یکی از دغدغه‌های بزرگی است که در فضای تکنولوژی جهان مطرح است. به همین دلیل آمریکا منشور استفاده از هوش مصنوعی را که 5 اصل دارد، منتشر کرده است. در این منشور، بر داده‌های خصوصی کاربران، چگونگی استفاده از این داده‌ها و حقوق کاربران در مورد داده‌های خصوصی‌شان تاکید شده است.

در آمریکا و سراسر جهان، سیستم‌های هوش مصنوعی که قرار است به مراقبت از بیمار کمک کنند، ناامن، ناکارآمد یا مغرضانه شناخته شده‌اند. الگوریتم‌هایی که در تصمیم‌گیری‌های استخدام و اعتبار استفاده می‌شوند برای بازتاب و بازتولید نابرابری‌های موجود، حاوی تعصب و تبعیض هستند. جمع‌آوری داده‌های رسانه‌های اجتماعی برای تهدید افراد، تضعیف حریم خصوصی آنها یا ردیابی فراگیر فعالیت‌های آن‌ها اغلب بدون اطلاع یا رضایت آن‌ها انجام می‌شود.

با این حال سیستم‌های خودکار مزایای فوق‌العاده‌ای را به ارمغان آورده‌اند؛ از فناوری‌هایی که به کشاورزان کمک می‌کند تا مواد غذایی را با کارایی بیشتری رشد دهند و رایانه‌هایی که مسیرهای طوفان را پیش‌بینی می‌کنند گرفته تا الگوریتم‌هایی که می‌توانند بیماری‌ها را در بیماران شناسایی کنند. این ابزارها در حال حاضر تصمیمات مهمی را در زمینه‌های مختلف هدایت کرده‌اند و داده‌ها در صنایع جهانی انقلابی بر پا کرده‌اند.

با وجود این اما این پیشرفت‌های مهم نباید به قیمت تهدید حقوق مدنی یا ارزش‌های انسانی باشد. بنابراین دفتر سیاست علم و فناوری کاخ سفید پنج اصل را شناسایی کرده است که باید طراحی، استفاده و استقرار سیستم‌های خودکار را برای محافظت از مردم آمریکا در عصر هوش مصنوعی راهنمایی کنند. طرح اولیه منشور حقوق هوش مصنوعی راهنمای جامعه‌ای است که از همه مردم در برابر این تهدیدات محافظت می‌کند و از فناوری‌ها به روش‌هایی استفاده می‌کند که بالاترین ارزش‌ها را به همراه دارند.

سیستم‌های هوش مصنوعی باید ایمن و کارآمد باشند

کاربران باید در برابر سیستم‌های ناامن یا ناکارآمد محافظت شوند. سیستم‌های خودکار باید با مشورت جوامع مختلف، ذی‌نفعان و کارشناسان حوزه‌های مختلف، توسعه داده شوند تا نگرانی‌ها، ریسک‌ها و اثرات بالقوه سیستم شناسایی شوند.

سیستم‌ها باید تحت آزمایش‌های قبل از استقرار و شناسایی و کاهش خطرات و نظارت مستمری قرار گیرند که نشان دهند براساس استفاده مورد نظرشان، ایمن و مؤثر هستند.

همچنین سیستم‌های خودکار نباید با هدف یا احتمال قابل پیش‌بینی طراحی شوند تا ایمنی فرد یا جامعه را به خطر بیندازند. آنها باید به گونه‌ای طراحی شوند که به طور فعال از افراد در برابر آسیب‌های ناشی از استفاده‌های ناخواسته و در عین حال قابل پیش‌بینی یا تأثیرات سیستم‌های خودکار محافظت کنند.

ارزیابی و گزارش مستقلی که ایمن و مؤثر بودن سیستم را تأیید می‌کند، از جمله گزارش اقدامات انجام‌شده برای کاهش آسیب‌های احتمالی، باید انجام شود و نتایج در صورت امکان به اطلاع عموم برسد.

حفاظت از تبعیض الگوریتمی در هوش مصنوعی

سیستم‌های هوش مصنوعی باید به شیوه‌ای عادلانه مورد استفاده و طراحی قرار گیرند. تبعیض الگوریتمی زمانی اتفاق می‌افتد که سیستم‌های خودکار براساس نژاد، رنگ، قومیت، جنسیت، مذهب، سن و… به رفتارهای مختلف با تأثیرات ناخوشایند بر افراد کمک می‌کنند.

این درحالی است که این تبعیض‌های الگوریتمی ممکن است حمایت‌های قانونی را نقض کنند. طراحان و توسعه‌دهندگان سیستم‌های خودکار باید اقدامات پیشگیرانه و مستمری را برای محافظت از افراد و جوامع در برابر تبعیض الگوریتمی و استفاده و طراحی سیستم‌ها به شیوه‌ای عادلانه انجام دهند.

این حفاظت باید شامل ارزیابی‌های حقوقی پیشگیرانه به‌عنوان بخشی از طراحی سیستم، استفاده از داده‌ها و محافظت در برابر پراکسی‌های مختلف باشد. همچنین اطمینان از دسترسی افراد دارای معلولیت در طراحی و توسعه، باید قبل از استقرار و آزمایش صورت بگیرد.

حفظ حریم خصوصی داده‌ها

کاربران هوش مصنوعی باید از طریق حفاظت‌های داخلی در برابر داده‌های سوءاستفاده‌کننده در امان باشند و در مورد نحوه استفاده از داده‌های مربوط به خود اطلاع داشته باشند.

طراحان و توسعه‌دهندگان سیستم‌های هوش مصنوعی باید از کاربران اجازه بگیرند و به تصمیم‌های آن‌ها در مورد جمع‌آوری، استفاده، دسترسی، انتقال و حذف داده‌ها به روش‌های مناسب و تا حد ممکن احترام بگذارند.

سیستم‌ها نباید از تجربه کاربر استفاده کرده و تصمیماتی را طراحی کنند که انتخاب کاربر را مبهم می‌کند. ایجاد حفاظت‌ها و محدودیت‌ها برای داده‌ها و استنباط‌های مربوط به حوزه‌های حساس، از جمله بهداشت، کار، آموزش، عدالت کیفری و امور مالی و داده‌های مربوط به جوانان باید در اولویت قرار بگیرد.

در حوزه‌های حساس، داده‌های کاربران و استنباط‌های مربوطه، تنها باید برای عملکردهای ضروری مورد استفاده قرار گیرند و با بازبینی اخلاقی و ممنوعیت‌های سوءاستفاده از کاربران محافظت شود.

فن‌آوری‌های نظارتی باید تحت نظارت شدیدی قرار گیرند که حداقل شامل ارزیابی قبل از استقرار و شروع به کار باشد و حریم خصوصی و آزادی‌های مدنی باید در صدر توجه قرار گیرد.

اطلاعیه و توضیح درباره عملکرد کلی سیستم

طراحان و توسعه‌دهندگان سیستم‌های خودکار باید اسنادی به زبان ساده از جمله توضیحات روشن از عملکرد کلی سیستم و نقشی که اتوماسیون ایفا می‌کند، ارائه دهند.

همچنین، اطلاعیه‌ها باید به‌روز نگه داشته شوند و افرادی که تحت تأثیر سیستم قرار می‌گیرند باید از تغییرات قابل توجه در زمان استفاده مطلع شوند. سیستم‌های هوش مصنوعی باید توضیحاتی را ارائه دهند که از نظر فنی معتبر، معنادار و مفید برای کاربر و هر اپراتور یا افرادی که نیاز به درک سیستم دارند، باشند. گزارش‌هایی که شامل اطلاعات خلاصه‌ای درباره این سیستم‌های خودکار باشد، در صورت امکان باید به اطلاع عموم برسد.

جایگزین‌های انسانی در مواقع ضروری

توسعه‌دهندگان هوش مصنوعی باید در صورت لزوم، انصراف دهند و فردی که بتواند به سرعت مشکلات را حل کند، جایگزین کنند. تناسب باید براساس انتظارات معقول و با تمرکز بر تضمین دسترسی گسترده و حفاظت از عموم مردم در برابر اثرات مضر مشخص شود. در صورت جایگزین‌کردن افراد با هم، نباید بار نامعقولی بر عموم مردم تحمیل شود.

به نظر می‌رسد که این چارچوب در مورد آن دسته از سیستم‌های هوش مصنوعی اعمال می‌شود که این پتانسیل را دارند تا به‌طور معناداری بر حقوق، فرصت‌ها یا دسترسی عمومی مردم به منابع یا خدمات حیاتی تأثیر بگذارند. این حقوق، فرصت‌ها و دسترسی به منابع حیاتی خدماتی را که باید به طور مساوی مورد استفاده قرار گیرند و به طور کامل محافظت شود، مشخص می‌کند.

منبع: تجارت نیوز

ارسال نظر