بزرگترین خطرات استفاده از هوش مصنوعی
بزرگترین خطرات استفاده از هوش مصنوعی مانند ChatGPT، Google Gemini، Microsoft Copilot، Apple Intelligence در زندگی خصوصی شما چیست؟
سارا کلاری: از ChatGPT OpenAI گرفته تا Google Gemini، Microsoft Copilot و Apple Intelligence، ابزارهای هوش مصنوعی برای مصرف کنندگان به راحتی قابل دسترسی هستند.
این ابزارها دارای سیاستهای حفظ حریم خصوصی متفاوتی در رابطه با استفاده و حفظ دادههای کاربر هستند، بنابراین مصرفکننده آگاه بودن مهم است.
کارشناسان می گویند هیچ نکته مثبتی برای مصرف کنندگان وجود ندارد که اجازه دهند هوش مصنوعی از داده های آنها اگاهی یابد و خطراتی وجود دارد که هنوز در حال بررسی هستند.
بسیاری از مصرف کنندگان شیفته هوش مصنوعی مولد هستند و از ابزارهای جدید برای انواع مسائل شخصی یا تجاری استفاده می کنند.
اما بسیاری از پیامدهای بالقوه حریم خصوصی را نادیده می گیرند که می تواند قابل توجه باشد. در این خصوص جودی دانیلز، مدیر اجرایی و مشاور حریم خصوصی در Red Clover Advisors که با شرکتها در مورد مسائل حریم خصوصی مشورت میکند، می گوید: بسته به ابزار، جزئیات مختلفی در مورد آنچه میتوانید کنترل کنید وجود دارد.
بر اساس گزارشی از CNBC گسترش ابزارهای هوش مصنوعی - و ادغام آنها در بسیاری از کارهایی که مصرفکنندگان روی رایانههای شخصی و تلفنهای هوشمند خود انجام میدهند - این سؤالها را بیشتر مطرح می کند.
به عنوان مثال، چند ماه پیش، مایکروسافت اولین رایانه های شخصی سرفیس خود را منتشر کرد که دارای دکمه اختصاصی Copilot روی صفحه کلید برای دسترسی سریع به ربات چت بود . هم چنین ماه گذشته اپل چشم انداز خود را برای هوش مصنوعی ترسیم کرد که حول چند مدل کوچکتر می چرخد که بر روی دستگاه ها و تراشه های اپل اجرا می شوند.
راهکارهای حفظ حریم خصوصی
در اینجا چندین راه وجود دارد که مصرف کنندگان می توانند از حریم خصوصی خود در عصر جدید هوش مصنوعی مولد محافظت کنند.
از هوش مصنوعی سوالات حریم خصوصی را بپرسید که باید بتواند پاسخ دهد:
قبل از انتخاب ابزار، مصرف کنندگان باید سیاست های حفظ حریم خصوصی مرتبط را به دقت مطالعه کنند. اطلاعات شما چگونه استفاده می شود و چگونه می توان از آنها استفاده کرد؟ آیا گزینه ای برای خاموش کردن اشتراک گذاری داده وجود دارد؟ آیا راهی برای محدود کردن داده هایی که استفاده می شوند و برای مدت زمان نگهداری داده ها وجود دارد؟ آیا می توان اطلاعات را حذف کرد؟
مدیر اجرایی و مشاور حریم خصوصی در این خصوص معتقد است: "ابزاری که به حریم خصوصی اهمیت می دهد به شما اطلاع می دهد."شما باید مالکیت آن را داشته باشید." "شما نمی توانید تصور کنید که شرکت کار درست را انجام می دهد. هر شرکتی ارزش های متفاوتی دارد و هر شرکتی به طور متفاوتی پول در می آورد."
او نمونه ای از Grammarly را ارائه کرد، ابزار ویرایشی که توسط بسیاری از مصرف کنندگان و مشاغل مورد استفاده قرار می گیرد، به عنوان شرکتی که به وضوح در چندین مکان در وب سایت خود نحوه استفاده از داده ها را توضیح می دهد.
داده های حساس را از ابزارهای ترجمه کننده های زبان توسط هوش مصنوعی دور نگه دارید:
برخی از افراد در اتصال دادههای حساس به مدلهای هوش مصنوعی بسیار اعتماد دارند، اما اندرو فراست موروز، بنیانگذار مرورگر Aloha، یک مرورگر متمرکز بر حریم خصوصی، به مردم توصیه میکند هیچ نوع داده حساسی را وارد نکنند، زیرا واقعاً نمیدانند چگونه می توان از آن ها سوء استفاده کرد.
این برای همه انواع اطلاعاتی که افراد ممکن است وارد کنند صادق است، خواه این اطلاعات شخصی یا مربوط به کار باشد. بسیاری از شرکتها نگرانیهای قابل توجهی را در مورد کارکنانی که از مدلهای هوش مصنوعی برای کمک به کار خود استفاده میکنند، ابراز کردهاند.زیرا ممکن است کامندان نحوه استفاده از این اطلاعات توسط مدل برای اهداف آموزشی را در نظر نگیرند.
اگر یک سند محرمانه را وارد می کنید، مدل هوش مصنوعی اکنون به آن دسترسی دارد که می تواند باعث نگرانی شود. بسیاری از شرکتها فقط استفاده از نسخههای سفارشی ابزارهای هوش مصنوعی را تایید میکنند .
فراست موروز نیز می گوید: افراد همچنین باید احتیاط کنند و از مدلهای هوش مصنوعی برای چیزهای غیر عمومی یا مطالبی که نمیخواهید با دیگران به اشتراک گذاشته شوند استفاده نکنند. آگاهی از نحوه استفاده از هوش مصنوعی مهم است. اگر از آن برای خلاصه کردن مقاله ای از ویکی پدیا استفاده می کنید، ممکن است مشکلی نباشد. اما اگر برای مثال از آن برای خلاصه کردن یک سند حقوقی شخصی استفاده می کنید، توصیه نمی شود. یا فرض کنید تصویری از یک سند دارید و می خواهید یک پاراگراف خاص را کپی کنید. می توانید از هوش مصنوعی بخواهید متن را بخواند تا بتوانید آن را کپی کنید. او گفت که با انجام این کار، مدل هوش مصنوعی محتوای سند را می شناسد، بنابراین مصرف کنندگان باید این را در نظر داشته باشند.
از انصراف های ارائه شده توسط OpenAI، Google استفاده کنید:
هر ابزار هوش مصنوعی سیاست های حفظ حریم خصوصی خود را دارد و ممکن است گزینه های انصراف داشته باشد. به عنوان مثال، Gemini به کاربران اجازه می دهد تا داده ها را یک دوره نگهداری ایجاد کنند و داده های خاصی را حذف کنند.
کاربران می توانند از استفاده از داده های خود برای آموزش مدل توسط ChatGPT انصراف دهند. برای انجام این کار، آنها باید به نماد نمایه در پایین سمت چپ صفحه رفته و Data Controls را در سربرگ تنظیمات انتخاب کنند. سپس باید قابلیتی را که می گوید «بهبود مدل برای همه» غیرفعال کنند.
جاکوب هافمن اندروز، فنشناس ارشد در Electronic Frontier Foundation، یک گروه بینالمللی حقوق دیجیتال غیرانتفاعی، گفت: هیچ نکته مثبتی برای مصرفکنندگان وجود ندارد که اجازه دهند نسل هوش مصنوعی عمومی بر روی دادههایشان آموزش ببیند و خطراتی وجود دارد که هنوز در حال بررسی هستند.
اگر اطلاعات شخصی به طور نادرست در وب منتشر شود، مصرف کنندگان ممکن است بتوانند آن را حذف کنند و سپس از موتورهای جستجو محو شوند. او گفت، اما آموزش ندادن مدلهای هوش مصنوعی یک بازی کاملا متفاوت است. او گفت که ممکن است راههایی برای کاهش استفاده از اطلاعات خاص در یک مدل هوش مصنوعی وجود داشته باشد، نحوه انجام این کار به طور موثر حوزهای از تحقیقات است.
انتخاب هایی مانند مایکروسافت Copilot، فقط به دلایل خوب
بر اساس این گزارش شرکتها در حال ادغام هوش مصنوعی عمومی در ابزارهای روزمره مردم در زندگی شخصی و حرفهای خود هستند. به عنوان مثال، Copilot برای Microsoft 365 در Word، Excel و PowerPoint کار می کند تا به کاربران در انجام وظایفی مانند تجزیه و تحلیل، تولید ایده، سازماندهی و ...کمک کند.
برای این ابزارها، مایکروسافت میگوید که دادههای مصرفکننده را بدون اجازه با شخص ثالث به اشتراک نمیگذارد و از دادههای مشتری برای آموزش Copilot یا ویژگیهای هوش مصنوعی بدون رضایت استفاده نمیکند.
با این حال، کاربران میتوانند در صورت تمایل، با ورود به مرکز مدیریت پلتفرم Power، انتخاب تنظیمات و روشن کردن اشتراکگذاری داده برای Dynamics 365 Copilot و Power Platform Copilot AI، شرکت کنند. آنها اشتراک گذاری و ذخیره داده ها را فعال می کنند.
با این حال، اشکال این است که مصرف کنندگان کنترل نحوه استفاده از داده های خود را از دست می دهند، که یک مساله مهم است. متخصصان حفظ حریم خصوصی می گویند.
خبر خوب این است که مصرفکنندگانی که مایکروسافت را انتخاب کردهاند میتوانند در هر زمانی رضایت خود را پس بگیرند. کاربران میتوانند این کار را با خاموش کردن اشتراکگذاری داده برای Dynamics 365 Copilot و Power Platform Copilot AI Features انجام دهند.
یک دوره نگهداری کوتاه برای هوش مصنوعی مولد برای جستجو تنظیم کنید
ممکن است مصرفکنندگان قبل از جستجوی اطلاعات با استفاده از هوش مصنوعی، زیاد فکر نکنند و مانند یک موتور جستجو برای تولید اطلاعات و ایدهها از آن استفاده کنند. با این حال، حتی جستجو برای انواع خاصی از اطلاعات با استفاده از هوش مصنوعی عمومی میتواند به حریم خصوصی افراد نفوذ کند. هافمن اندروز گفت، در صورت امکان، یک دوره نگهداری کوتاه برای ابزار هوش مصنوعی عمومی تعیین کنید. و پس از به دست آوردن اطلاعات مورد نظر، چت ها را حذف کنید این کار به کاهش خطر دسترسی شخص ثالث به حساب شما کمک کند.