بزرگترین خطرات استفاده از هوش مصنوعی

بزرگترین خطرات استفاده از هوش مصنوعی مانند ChatGPT، Google Gemini، Microsoft Copilot، Apple Intelligence در زندگی خصوصی شما چیست؟

بزرگترین خطرات استفاده از هوش مصنوعی

سارا کلاری: از ChatGPT OpenAI گرفته تا Google Gemini، Microsoft Copilot و Apple Intelligence، ابزارهای هوش مصنوعی برای مصرف کنندگان به راحتی قابل دسترسی هستند.

این ابزارها دارای سیاست‌های حفظ حریم خصوصی متفاوتی در رابطه با استفاده و حفظ داده‌های کاربر هستند، بنابراین مصرف‌کننده آگاه بودن مهم است.

کارشناسان می گویند هیچ نکته مثبتی برای مصرف کنندگان وجود ندارد که اجازه دهند هوش مصنوعی از داده های آنها اگاهی یابد و خطراتی وجود دارد که هنوز در حال بررسی هستند.

بسیاری از مصرف کنندگان شیفته هوش مصنوعی مولد هستند و از ابزارهای جدید برای انواع مسائل شخصی یا تجاری استفاده می کنند.

اما بسیاری از پیامدهای بالقوه حریم خصوصی را نادیده می گیرند که می تواند قابل توجه باشد. در این خصوص جودی دانیلز، مدیر اجرایی و مشاور حریم خصوصی در Red Clover Advisors که با شرکت‌ها در مورد مسائل حریم خصوصی مشورت می‌کند، می گوید: بسته به ابزار، جزئیات مختلفی در مورد آنچه می‌توانید کنترل کنید وجود دارد.

بر اساس گزارشی از CNBC گسترش ابزارهای هوش مصنوعی - و ادغام آنها در بسیاری از کارهایی که مصرف‌کنندگان روی رایانه‌های شخصی و تلفن‌های هوشمند خود انجام می‌دهند - این سؤال‌ها را بیشتر مطرح می کند.

به عنوان مثال، چند ماه پیش، مایکروسافت اولین رایانه های شخصی سرفیس خود را منتشر کرد که دارای دکمه اختصاصی Copilot روی صفحه کلید برای دسترسی سریع به ربات چت بود . هم چنین ماه گذشته اپل چشم انداز خود را برای هوش مصنوعی ترسیم کرد که حول چند مدل کوچکتر می چرخد ​​که بر روی دستگاه ها و تراشه های اپل اجرا می شوند.

راهکارهای حفظ حریم خصوصی

در اینجا چندین راه وجود دارد که مصرف کنندگان می توانند از حریم خصوصی خود در عصر جدید هوش مصنوعی مولد محافظت کنند.

از هوش مصنوعی سوالات حریم خصوصی را بپرسید که باید بتواند پاسخ دهد:

قبل از انتخاب ابزار، مصرف کنندگان باید سیاست های حفظ حریم خصوصی مرتبط را به دقت مطالعه کنند. اطلاعات شما چگونه استفاده می شود و چگونه می توان از آنها استفاده کرد؟ آیا گزینه ای برای خاموش کردن اشتراک گذاری داده وجود دارد؟ آیا راهی برای محدود کردن داده هایی که استفاده می شوند و برای مدت زمان نگهداری داده ها وجود دارد؟ آیا می توان اطلاعات را حذف کرد؟

هوش مصنوعی

مدیر اجرایی و مشاور حریم خصوصی در این خصوص معتقد است: "ابزاری که به حریم خصوصی اهمیت می دهد به شما اطلاع می دهد."شما باید مالکیت آن را داشته باشید." "شما نمی توانید تصور کنید که شرکت کار درست را انجام می دهد. هر شرکتی ارزش های متفاوتی دارد و هر شرکتی به طور متفاوتی پول در می آورد."

او نمونه ای از Grammarly را ارائه کرد، ابزار ویرایشی که توسط بسیاری از مصرف کنندگان و مشاغل مورد استفاده قرار می گیرد، به عنوان شرکتی که به وضوح در چندین مکان در وب سایت خود نحوه استفاده از داده ها را توضیح می دهد.

داده های حساس را از ابزارهای ترجمه کننده های زبان توسط هوش مصنوعی دور نگه دارید:

برخی از افراد در اتصال داده‌های حساس به مدل‌های هوش مصنوعی بسیار اعتماد دارند، اما اندرو فراست موروز، بنیانگذار مرورگر Aloha، یک مرورگر متمرکز بر حریم خصوصی، به مردم توصیه می‌کند هیچ نوع داده حساسی را وارد نکنند، زیرا واقعاً نمی‌دانند چگونه می توان از آن ها سوء استفاده کرد.

این برای همه انواع اطلاعاتی که افراد ممکن است وارد کنند صادق است، خواه این اطلاعات شخصی یا مربوط به کار باشد. بسیاری از شرکت‌ها نگرانی‌های قابل توجهی را در مورد کارکنانی که از مدل‌های هوش مصنوعی برای کمک به کار خود استفاده می‌کنند، ابراز کرده‌اند.زیرا ممکن است کامندان نحوه استفاده از این اطلاعات توسط مدل برای اهداف آموزشی را در نظر نگیرند.

اگر یک سند محرمانه را وارد می کنید، مدل هوش مصنوعی اکنون به آن دسترسی دارد که می تواند باعث نگرانی شود. بسیاری از شرکت‌ها فقط استفاده از نسخه‌های سفارشی ابزارهای هوش مصنوعی را تایید می‌کنند .

فراست موروز نیز می گوید: افراد همچنین باید احتیاط کنند و از مدل‌های هوش مصنوعی برای چیزهای غیر عمومی یا مطالبی که نمی‌خواهید با دیگران به اشتراک گذاشته شوند استفاده نکنند. آگاهی از نحوه استفاده از هوش مصنوعی مهم است. اگر از آن برای خلاصه کردن مقاله ای از ویکی پدیا استفاده می کنید، ممکن است مشکلی نباشد. اما اگر برای مثال از آن برای خلاصه کردن یک سند حقوقی شخصی استفاده می کنید، توصیه نمی شود. یا فرض کنید تصویری از یک سند دارید و می خواهید یک پاراگراف خاص را کپی کنید. می توانید از هوش مصنوعی بخواهید متن را بخواند تا بتوانید آن را کپی کنید. او گفت که با انجام این کار، مدل هوش مصنوعی محتوای سند را می شناسد، بنابراین مصرف کنندگان باید این را در نظر داشته باشند.

از انصراف های ارائه شده توسط OpenAI، Google استفاده کنید:

هر ابزار هوش مصنوعی سیاست های حفظ حریم خصوصی خود را دارد و ممکن است گزینه های انصراف داشته باشد. به عنوان مثال، Gemini به کاربران اجازه می دهد تا داده ها را یک دوره نگهداری ایجاد کنند و داده های خاصی را حذف کنند.

کاربران می توانند از استفاده از داده های خود برای آموزش مدل توسط ChatGPT انصراف دهند. برای انجام این کار، آنها باید به نماد نمایه در پایین سمت چپ صفحه رفته و Data Controls را در سربرگ تنظیمات انتخاب کنند. سپس باید قابلیتی را که می گوید «بهبود مدل برای همه» غیرفعال کنند.

جاکوب هافمن اندروز، فن‌شناس ارشد در Electronic Frontier Foundation، یک گروه بین‌المللی حقوق دیجیتال غیرانتفاعی، گفت: هیچ نکته مثبتی برای مصرف‌کنندگان وجود ندارد که اجازه دهند نسل هوش مصنوعی عمومی بر روی داده‌هایشان آموزش ببیند و خطراتی وجود دارد که هنوز در حال بررسی هستند.

اگر اطلاعات شخصی به طور نادرست در وب منتشر شود، مصرف کنندگان ممکن است بتوانند آن را حذف کنند و سپس از موتورهای جستجو محو شوند. او گفت، اما آموزش ندادن مدل‌های هوش مصنوعی یک بازی کاملا متفاوت است. او گفت که ممکن است راه‌هایی برای کاهش استفاده از اطلاعات خاص در یک مدل هوش مصنوعی وجود داشته باشد، نحوه انجام این کار به طور موثر حوزه‌ای از تحقیقات است.

انتخاب هایی مانند مایکروسافت Copilot، فقط به دلایل خوب

بر اساس این گزارش شرکت‌ها در حال ادغام هوش مصنوعی عمومی در ابزارهای روزمره مردم در زندگی شخصی و حرفه‌ای خود هستند. به عنوان مثال، Copilot برای Microsoft 365 در Word، Excel و PowerPoint کار می کند تا به کاربران در انجام وظایفی مانند تجزیه و تحلیل، تولید ایده، سازماندهی و ...کمک کند.

برای این ابزارها، مایکروسافت می‌گوید که داده‌های مصرف‌کننده را بدون اجازه با شخص ثالث به اشتراک نمی‌گذارد و از داده‌های مشتری برای آموزش Copilot یا ویژگی‌های هوش مصنوعی بدون رضایت استفاده نمی‌کند.

با این حال، کاربران می‌توانند در صورت تمایل، با ورود به مرکز مدیریت پلتفرم Power، انتخاب تنظیمات و روشن کردن اشتراک‌گذاری داده برای Dynamics 365 Copilot و Power Platform Copilot AI، شرکت کنند. آنها اشتراک گذاری و ذخیره داده ها را فعال می کنند.

با این حال، اشکال این است که مصرف کنندگان کنترل نحوه استفاده از داده های خود را از دست می دهند، که یک مساله مهم است. متخصصان حفظ حریم خصوصی می گویند.

خبر خوب این است که مصرف‌کنندگانی که مایکروسافت را انتخاب کرده‌اند می‌توانند در هر زمانی رضایت خود را پس بگیرند. کاربران می‌توانند این کار را با خاموش کردن اشتراک‌گذاری داده برای Dynamics 365 Copilot و Power Platform Copilot AI Features انجام دهند.

یک دوره نگهداری کوتاه برای هوش مصنوعی مولد برای جستجو تنظیم کنید

ممکن است مصرف‌کنندگان قبل از جستجوی اطلاعات با استفاده از هوش مصنوعی، زیاد فکر نکنند و مانند یک موتور جستجو برای تولید اطلاعات و ایده‌ها از آن استفاده کنند. با این حال، حتی جستجو برای انواع خاصی از اطلاعات با استفاده از هوش مصنوعی عمومی می‌تواند به حریم خصوصی افراد نفوذ کند. هافمن اندروز گفت، در صورت امکان، یک دوره نگهداری کوتاه برای ابزار هوش مصنوعی عمومی تعیین کنید. و پس از به دست آوردن اطلاعات مورد نظر، چت ها را حذف کنید این کار به کاهش خطر دسترسی شخص ثالث به حساب شما کمک کند.

 

ارسال نظر