توضیحات اپل درباره ویژگی جنجالی اسکن تصاویر کودکان

ویژگی جدید اسکن تصاویر کودکان توسط اپل، سروصدای زیادی به پا کرده است. این غول فناوری اخیرا توضیحاتی درباره نحوه کار و ارسال اطلاعات این ویژگی داده است.

توضیحات اپل درباره ویژگی جنجالی اسکن تصاویر کودکان

حواشی ویژگی جدید اسکن تصاویر کودکان

اخیرا اپل برای حفظ امنیت کودکان، یک ویژگی جدید برای اکوسیستم خود معرفی کرد. این ویژگی می‌تواند تصاویر مربوط به سواستفاده جنسی از کودکان را در عکس‌های iCloud کاربران اسکن کند و در اختیار دولت‌ها قرار دهد. این ویژگی باعث ایجاد حواشی زیاد برای اپل شد. به طوریکه، بسیاری از کاربران معتقدند این کار باعث زیرپا گذاشتن قوانین حریم خصوصی کاربران خواهد شد.

رویترز در ادامه انتقادات کاربران و کارشناسان، گزارشی درباره این قابلیت جنجالی منتشر کرده است. ویژگی اسکن تصاویر کودکان در واقع فقط برای چند کشور در دسترس قرار می‌گیرد. عملکرد سیستم اسکن تصاویر به اینگونه است که هنگامی که تعداد تصاویر از یک کودک از مرز ۳۰ عکس عبور کند، هشداری به اپل ارسال خواهد شد. پس از دریافت هشدار، اپل سریعا موضوع مورد نظر را بررسی و به مدیریت ارسال می‌کند.

اپل اعلام کرد تعداد این تصاویر در آینده کاهش پیدا می‌کند. این شرکت مشخص کرد که لیست شناسه‌های تصویر جهانی است و برای هر دستگاهی که اعمال محدودیت می‌شود، شرایط یکسانی خواهد داشت. اپل توضیح داد که تمام اطلاعات این پایگاه، رمزگذاری شده هستند و حداقل دو یا چند سازمان ملی تحت حمایت کودکان اجازه استفاده از اطلاعات را دارند.

اپل درباره عواقب این کار و تأثیر موقعیت کاربر در اسکن تصاویر هیچ توضیحی نداده است. با وجود توضیحات این شرکت، اما بیشتر کاربران نسبت به این موضوع سردرگم و نگران هستند. عدم شفافیت این غول فناوری، موجب شده است کاربران به این ویژگی اعتماد نداشته باشند. همچنین، اپل در انتهای توضیحات خود اعلام کرد این ویژگی همچنان در حال توسعه است.

نظر شما درباره ویژگی جدید اپل چیست؟ آیا این قابلیت حریم خصوصی کاربران را نقص می‌کند؟ لطفا نظرات خود را با کلیک در میان بگذارید.

ارسال نظر