اپل به دلیل انتقادهای شدید مبنی بر اینکه این تغییرات جدید میتوانند حریم خصوصی کاربران را کاهش داده یا حتی موجب سواستفادههای احتمالی شود، به تعویق انداخته است.
این ویژگیهای جدید محافظتی که در ماه گذشته معرفی شدند و در کل قرار است موجب افزایش امنیت کاربران شود، شامل موارد مختلفی مثل اسکن عکسهای آنها برای تشخیص موارد سو استفادههای جنسی از کودکان یا همان CSAM معروف است. این تغییرات قرار بود در اواخر سال جاری میلادی روی تمامی پلتفرمهای اپل اعمال شود.
اپل در بیانیهای به رسانه The Verge گفت:
در ماه گذشته ما برنامههایی را برای ویژگیهایی که به منظور محافظت از کودکان در برابر افرادی که از ابزارهای ارتباطی برای به کارگیری و سو استفاده از آنها استفاده میکنند یا حتی محدود کردن انتشار موارد سو استفاده جنسی از کودکان، معرفی کردیم. بر اساس بازخوردی که از طرف کاربران، گروههای حمایتی ، محققان و دیگر افراد مشغول در باقی حوزههای دریافت کردیم، ما تصمیم گرفتهایم که در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و بهبود موارد اشاره شده در بازخوردهای دریفاتی، قبل از انتشار این ویژگیهای بسیار مهم ایمنی کودک، اختصاص دهیم.
بیانیه مطبوعاتی اصلی اپل که در سایت خود این شرکت در مورد تغییرات ایجاد شده که با هدف کاهش انتشار موارد سوء استفاده جنسی از کودکان ایجاد شده بود، دارای قسمتهای کم و بیش یکسانی با بیانیه مشابهی که در بالا آمده، است. در آن نسخه به سه تغییر عمده در کارها اشاره شده بود. تغییر اول مربوط به قابلیت سرچ و سیری است. در صورتی که کاربری مواردی که مربوط به محتوای مجرمانه و خلاف شرایط تعیین شده در CSAM است را درخواست کند، بلافاصله اپل در جریان قرار خواهد گرفت.
دو تغییر دیگر مربوط به بررسی دقیقتر است. هنگامی که کودکی عکسهای جنسی را دریافت کردهیا ارسال میکنند، به والدین هشداری ارسال خواهد شد و آن تصویر هم تار میشود. ویژگی دیگر تصاویر ذخیره شده در آیکلاد فوتوز کاربران را برای محتوای CSAM بررسی میکند و گزارشهایی به ناظران اپل ارسال خواهد شد. این ناظران هم در صورت یافتن موردی خلاف قانون به سازمانهای حمایت از کودکان اطلاع میدهند.
اپل در گذشته سیستم اسکن مربوط به آیکلاد فوتوز را به صورتی مفصل توضیح داد تا نگرانیهای احتمالی کاربران در زمینه خدشهدار شدن حریم خصوصیشان را برطرف کند. اگر بخواهیم بهطور خلاصه در مورد این ویژگی توضیحاتی را ارائه دهیم، باید بگوییم که عکسهای ذخیره شده در آیکلاد فوتوز را در دستگاههای iOS شما را اسکن میکند و این عکسها را با استفاده از پایگاههای دادهای از هشهای شناخته شده در زمینه محتوای CSAM از NCMEC و سایر سازمانهای ایمنی کودکان ارزیابی میکند.
بسیاری از کارشناسان حفظ حریم خصوصی و امنیت به خاطر این سیستم نظارتی جدید از اپل انتقادهایی کردند و معتقد بودند که این سیستم میتواند تبدیل به یک ناظر روی دستگاهها شود و اعتمادی را که کاربران به اپل در زمینه محافظت از حریم خصوصیشان داشتند، نقض کند.
بنیاد The Electronic Frontier در بیانیهای در تاریخ 5 اوت گفت که سیستم جدید، حتی اگر هدف خوبی هم داشته باشد، میتواند به رمزگذاری پیامرسانها آسیبات جدی وارد کند و عملا کاربران را در معرض خطرهای احتمالی قرار دهد.