1%

ائتلافی متشکل از 90 گروه سیاسی با برنامه نظارتی CSAM اپل مخالفت کردند

تصویری از یکی از مراسم‌های اپل

اپل قصد دارد تا بر روی دستگاه‌های خود برنامه نظارتی موسوم به CSAM (Child Sexual Abuse Material) را برای محافظت از کودکان اجرا کند، اما این طرح مخالفان سرسختی هم دارد.

گروهی متشکل از 90 گروه سیاسی بین‌المللی گرد آمده‌اند تا نامه‌ای سرگشاده به تیم کوک، مدیرعامل اپل، ارسال کنند و از اپل بخواهند تا برنامه‌های خود را برای بررسی آیفون و آیپد را برای پیدا کردن محتوای CSAM در عکس‌های موجود در iCloud و عکس‌های نامناسب فرستاده شده به کودکان و دریافت شده از آن‌ها را متوقف کند.

با توجه به اطلاعیه‌ای با عنوان “ائتلاف بین المللی از اپل می‌خواهد تا برنامه خود را برای ایجاد قابلیت‌های نظارتی در آیفون، آیپد و سایر محصولات متوقف کند” که منتشر شده است، به نظر می‌رسد که این گروه‌ها دو مشکل اساسی در برنامه‌های جدید ایمنی مربوط به کودکان اپل پیدا کرده‌اند:

به طور خاص:

1.ویژگی اسکن و هشدار در پیام‌ها می‌تواند منجر به هشدارهایی شود که ایمنی و رفاه برخی از جوانان را تهدید می کند. همچنین جوانان LGBTQ+ با والدین بی عاطفه به ویژه در معرض خطر هستند.

2.هنگامی که اسکن CSAM برای عکس‌ها در محصولات اپل تعبیه شود، این شرکت با فشار عظیمی و احتمالا الزامات قانونی از سوی دولت‌های سراسر جهان روبرو خواهد شد تا همه نوع تصویری را که به نظر دولت‌ها قابل اعتراض است را اسکن کند.

این نامه که ابتدا توسط رویترز منتشر شد، اکنون به صورت کامل در اینترنت یافت می‌شود، اما ذکر این نکته ضروری است که هر دو موضوعی که در اینجا مطرح شده است قبلا توسط اپل به آن‌ها پاسخ داده شده است.

برنامه فوتوز ویندوز 11 همراه با تغییرات مهمی به دست کاربران می‌رسد

اپل در جواب مشکل اول گفت که هشدارها فقط بر اساس تصاویر ارسال شده و دریافت شده از طریق برنامه Messages فعال می‌شوند. هیچ پیام متنی هیچ نوع هشدار را به هیچ وجه ایجاد نمی‌کند. علاوه بر این، اپل همچنین در جلسات مطبوعاتی خود تایید کرد که قبل از ایجاد هرگونه اطلاع رسانی والدین به کودکان هشدار داده می‌شود. آنها باید به طور صریح روی آن هشدار کلیک کنند تا عکس مورد نظر را ببینند، زیرا به والدین آن‌ها اطلاع داده شده است. والدین بدون اطلاع کودک از هیچ چیز مطلع نخواهند شد.

در مورد مسئله دوم، اپل بارها و بارها اعلام کرده است که در صورت درخواست برای استفاده از سیستم تشخیص CSAM برای تشخیص انواع دیگر موارد، تحت تاثیر دولت‌ها و مجریان قانون قرار نخواهد گرفت. اپل همچنین به این نکته اشاره می‌کند که هش‌هایی که iCloud Photos با آن‌ها مطابقت دارد فقط به آژانس‌های شناخته شده محافظت از کودکان ارائه شده است. به گفته اپل، همه این موارد قابل سنجش است.

با وجود تمام این موارد، این گروه‌ها معتقد هستند که اپل اقدام به نصب نرم‌افزار نظارتی بر روی آیفون‌ها خواهد کرد، چیزی که بدون شک اپل به شدت آن را رد خواهد کرد.

  • اشتراک با دوستان

در بحث شرکت کنید

guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده تمام نظرات

مطالب مرتبط