دانلود اپلیکیشن اندروید

اپل اجازه تبدیل فناوری‌های تشخیص سوء استفاده از کودکان به ابزاری برای نظارت دولت نمی‌دهد

اپل اجازه تبدیل فناوری‌های تشخیص سوء استفاده از کودکان به ابزاری برای نظارت دولت نمی‌دهد

پس از مواجه شدن کوپرتینویی‌ها با انتقادات فراوان، اپل از برنامه‌هایش برای راه‌اندازی ابزارهای جدید، با هدف شناسایی و گزارش محتواهای سوء استفاده جنسی از کودکان (یا CSAM)، در پلتفرم‌های خود دفاع کرده و توضیحاتی را در این رابطه ارائه داده است.

هفته گذشته، اپل صحبت از چندین ابزار جدید تحت عنوان “حمایت از کودکان” در وبلاگ خود، به میان آورد. این ویژگی جدید، که در اواخر سال جاری در به‌روزرسانی سیستم عامل های جدید این شرکت عرضه می‌شود، برای جست‌وجو و شناسایی محتوا‌های مرتبط با کودک آزاری طراحی شده است. یکی از ابزارها توسعه یافته، تصاویر ذخیره‌شده دستگاه‌هایی را که به آیکلود متصل هستند را برای یافتن محتویات CSAM اسکن می‌کند، درحالی که ویژگی دیگر، پیام‌های iMessages را در راستای جلوگیری از به اشتراک گذاشتن و یا دریافت تصاویر مستهجن بررسی و اسکن می‌کند.

روز دوشنبه، غول کوپرتینویی، پاسخی به بسیاری از نگرانی‌های مطرح شده راجع به طرح جدید این شرکت، منتشر نمود. اپل احتمال اینکه روزی ابزارهای اسکن توسعه یافته آن، برای یافتن محتویاتی در تلفن‌ها و رایانه‌های کاربران، جز آنچه پیش‌تر اعلام شده را به‌طور خاص تکذیب کرد. اما منتقدان همچنان نگران هستند که دولت سرانجام با تحت فشار قرار دادن اپل، ویژگی‌های جدیدی را اضافه یا تغییر دهد، برای مثال، آن‌ها را به ابزار گسترده‌تری برای اجرای قانون تبدیل کند.

اپل

اپل به‌طور قطعی اعلام کرد که قابلیت‌های اسکن خود را در هیچ شرایطی گسترش نخواهد داد؛ به گفته این کمپانی:

اپل از چنین درخواست‌هایی [از سوی دولت] خودداری خواهد کرد. چراکه قابلیت تشخیص CSAM اپل، تنها برای تشخیص تصاویر و محتویات جنسی کودکان، که توسط متخصصان NCMEC و سایر گروه‌های ایمنی کودک شناسایی شده است، مورد استفاده قرار خواهد گرفت. ما تاکنون با درخواست‌های زیادی از سوی دولت، برای ایجاد و به‌کارگیری تغییراتی که به حریم خصوصی کاربران دامن می‌زند، مواجه شدیم و این خواسته‌ها را با قاطعیت رد کرده‌ایم؛ در آینده نیز به درخواست‌هایی از این قبیل پاسخ مثبت نخواهیم داد.

اپل طی جلسه پرسش و پاسخ روز دوشنبه با خبرنگاران، توضیحات بیش‌تری را ارائه داد؛ به گفته کوپرتینویی‌ها، این ویژگی در حال حاضر تنها در کشور‌های آمریکا راه‌اندازی خواهد شد. در حالی که برخی نگرانی‌ها درمورد استفاده دولت‌های دیگر، از ابزارهای جدید، به عنوان نوعی نظارت فاسد مطرح شده است، اپل اعلام کرد که قبل از انتشار ابزارها در دیگر کشور‌ها، قوانین هر کشور با دقت مطالعه و بررسی خواهد شد.

بدیهی است که هنوز سوالات زیادی درباره نحوه عملکرد این ابزار و تاثیر آن بر حریم خصوصی کاربران وجود دارد، اما اپل به تازگی درباره برخی نکات این طرح توضیحات را ارائه داده است که در ادامه به آن می‌پردازیم:

به شکل عجیبی، آیکلود باید فعال باشد تا ویژگی تشخیص محتوای CSAM کار کند:

ابهامات زیادی برای کاربران در این زمینه وجود داشت است، اما اپل تنها تصمیم به جست‌وجو در محتواهایی است که در سیستم ابری آیکلود،به اشتراک گذاشته شده‌اند. منتقدان بر این باورند که، این کار برای سوء استفاده کنندگان بسیار آسان خواهد بود که این فناوری اپل را به راحتی دور بزنند؛ چرا که تنها کاری که باید برای پنهان نمودن محتوای CSAM در تلفن‌های خود انجام دهند، انصراف از آیکلود است. اما به گفته اپل، آن‌ها هنوز بر موثر بودن این فناوری اطمینان کافی دارند.

اپل داده‌های دریافتی را بر روی تلفن کاربران بارگذاری نمی‌کند:

نکته دیگر این است که، در واقع محتوای CSAM بر روی دستگاه شما بارگذاری نمی‌کند؛ در عوض، از داده‌های هش (اثر انگشت دیجیتالی از تصاویر خاص، شناخته شده از کودک آزاری، که به صورت کد عددی نشان داده شده است) استفاده می‌کند.این کد در سیستم عامل تلفن بارگذاری می‌شود، که به شما امکان می‌دهد تصاویر بارگذاری شده در آیکلود را به‌طور خودکار با هش‌های موجود در پایگاه داده مقایسه کنید، اگر آن‌ها یکسان بودند،  تصاویر را بصورت خودکار به نمایندگان اپل ارسال می‌کند تا اقدامات لازم صورت بگیرد.

آیکلود تنها تصاویر جدید را اسکن نمی‌کند، بلکه تمامی تصاویر موجود در آیکلود را اسکن خواهد کرد:

در تماسی که اپل روز دوشنبه با خبرنگاران داشت، تاکید کرد که علاوه بر اسکن تصاویری که در آینده در آیکلود بارگذاری خواهند شد، قصد دارد تمامی تصاویری که در حال حاضر در سرورهای ابری آیکلود ذخیره شده است را نیز اسکن کند.

به ادعای اپل، هیچ‌گونه اطلاعاتی با نیروی انتظامی به اشتراک گذاشته نخواهد شد:

به گفته اپل، قابلیت جدید آی‌مسیج هیچ یک از اطلاعات شخصی کاربران را با هیچ‌گونه سازمانی به اشتراک نگذاشته و همچنین به مقامات قانونی نیز هشدار نخواهد داد. در عوض، تنها اگر فرزندان تصویری ارسال و یا دریافت کرده باشد که الگوریتم اپل، آن را محتوای جنسی تشخیص دهید، به والدین آنان اطلاع خواهد داد. این قابلیت هیچ اطلاعاتی را با هیچ یک از سازمان‌های اپل، NCMEC و موارد دیگری به اشتراک نخواهد گذاشت. این شرکت می‌گوید، این قابلیت تنها برای اکانت‌هایی که برای حساب‌های خانوادگی در آیکلود راه‌اندازی شده‌اند، در دسترس خواهد بود.

 

با وجود توضیحاتی که اپل ارائه داد، همچنان حامیان حریم خصوصی و کارشناسان امنیتی تحت تأثیر قرار نگرفته‌اند و بسیاری از مردم هنوز سوالاتی را راجع به طرح جدید اپل دارند. درحالی که نمی‌توان برخی از نقاط مثبت این طرح را نادیده گرفت، اما قدرت فناوری مورد استفاده در این ابزار، موجب به‌وجود آمدن نگرانی‌هایی شده است.

به نظر شما با توسعه این ابزار، چه مشکلاتی برای حریم خصوصی کاربران به‌وجود خواهد آمد؟ نظرات خود را با کارو تک در میان بگذارید.

منابع نوشته
در بحث شرکت کنید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

     مدرسه کارو