خبر

  • تک بورد - اپل صفحات پشتیبانی خود را از تمام موارد ذکر شده درباره ویژگی بحث برانگیز اسکن تصویر CSAM پاک می کند

    اپل صفحات پشتیبانی خود را از تمام موارد ذکر شده درباره ویژگی بحث برانگیز اسکن تصویر CSAM پاک می کند


    1 ماه قبل

    به نظر می رسد اسکن جنجالی CSAM (مطالب سوء استفاده جنسی از کودکان) اپل از بین رفته است. این شرکت بی سر و صدا صفحات پشتیبانی ایمنی کودک خود را از تمام موارد ذکر شده در مورد ویژگی قبلی iOS پاک کرد. عملکرد قبلاً در حالت تعلیق بود، بنابراین حذف محتوا می‌تواند به معنای لغو کامل پروژه باشد. اپل در مورد این وضعیت اظهار نظری نکرده است.

    اپل اولین بار اسکن CSAM را در اوایل آگوست اعلام کرد و بلافاصله انتقاد طرفداران حریم خصوصی را برانگیخت. مهندسان کوپرتینویی در حال طراحی این سیستم بودند تا با استفاده از یک سیستم هش، دستگاه‌ها را به‌طور ناشناس برای تصاویر حاوی کودک آزاری اسکن کند. اگر الگوریتم‌ها هش کافی پیدا کنند، تصاویر را به بازبینی انسانی و احتمالاً برای اجرای قانون افزایش می‌دهد.

    مشکلات ذاتی سیستم به راحتی مشهود بود. کسانی که مشخص شد دارای CSAM هستند بر اساس شواهد جمع آوری شده تحت تعقیب آشکار حقوق متمم چهارم آنها با پیگرد قانونی مواجه خواهند شد. علاوه بر این، طرفداران نگرانی هایی داشتند که چنین سیستمی می تواند نتایج مثبت کاذب را حداقل در سطح ماشین ایجاد کند. اگر اسکن به اندازه کافی هش برگرداند، کاربران بی گناه می توانند عکس های خود را بدون اجازه او توسط انسان دیگری مشاهده کنند. همچنین از این احتمال که دولت‌های سرکوبگر می‌توانند دستور اسکن مخالفان را بدهند، ناراحت بود.

    ما برنده هستیم. اپل در حالی که تحقیقات بیشتری را انجام می دهد، تاخیر در ابزارهای اسکن تلفن مورد نظر خود را اعلام کرده است. اما این شرکت باید پا را فراتر بگذارد و برنامه های خود را برای قرار دادن یک درب پشتی در رمزگذاری خود به طور کامل کنار بگذارد. https://t.co/d0N1XDnRl3

    — EFF (@EFF) 3 سپتامبر 2021

    اپل در آن زمان استدلال کرد که مردم نحوه عملکرد اسکن را به اشتباه تفسیر می کردند و قول داد که هرگز به خواسته های دولت تسلیم نخواهد شد. برای سوء استفاده از سیستم در تلاشی نادرست برای رسیدگی به این واکنش، اپل اشاره کرد که قبلاً در سه سال گذشته از الگوریتم‌های CSAM بر روی ایمیل‌ها در iCloud استفاده کرده است.

    به‌جای رفع نگرانی‌ها، پذیرش اسکن ایمیل باعث تحریک این موضوع شد. گلدان حتی بیشتر فشار به حدی افزایش یافت که اپل به طور نامحدود عرضه اسکن CSAM را به تعویق انداخت و اظهار داشت که می‌خواهد بر اساس "بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران" بهبودهایی ایجاد کند.

    Electronic Frontier Foundation. تعویق را تحسین کرد اما گفت چیزی جز رها کردن کامل پروژه کافی نیست (بالا). در همین حال، صفحات پشتیبانی همچنان حاوی توضیحات کاملی در مورد نحوه عملکرد سیستم تا همین اواخر بود.

    در روز چهارشنبه، MacRumors مشاهده کرد که محتوای مربوط به CSAM در وب سایت وجود ندارد. کوپرتینویی هنوز در مورد حذف اظهار نظر نکرده است. احتمالاً، اپل این پروژه را تا زمانی که بفهمد چگونه آن را بدون ایجاد مشکل در کاربر پیاده‌سازی کند یا به طور کلی آن را لغو کند، در پشت سر گذاشته است.


    تگ ها:

    صفحات , پشتیبانی , تمام , موارد , درباره , ویژگی , برانگیز , اسکن , تصویر , csam


    v 14




خبرهای دیگر از اپل