اپل امروز اعلام کرد که در برنامه خود برای اسکن آیفون ها و سای">

خبر

  • تک بورد - اپل وعده داده است برنامه های اسکن عکس آیفون را برای رفع انتقادات تغییر دهد

    اپل وعده داده است برنامه های اسکن عکس آیفون را برای رفع انتقادات تغییر دهد
    20 روز و 3 ساعت قبل

    اپل با انتشار بیانیه ای مبهم وعده "بهبود" می دهد اما همچنان قصد دارد عکس ها را اسکن کند.
    اپل امروز اعلام کرد که در برنامه خود برای اسکن آیفون ها و سایر دستگاه ها عکس های کاربران را برای تصاویر سوءاستفاده جنسی از کودکان تغییراتی ایجاد می کند. اما اپل گفت که همچنان قصد دارد این سیستم را پس از "بهبود" برای پاسخ به انتقادات پیاده سازی کند.

    اپل این بیانیه را امروز به Ars و دیگر سازمان های خبری ارائه داد:

    ماه گذشته ما برنامه هایی را برای ویژگی هایی که به منظور کمک به محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای به کارگیری و سوء استفاده از آنها استفاده می کنند و محدود کردن گسترش آنها ، کمک کرد ، اعلام کردیم. مواد سوء استفاده جنسی از کودکان [CSAM]. بر اساس بازخوردهای مشتریان ، گروه های حمایتی ، محققان و دیگران ، ما تصمیم گرفته ایم که در ماه های آینده زمان بیشتری را برای جمع آوری اطلاعات و بهبود قبل از انتشار این ویژگی های بسیار مهم ایمنی کودک صرف کنیم.

    این بیانیه مبهم است ، زیرا نمی گوید اپل چه نوع تغییراتی را ایجاد می کند یا حتی از چه گروه های حمایتی و محققانی اطلاعات خود را جمع آوری می کند. اما با توجه به واکنش منفی اپل از سوی محققان امنیتی ، حامیان حریم خصوصی و مشتریانی که نگران حفظ حریم خصوصی هستند ، به نظر می رسد که اپل سعی خواهد کرد نگرانی های مربوط به حریم خصوصی کاربران و امکان دسترسی گسترده تر دولت به عکس های مشتریان به دولت را برطرف کند.

    گروه های حریم خصوصی در مورد دسترسی دولت هشدار دادند

    مشخص نیست که چگونه اپل می تواند این سیستم را به گونه ای پیاده سازی کند که بزرگترین نگرانی های حریم خصوصی منتقدانش را برطرف کند. اپل ادعا کرده است که از درخواست های دولت برای گسترش اسکن عکس فراتر از CSAM خودداری خواهد کرد. اما طرفداران حریم خصوصی و امنیت استدلال می کنند که پس از استقرار سیستم ، اپل به احتمال زیاد نمی تواند از ارائه محتوای بیشتر کاربر به دولت ها اجتناب کند.

    تبلیغات

    "هنگامی که این قابلیت در محصولات اپل ایجاد شود ، شرکت و 90 گروه سیاستی از ایالات متحده و سراسر جهان در نامه ای سرگشاده اعلام کردند که رقبا با فشارهای عظیمی - و الزامات قانونی بالقوه - از سوی دولت های جهان روبرو خواهند شد تا عکس ها را نه تنها برای CSAM ، بلکه برای سایر تصاویری که دولت آنها را قابل اعتراض می داند ، اسکن کنند. ماه گذشته به اپل "این تصاویر ممکن است از نقض حقوق بشر ، اعتراضات سیاسی ، تصاویری باشد که شرکت ها آنها را با محتوای" تروریستی "یا افراطی خشونت آمیز برچسب گذاری کرده اند ، یا حتی تصاویری ناخوشایند از سیاستمداران که شرکت را برای اسکن آنها تحت فشار قرار می دهند. و این فشار می تواند به همه تصاویر ذخیره شده در دستگاه ، نه فقط تصاویر بارگذاری شده در iCloud. بنابراین ، اپل اساس سانسور ، نظارت و آزار و اذیت را به صورت جهانی ایجاد کرده است. "

    اپل قبلاً اعلام کرده بود که دستگاه هایی با iCloud Photos فعال هستند تصاویر را قبل از بارگذاری در iCloud اسکن می کند. با توجه به اینکه یک iPhone هر عکسی را بلافاصله پس از گرفتن در iCloud بارگذاری می کند ، اگر کاربر قبلاً iCloud Photos را روشن کرده باشد ، اسکن عکس های جدید تقریباً بلافاصله اتفاق می افتد.

    اپل گفته است که یک ابزار نیز اضافه خواهد کرد به برنامه پیامها که "پیوست های تصویر را تجزیه و تحلیل می کند و مشخص می کند که آیا عکس جنسی واضح است یا خیر." این سیستم برای والدین اختیاری خواهد بود ، آنها می توانند آن را فعال کنند تا دستگاه های اپل "هنگام دریافت یا ارسال عکس های جنسی به کودکان و والدین آنها هشدار دهند." امسال ، ابتدا در ایالات متحده ، به عنوان بخشی از به روز رسانی iOS 15 ، iPadOS 15 ، watchOS 8 و macOS Monterey. وعده اپل مبنی بر "صرف زمان اضافی در ماه های آینده برای جمع آوری اطلاعات و پیشرفت ها" نشان می دهد که سیستم اسکن می تواند دیرتر از برنامه اپل اجرا شود ، اما این شرکت هرگز تاریخ انتشار مشخصی را برای شروع ارائه نکرد.

    تبلیغات

    اپل سیستم را پیشرفت در حفظ حریم خصوصی نامید

    همانطور که قبلاً نوشتیم ، اپل می گوید فناوری اسکن CSAM آن "یک تصویر را تجزیه و تحلیل می کند و آن را به یک عدد منحصر به فرد مخصوص آن تصویر تبدیل می کند" و در صورت علامت گذاری عکس هش آن یکسان یا تقریباً مشابه هش موجود در پایگاه داده CSAM شناخته شده است. هنگامی که حدود 30 عکس CSAM شناسایی شد ، می توان یک حساب را به مرکز ملی کودکان مفقود و مورد استثمار (NCMEC) گزارش داد ، آستانه ای که اپل برای اطمینان از این که "کمتر از یک در یک تریلیون شانس در سال پرچم گذاری اشتباه یک مورد وجود دارد" حساب." این آستانه در آینده می تواند تغییر کند تا نرخ مثبت یک به یک تریلیون مثبت کاذب حفظ شود.

    اپل استدلال کرده است که سیستم آن در واقع یک پیشرفت در زمینه حفظ حریم خصوصی است زیرا عکس ها را اسکن می کند ". محافظت از حریم خصوصی به روشی که می توانیم تصور کنیم و به حساس ترین و قابل بررسی ترین شکل ممکن انجام شود. "

    " اگر به سرویس ابری دیگر نگاه کنید ، آنها در حال حاضر با مشاهده تک تک عکس ها در ابر عکس ها را اسکن می کنند کریگ فدریقی ، معاون ارشد مهندسی نرم افزار اپل ، ماه گذشته گفت: "ما می خواستیم بتوانیم چنین عکس هایی را در ابر بدون مشاهده عکس افراد مشاهده کنیم و برای این کار معماری ایجاد کردیم." او گفت که سیستم اپل "بسیار خصوصی تر از هر چیزی است که قبلاً در این زمینه انجام شده است." اپل در این پروژه با NCMEC همکاری کرد ، که انتقادات مربوط به حریم خصوصی را ناشی از "صدای ناهنجار اقلیت" دانست. ظاهراً اپل این بیانیه را تأیید کرد ، زیرا آن را در یادداشت داخلی خود که از طرح اسکن عکس در روز اعلام دفاع از آن برای کارکنان توزیع کرد ،





خبرهای دیگر از سیاست فناوری