امروز اپل اعلام کرد که از هرگونه درخواست دولت برای توسعه">

خبر

  • تک بورد - اپل می گوید از درخواست دولت برای گسترش اسکن عکس فراتر از CSAM خودداری می کند

    اپل می گوید از درخواست دولت برای گسترش اسکن عکس فراتر از CSAM خودداری می کند
    9 روز و 9 ساعت قبل

    اپل پس از یادداشتی که مدافعان حریم خصوصی "صدای جیغی" می نامند ، از اسکن کردن دفاع می کند

    امروز اپل اعلام کرد که از هرگونه درخواست دولت برای توسعه فناوری جدید اسکن عکس خود فراتر از برنامه فعلی استفاده از آن برای تشخیص CSAM (مواد سوء استفاده جنسی از کودکان) ، خودداری خواهد کرد. . ReadingApple توضیح می دهد که چگونه آیفون عکس ها را برای تصاویر سوءاستفاده جنسی از کودکان اسکن می کند

    اپل روزها با انتقاد کارشناسان امنیتی ، حامیان حریم خصوصی و کاربران حریم خصوصی بر سر طرحی که پنجشنبه اعلام کرد ، روبرو شده است که در آن آیفون ها و سایر دستگاه های اپل عکس ها را قبل از بارگذاری در iCloud اسکن می کنند. بسیاری از منتقدان خاطرنشان کردند که وقتی این فناوری روی دستگاه های مصرف کننده قرار گیرد ، برای اپل دشوار نخواهد بود که در پاسخ به خواسته های دولت برای نظارت گسترده تر ، آن را فراتر از تشخیص CSAM گسترش دهد. ما در مقاله ای پنجشنبه شب نحوه عملکرد برنامه را به طور مفصل توضیح دادیم.

    دولتها سالهاست که بر اپل فشار می آورند تا درب پشتی را در سیستم رمزگذاری سرتاسری خود نصب کند ، و اپل اذعان کرد که احتمالاً دولتها خواسته های دقیقی را مطرح کنید که کارشناسان امنیتی و حامیان حریم خصوصی درباره آن هشدار داده اند. در س FAالات متداول که امروز با عنوان "Expanded Protections for Children" منتشر شد ، س aالی وجود دارد که می پرسد: "آیا دولت ها می توانند اپل را مجبور کنند تصاویر غیر CSAM را به لیست هش اضافه کند؟"

    اپل پاسخ می دهد س asال به شرح زیر است:

    اپل از چنین خواسته هایی خودداری خواهد کرد. قابلیت تشخیص CSAM اپل تنها برای تشخیص تصاویر شناخته شده CSAM ذخیره شده در عکس های iCloud است که توسط متخصصان NCMEC (مرکز ملی کودکان مفقود شده و استثمار شده) و دیگر گروه های ایمنی کودکان شناسایی شده است. ما پیش از این با درخواست هایی برای ایجاد و استقرار تغییراتی که به دستور دولت حریم خصوصی کاربران را تضعیف می کند روبرو شده ایم و با قاطعیت این درخواست ها را رد کرده ایم. ما در آینده به رد آنها ادامه خواهیم داد. بگذارید واضح بگوییم ، این فناوری محدود به تشخیص CSAM ذخیره شده در iCloud است و ما به درخواست هیچ دولتی برای گسترش آن نمی پردازیم. علاوه بر این ، اپل قبل از ارائه گزارش به NCMEC ، بررسی انسانی را انجام می دهد. در مواردی که سیستم عکسهایی را که با تصاویر CSAM شناخته شده مطابقت ندارند پرچم می دهد ، حساب غیرفعال نمی شود و گزارشی به NCMEC ارسال نمی شود.

    هیچ کدام به این معنی نیست که اپل توانایی گسترش البته استفاده از فناوری اپل در پاسخ به این سوال که آیا سیستم اسکن عکس آن می تواند برای تشخیص موارد دیگری به غیر از CSAM مورد استفاده قرار گیرد یا خیر ، اپل گفت که "طوری طراحی شده است که از وقوع چنین اتفاقی جلوگیری کند."

    "تشخیص CSAM برای iCloud Photos به گونه ای ساخته شده است که اپل گفت که این سیستم فقط با هش های تصویر CSAM ارائه شده توسط NCMEC و سایر سازمان های ایمنی کودکان کار می کند. "هیچ گزارش خودکار به مجریان قانون وجود ندارد و اپل قبل از ارائه گزارش به NCMEC ، بررسی انسانی را انجام می دهد. در نتیجه ، این سیستم فقط برای گزارش عکس هایی طراحی شده است که CSAM در iCloud Photos شناخته شده است." تبلیغات

    اپل می گوید عکس های دیگر را به پایگاه داده تزریق نمی کند

    اما طراحی فعلی سیستم مانع از طراحی مجدد و استفاده از آن برای اهداف دیگر در آینده نمی شود. فناوری جدید اسکن عکس به خودی خود یک تغییر عمده برای شرکتی است که سالها از حریم خصوصی به عنوان نقطه فروش استفاده می کند و حریم خصوصی را "حقوق اساسی بشر" می نامد. امسال در به روز رسانی iOS 15 ، iPadOS 15 ، watchOS 8 و macOS Monterey ، برنامه فعلی این است که دستگاه های اپل عکس های کاربران را اسکن کرده و مواردی را که با پایگاه داده هش های شناخته شده CSAM مطابقت دارند گزارش دهند. سوالات متداول اپل به طور ضمنی تصدیق می کند که هش انواع دیگر تصاویر را می توان به لیست اضافه کرد ، اما در سند آمده است که اپل این کار را نمی کند.

    "آیا می توان تصاویر غیر CSAM را به سیستم" تزریق "کرد اپل نوشت: "روند ما طوری طراحی شده است که از وقوع چنین اتفاقی جلوگیری کند." "مجموعه ای از هش های تصویری که برای مطابقت استفاده می شود از تصاویر شناخته شده و موجود از CSAM است که توسط سازمان های ایمنی کودک به دست آمده و اعتبار آنها را تأیید کرده است. اپل به مجموعه هش های شناخته شده تصویر CSAM اضافه نمی کند."

    اپل همچنین گفت "ویژگی جدید فقط بر کاربرانی تأثیر می گذارد که از عکس های iCloud برای ذخیره عکس های خود استفاده کرده اند. بر کاربرانی که استفاده از iCloud Photos را انتخاب نکرده اند ، تأثیر نمی گذارد." در سوالات متداول اپل مشخص نشده است که چند نفر از iCloud Photos استفاده می کنند ، اما این یک ویژگی پرکاربرد است. بیش از 1 میلیارد آیفون به طور فعال در سراسر جهان استفاده می شود و برآورد تحلیلگران بارکلیز در سال 2018 نشان داد که iCloud (شامل همه سرویس ها ، نه فقط عکس های iCloud) 850 میلیون کاربر دارد.

    به نظر نمی رسد که اپل میزان انتقادی را که تصمیم خود برای اسکن عکس های کاربران دریافت می کند ، پیش بینی کرده باشد. پنجشنبه شب ، اپل یک یادداشت داخلی توزیع کرد که انتقادات را پذیرفت اما آن را به عنوان "صدای وحشتناک اقلیت" نادیده گرفت. "من می دانم که روز طولانی است و بسیاری از شما احتمالاً در 24 ساعت نخوابیده اید. ما می دانیم که روزهای آینده پر خواهد شد از صدای ناهنجار اقلیت. صداهای ما بلندتر خواهد شد. تعهد ما برای بلند کردن رودریکز نوشت: بچه هایی که غیرقابل تصورترین سوء استفاده ها و قربانیان را تجربه کرده اند قوی تر خواهند بود.

    این یادداشت توسط 9to5Mac تهیه و منتشر شده است. در قسمت یادداشت که توسط اپل نوشته شده است ، آمده است: "ما امروز پاسخ های مثبت بسیاری را مشاهده کرده ایم. می دانیم که برخی از مردم سوء تفاهم دارند و بیش از تعدادی از آنها نگران پیامدهای آن هستند ، اما ما به توضیح و شرح ویژگی ها برای افراد ادامه می دهیم. درک کنید که ما چه چیزی را ساخته ایم. " تبلیغات

    نامه سرگشاده در مورد گسترش استفاده از نظارت

    بیش از 6000 نفر با امضای نامه ای سرگشاده از اپل خواسته اند مسیر خود را تغییر دهد و می گوید "مسیر فعلی اپل تهدیدی برای تضعیف چندین دهه کار تکنسین ها ، دانشگاهیان و حامیان سیاست ها در جهت حفظ حریم خصوصی در اکثر دستگاه های الکترونیکی مصرف کننده و موارد استفاده از آنها عادی هستند. "

    این نامه به نقل از چندین کارشناس امنیتی از جمله محقق ندیم کوبیسی ، که نوشت:" یادآوری: اپل آیفون هایی را بدون FaceTime در عربستان سعودی می فروشد ، زیرا مقررات محلی تماس های رمزگذاری شده تلفن را ممنوع می کند. این تنها یک نمونه از بسیاری از مواردی است که اپل به فشار محلی متمایل شده است. وقتی مقررات محلی دستور می دهد که پیام ها برای همجنسگرایی اسکن شوند ، چه اتفاقی می افتد؟ "

    این نامه همچنین به نقل از پروفسور رمزنگاری دانشگاه جان هاپکینز متیو گرین است که به Wired گفته است: "فشار از انگلستان خواهد آمد. از ایالات متحده ، از هند ، از چین. من از ظاهر آن وحشت دارم. چرا اپل می خواهد به جهان بگوید "سلام ، ما این ابزار را داریم"؟ "





خبرهای دیگر از سیاست فناوری