خبر

  • تک بورد - اپل می گوید که درخواست های دولت برای گسترش اسکنر جدید محافظت از کودکان فراتر از تصاویر کودک آزاری را رد خواهد کرد

    اپل می گوید که درخواست های دولت برای گسترش اسکنر جدید محافظت از کودکان فراتر از تصاویر کودک آزاری را رد خواهد کرد
    5 روز و 22 ساعت قبل

    هنگامی که اپل هفته گذشته اعلام کرد که از پورت neuralMatch برای اسکن تمام حساب های iPhone و iCloud برای CSAM (مواد سوء استفاده جنسی از کودکان) هنگام عرضه iOS 15 در پاییز امسال استفاده می کند ، مدافعان حریم خصوصی ابراز نگرانی کردند که این یک گام جدید جدی در نقض خواهد بود. حریم خصوصی کاربر یکی از نگرانی های اصلی این است که ممکن است دولت ها از اپل بخواهند مطالبی را خارج از محدوده اصلی neuralMatch به ف

    اپل می گوید اجازه نمی دهد دولت ها محدوده سیستم اسکن تصویر محافظتی کودک خود را در آینده افزایش دهند ، اما نگرانی ها در مورد حریم خصوصی همچنان باقی است. آخر هفته گذشته اپل سوالات متداول را منتشر کرد که در آن نحوه عملکرد neuralMatch توضیح داده شد. مهمتر از همه ، اپل ادعا می کند که فقط از سیستم برای تشخیص CSAM شناخته شده استفاده می کند و این سیستم برای انجام کارهای دیگر طراحی نشده است. "قابلیت تشخیص CSAM اپل فقط برای تشخیص تصاویر شناخته شده CSAM ذخیره شده در عکس های iCloud است که توسط متخصصان NCMEC و سایر گروه های ایمنی کودکان شناسایی شده است." اپل تأکید می کند که سیستم به طور خودکار به نیروی انتظامی اطلاع نمی دهد ، در عوض هر گونه تصویر پرچم گذاری شده را توسط انسان بررسی می کند.

    سوالات متداول همچنین سعی می کند نگرانی هایی را که ممکن است CSAM به منظور پرچم گذاری حساب ها به neuralMatch تزریق شود ، تضمین کند. اپل به مجموعه هش های شناخته شده CSAM اضافه نمی کند. "مجموعه ای از هش ها در سیستم عامل هر کاربر iPhone و iPad ذخیره می شود ، بنابراین حملات هدفمند علیه افراد خاص تحت طراحی ما امکان پذیر نیست."

    برخی از حامیان حریم خصوصی قانع نشده اند. استیون مرداک ، مهندسی امنیت و استاد انجمن سلطنتی به موارد گذشته اشاره کرد که در آن این وعده عملی نشده است. "[ISP های بریتانیا] در دادگاه شکست خوردند و به هر حال این کار را کردند. آیا اپل در صورت قرار گرفتن در موقعیت مشابه بازار را ترک می کند؟ "

    اپل اشاره به جایی دارد که آنها از ایجاد قابلیت های جدید برای باز کردن قفل آیفون خودداری کرده اند. این با افزودن هش به پایگاه داده موجود متفاوت است. در موارد دیگر اپل به تقاضاهای قانونی برای کاهش امنیت ملحق شده است ، به عنوان مثال. محدود کردن دسترسی به رمزگذاری رله خصوصی و iCloud

    - استیون مرداک (sjmurdoch) 9 اوت 2021

    سیستم اپل هش تصاویر را در برابر پایگاه داده تصاویر مرکز ملی کودکان گم شده و مورد سوء استفاده قرار می دهد ، که اپل

    متیو گرین ، محقق رمزنگاری دانشگاه جان هاپکینز ، سناریویی را مطرح کرد که در آن وزارت دادگستری ایالات متحده می تواند به سادگی اپل را مستقیماً به NCMEC برساند و از آن بخواهد که مواد غیر CSAM را اضافه کند. ، و NCMEC می تواند بدون اطلاع اپل رضایت دهد.

    بدیهی است که NCMEC ممکن است به درخواست "نه" بگوید ، اما ممکن است نپذیرد ، به خصوص اگر بتوان از آن به عنوان محافظت از کودکان یاد کرد. و ممکن است اپل فقط هش را ببیند ، بنابراین نمی دانم که این اتفاق افتاده است. دستورات حفاظتی نیازی به بررسی قضایی ندارند https://t.co/MT5yYNmUh1

    - متیو گرین (matthew_d_green) 9 اوت 2021

    در تماس ، اپل در پاسخ به سوالی به جوزف کاکس از مادربرد گفت که سیستم در چین راه اندازی نمی شود اگر دولت چین از اپل بخواهد محتوای غیر CSAM را اسکن کند ، اپل چه خواهد کرد.





خبرهای دیگر از اپل