خبر

  • تک بورد - اپل اسکن همه آیفون ها و حساب های iCloud را برای تصاویر کودک آزاری انجام می دهد

    اپل اسکن همه آیفون ها و حساب های iCloud را برای تصاویر کودک آزاری انجام می دهد
    17 روز و 5 ساعت قبل

    اپل اعلام کرده که قصد دارد همه حساب های iPhone و iCloud در ایالات متحده را برای موارد سوء استفاده جنسی از کودکان (CSAM) اسکن کند. در حالی که این سیستم می تواند به نفع تحقیقات جنایی باشد و توسط گروه های حمایت از کودکان مورد ستایش قرار گرفته است ، نگرانی هایی در مورد پیامدهای احتمالی امنیت و حریم خصوصی وجود دارد.

    سیستم neuralMatch قبل از بارگذاری در iCloud در ایالات متحده با استفاده از فرایند تطبیق روی دستگاه ، همه تصاویر را اسکن می کند. اگر معتقد باشد که تصاویر غیرقانونی شناسایی شده است ، یک تیم از بررسی کنندگان انسانی هشدار داده می شود. در صورت تأیید سوء استفاده از کودک ، حساب کاربر غیرفعال می شود و مرکز ملی کودکان مفقودالاثر و استثمار شده ایالات متحده به آن اطلاع می دهد.

    NeuralMatch با استفاده از 200،000 تصویر از مرکز ملی کودکان مفقود و مورد استثمار آموزش داده شد. فقط تصاویر با هش هایی که با پایگاه داده مطابقت دارند را علامت گذاری می کند ، به این معنی که نباید مواد بی گناه را شناسایی کند. به جای اسکن تصاویر در ابر ، سیستم با استفاده از پایگاه داده ای از هش های شناخته شده CSAM ارائه شده توسط NCMEC و دیگر سازمان های ایمنی کودکان ، تطبیق روی دستگاه را انجام می دهد. اپل این پایگاه داده را به مجموعه ای از هش های ناخوانا که به طور ایمن بر روی کاربران ذخیره می شوند ، تبدیل می کند. وب سایت شرکت می خواند ، "devices". در آن ذکر شده است که کاربران می توانند در صورت احساس اشتباه بودن پرچم گذاری درخواست تجدید نظر کنند.

    اپل در حال حاضر فایل های iCloud را در برابر تصاویر شناخته شده مربوط به سوء استفاده از کودکان بررسی می کند ، اما گسترش آن به ذخیره سازی محلی پیامدهای نگران کننده ای دارد. متیو گرین ، محقق رمزنگاری در دانشگاه جان هاپکینز ، هشدار می دهد که این سیستم می تواند برای اسکن پرونده های دیگر ، مانند پرونده هایی که مخالفان دولت را شناسایی می کنند ، مورد استفاده قرار گیرد. "چه اتفاقی می افتد وقتی دولت چین می گوید: " در اینجا لیستی از پرونده هایی است که می خواهیم شما آنها را اسکن کنید "" ". "آیا اپل نه می گوید؟ امیدوارم آنها نه بگویند ، اما فناوری آنها نه خواهد گفت. "

    علاوه بر این ، اپل قصد دارد پیامهای رمزگذاری شده کاربران را برای محتوای جنسی واضح در کودکی اسکن کند اندازه ایمنی برنامه پیامها ابزارهای جدیدی را برای هشدار به کودکان و والدین آنها هنگام دریافت یا ارسال عکس های جنسی اضافه می کند. اما گرین همچنین گفت که کسی می تواند سیستم را فریب دهد تا تصور کند یک تصویر بی ضرر CSAM است. وی گفت: "محققان به راحتی این کار را انجام داده اند." این می تواند به یک بازیگر مخرب اجازه دهد با ارسال یک تصویر به ظاهر معمولی که سیستم اپل را فعال می کند ، فردی را قاب کند.

    https://techbord.com اپل همه اسناد iPhone و iCloud را برای تصاویر کودک آزاری

    " اسکن می کند ">

    " صرف نظر از برنامه های بلند مدت اپل ، آنها یک برنامه بسیار واضح ارسال کرده اند از نظر آنها (بسیار تأثیرگذار) ، ایجاد سیستم هایی که تلفن کاربران را برای محتوای ممنوعه اسکن می کنند ، بی خطر است. " "اینکه در این مورد درست یا غلط به نظر برسد اهمیت چندانی ندارد. این امر سد را می شکند - دولت ها از همه مطالبه خواهند کرد. "

    ویژگی های جدید در iOS 15 ، iPadOS 15 ، MacOS Monterey و WatchOS 8 ، که همه آنها در پاییز امسال راه اندازی می شوند.

    اعتبار اصلی: NYC Russ





خبرهای دیگر از اپل