خبر

  • تک بورد - اپل توضیح می دهد که چگونه آیفون ها عکس ها را برای تصاویر سوءاستفاده جنسی از کودکان اسکن می کنند

    اپل توضیح می دهد که چگونه آیفون ها عکس ها را برای تصاویر سوءاستفاده جنسی از کودکان اسکن می کنند
    21 روز و 5 ساعت قبل

    اپل با ارائه جزئیات فنی ، 1 در 1 تریلیون احتمال مثبت بودن کاذب را دارد.
    بلافاصله پس از گزارش امروز که اپل شروع به اسکن آیفون برای تصاویر کودک آزاری می کند ، این شرکت برنامه خود را تأیید کرد و جزئیات آن را در یک بیانیه خبری و خلاصه فنی ارائه کرد.

    "روش اپل برای تشخیص CSAM (مواد سوء استفاده جنسی از کودکان) با توجه به حریم خصوصی کاربران طراحی شده است." "به جای اسکن تصاویر در ابر ، سیستم با استفاده از یک پایگاه داده از هش های CSAM شناخته شده تصویر ارائه شده توسط NCMEC (مرکز ملی کودکان مفقود شده و استثمار شده) و سایر سازمان های ایمنی کودکان ، تطبیق روی دستگاه را انجام می دهد. اپل این پایگاه داده را به یک خوانا غیر قابل تغییر تبدیل می کند. مجموعه ای از هش ها که به طور ایمن بر روی دستگاه های کاربران ذخیره می شوند. "

    اپل در یک خلاصه فنی جزئیات بیشتری در مورد سیستم تشخیص CSAM ارائه داد و گفت که سیستم آن از یک آستانه" برای ارائه دقت بسیار بالا استفاده می کند و کمتر از یک در یک تریلیون شانس در هر سال نشان دادن اشتباه یک حساب خاص را تضمین می کند. "

    این تغییرات" اواخر امسال در به روزرسانی های iOS 15 ، iPadOS 15 ، watchOS 8 و macOS اعمال می شود. مونتری ، "اپل گفت. اپل همچنین نرم افزاری را برای تجزیه و تحلیل تصاویر در برنامه پیام ها برای سیستم جدیدی به کار می گیرد که "هنگام دریافت یا ارسال عکس های جنسی به کودکان و والدین آنها هشدار می دهد."

    اپل متهم به ایجاد "زیرساخت برای نظارت"

    علی رغم اطمینان اپل ، کارشناسان امنیتی و حامیان حریم خصوصی از این طرح انتقاد کردند.

    "اپل سیستم پیام های رمزگذاری شده استاندارد به صنعت خود را با زیرساختی برای نظارت و سانسور جایگزین می کند. گرگ نوجیم ، یکی از مدیران پروژه امنیت و نظارت مرکز دموکراسی و فناوری ، گفت: "این امر نه تنها در ایالات متحده ، بلکه در سراسر جهان در معرض سوء استفاده قرار خواهد گرفت." "اپل باید این تغییرات را کنار بگذارد و ایمان کاربران خود را به امنیت و یکپارچگی داده های خود در دستگاه ها و خدمات اپل بازگرداند." "در سیستم های رمزگذاری خود ، می گوید که انجام این کار امنیت همه کاربران را تضعیف می کند. اپل به دلیل این موضع توسط کارشناسان امنیتی مورد ستایش قرار گرفته است. پروفسور رمزنگاری دانشگاه جان هاپکینز ، متیو گرین در توییتر پیشنهاد داد ، اما با برنامه خود برای استقرار نرم افزاری که اسکن روی دستگاه را انجام می دهد و نتایج منتخب را با مقامات به اشتراک می گذارد ، به طور خطرناکی به عنوان ابزاری برای نظارت دولت عمل می کند.

    < p> اسکن طرف مشتری که اپل امروز اعلام کرد می تواند در نهایت "عنصر اصلی در افزودن نظارت بر سیستم های پیام رسانی رمزگذاری شده باشد". "توانایی افزودن سیستم های اسکن مانند این به سیستم های پیام رسانی E2E [رمزگذاری سرتاسر به پایان] یک درخواست عمده از سوی نیروی انتظامی در سراسر جهان بوده است." تبلیغات

    اسکن پیام و "مداخله" Siri

    علاوه بر اسکن دستگاه ها برای تصاویر منطبق با پایگاه داده CSAM ، اپل گفت که برنامه Messages را به روز می کند تا "ابزارهای جدیدی برای هشدار اضافه کند" کودکان و والدین آنها هنگام دریافت یا ارسال عکس های جنسی واضح. "

    " پیام ها از یادگیری ماشینی روی دستگاه برای تجزیه و تحلیل پیوست های تصویر و تعیین اینکه آیا عکس از نظر جنسی واضح است یا خیر استفاده می کند. این ویژگی به گونه ای طراحی شده است که اپل این کار را انجام ندهد. Apple به پیامها دسترسی پیدا کند.

    وقتی عکسی در Messages علامت گذاری شد ، عکس تار می شود و به کودک هشدار داده می شود ، منابع مفیدی به او ارائه می شود و اطمینان می دهد که اگر مشکلی نباشد نمی خواهم این عکس را ببینم. " این سیستم به والدین اجازه می دهد در صورت مشاهده عکس پرچم گذاری شده پیامی دریافت کنند و "اگر کودکی سعی کند عکس های جنسی را ارسال کند ، محافظت مشابهی وجود دارد. قبل از ارسال عکس به کودک هشدار داده می شود و والدین می توانند پیام دریافت کنند اگر کودک تصمیم بگیرد آن را ارسال کند ، "اپل گفت.

    اپل گفت که Siri و Search را نیز به روز می کند تا" در صورت مواجهه با شرایط ناامن اطلاعات والدین و کودکان را در اختیار آنها قرار دهد. " سیستم های Siri و Search "هنگامی که کاربران جستجوهای مربوط به CSAM را جستجو می کنند" مداخله می کنند و "به کاربران توضیح می دهند که علاقه به این موضوع مضر و مشکل زا است و منابعی را برای کمک در این زمینه از شرکا ارائه می دهند."

    مرکز دموکراسی و فناوری ، اسکن عکس در پیام ها را "در پشتی" نامید و نوشت:

    مکانیزمی که اپل را قادر می سازد تا تصاویر را در پیام ها اسکن کند ، جایگزین درب پشتی نیست. پشت در است اسکن سمت مشتری از یک طرف "ارتباط" امنیت انتقال را از بین می برد و اطلاع رسانی به شخص ثالث (والدین) درباره محتوای ارتباطات ، حریم خصوصی آن را تضعیف می کند. سازمان های سراسر جهان از اسکن طرف مشتری هشدار داده اند زیرا می تواند به عنوان راهی برای دولت ها و شرکت ها برای نظارت بر محتوای ارتباطات خصوصی مورد استفاده قرار گیرد.

    فناوری اپل برای تجزیه و تحلیل تصاویر

    سند فنی اپل در زمینه تشخیص CSAM شامل چند قول خصوصی در مقدمه است. "اپل در مورد تصاویری که با پایگاه داده CSAM شناخته شده مطابقت ندارند ، چیزی نمی آموزد." "تا زمانی که آستانه مسابقات برای حساب iCloud Photos فراتر نرود ، اپل نمی تواند به فراداده یا مشتقات بصری دسترسی داشته باشد." به یک شماره منحصر به فرد مخصوص آن تصویر. فقط تصویر دیگری که تقریباً یکسان به نظر می رسد می تواند همان شماره را تولید کند ؛ به عنوان مثال ، تصاویری که از نظر اندازه یا کیفیت کدگذاری متفاوت هستند ، همچنان دارای ارزش NeuralHash یکسانی خواهند بود.

    < p> قبل از اینکه iPhone یا دستگاه دیگری از Apple تصویر را در iCloud بارگذاری کند ، "دستگاه یک کوپن امنیتی رمزنگاری ایجاد می کند که نتیجه مسابقه را رمزگذاری می کند. همچنین NeuralHash تصویر و یک مشتق بصری را رمزگذاری می کند. این کوپن به همراه iCloud Photos بارگذاری می شود. تصویر " آگهی

    با استفاده از "اشتراک مخفی آستانه" ، سیستم Apple "تضمین می کند که محتویات کوپن های ایمنی توسط Apple تفسیر نمی شود مگر اینکه حساب iCloud Photos از آستانه محتوای CSAM شناخته شده عبور کند." "تنها در صورت فراتر رفتن از آستانه ، فناوری رمزنگاری به اپل اجازه می دهد تا محتویات کوپن های ایمنی مرتبط با تصاویر CSAM را منطبق کند." ، اپل گفت که "به طور دستی تمام گزارشات ارائه شده به NCMEC را بررسی می کند تا از صحت گزارش اطمینان حاصل شود." اگر معتقدند که حساب آنها به اشتباه پرچم گذاری شده است ، کاربران می توانند "درخواست تجدیدنظر برای بازگرداندن حساب خود" ارائه کنند.

    دستگاه های کاربر برای ذخیره پایگاه داده CSAM کور

    دستگاه های کاربر یک پایگاه داده "کور" را ذخیره خواهند کرد اپل توضیح داد: "که به دستگاه اجازه می دهد زمان مطابقت عکس با تصویر موجود در پایگاه داده CSAM را تعیین کند ،

    ابتدا ، اپل NeuralHashes مربوط به CSAM شناخته شده را از سازمان های ایمنی کودک فوق دریافت می کند. در مرحله بعد ، این NeuralHashes مجموعه ای از تغییرات را شامل می شود که شامل آخرین مرحله کورسازی است ، که از رمزنگاری منحنی بیضوی پشتیبانی می کند. کور کردن با استفاده از راز کور کردن سمت سرور انجام می شود که فقط برای اپل شناخته شده است. هش های CSAM کور شده در یک جدول هش قرار می گیرند ، جایی که موقعیت در جدول هش کاملاً تابعی از NeuralHash تصویر CSAM است. این پایگاه داده کور به طور ایمن در دستگاه های کاربران ذخیره می شود. ویژگی های رمزنگاری منحنی بیضوی این اطمینان را می دهد که هیچ دستگاهی نمی تواند در مورد هش های اصلی تصویر CSAM از پایگاه داده کور چیزی استنباط کند. ورود به جدول هش کور شده. " دستگاه "همچنین از هش کور شده که سیستم برای دستیابی به کلید رمزگذاری مشتق شده استفاده می کند" استفاده می کند و از این کلید رمزگذاری "برای رمزگذاری داده های بار مربوطه استفاده می کند." تصاویر منطبق با پایگاه داده CSAM رمزگشایی خواهند شد ، اپل نوشت:

    اگر هش تصویر کاربر با ورودی موجود در لیست هش CSAM مطابقت داشته باشد ، NeuralHash تصویر کاربر دقیقاً به هش کور تبدیل می شود. از طریق مجموعه ای از تحولات انجام شده در زمان راه اندازی پایگاه داده. بر اساس این ویژگی ، سرور قادر خواهد بود از سرفصل رمزنگاری (مشتق شده از NeuralHash) استفاده کند و با استفاده از راز سمت سرور ، می تواند کلید رمزگذاری مشتق شده را محاسبه کرده و داده های بار مرتبط را با موفقیت رمزگشایی کند.

    اگر تصویر کاربر مطابقت نداشته باشد ، مرحله بالا به کلید رمزگذاری مشتق شده صحیح منجر نمی شود و سرور قادر به رمزگشایی داده های بار مرتبط نیست. بنابراین سرور در مورد عدم تطبیق تصاویر چیزی نمی آموزد.

    دستگاه از نتیجه مسابقه مطلع نمی شود زیرا این امر مستلزم آگاهی از راز کور کننده سمت سرور است.

    در نهایت ، مشتری تصویر را به همراه کوپن حاوی داده های بارگذاری رمزگذاری شده و سربرگ رمزنگاری شده روی سرور بارگذاری می کند.

    همانطور که قبلاً ذکر شد ، می توانید خلاصه فنی را در اینجا بخوانید. اپل همچنین توضیحات طولانی تر و مفصل تری از فناوری رمزنگاری "تقاطع مجموعه خصوصی" منتشر کرد که تعیین می کند آیا یک عکس با پایگاه داده CSAM مطابقت دارد بدون اینکه نتیجه را فاش کند.





خبرهای دیگر از سیاست فناوری