خبر

  • تک بورد - اپل می گوید در حال بررسی ایمیل های شما برای مطالب مربوط به کودک آزاری است

    اپل می گوید در حال بررسی ایمیل های شما برای مطالب مربوط به کودک آزاری است
    2 روز و 3 ساعت قبل

    چرا اهمیت دارد: همه گیری مطالب مربوط به سوء استفاده جنسی از کودکان در بسترهای آنلاین وجود دارد ، و در حالی که شرکت هایی مانند فیس بوک با پرچم گذاری آن در هر جایی که ظاهر می شود ، واکنش نشان می دهند ، اپل بی سر و صدا مجموعه ای از ابزارها را برای اسکن چنین محتواهایی توسعه می دهد. اکنون که پاسخ آن مورد توجه قرار گرفته است ، به منبع اصلی اختلاف نظر تبدیل شده است.

    در اوایل ماه جاری ، اپل اعلام کرد که قصد دارد اسکن آیفون ها و حساب های iCloud را در ایالات متحده برای محتوایی که می تواند به عنوان مواد سوء استفاده جنسی از کودکان (CSAM) توصیف شود ، آغاز کند. اگرچه این شرکت اصرار داشت که این ویژگی فقط به منظور کمک به تحقیقات جنایی است و صرف نظر از فشار دولت ، فراتر از محدوده اصلی آن گسترش نمی یابد ، این امر بسیاری از طرفداران اپل را گیج و ناامید کرد.

    اپل بازاریابی محصولات و خدمات خود به گونه ای که این تصور را ایجاد کند که حریم خصوصی تمرکز اصلی است و در هنگام در نظر گرفتن هر ویژگی جدید ، در لیست اولویت ها قرار دارد. در مورد ابزار تشخیص CSAM مبتنی بر هوش مصنوعی ، این شرکت برای iOS 15 ، macOS Monterey و سرویس iCloud آن توسعه داد ، دقیقاً برعکس را به دست آورد و بحث های داخلی و خارجی قابل توجهی را برانگیخت.

    https://techbord.com اپل می گوید که در حال حاضر ایمیل های شما را برای موارد سوء استفاده از کودکان

    علیرغم چند تلاش برای رفع ابهام در مورد ویژگی جدید ، توضیحات این شرکت تنها س questionsالات بیشتری را در مورد نحوه عملکرد دقیق آن ایجاد کرده است. امروز ، این شرکت وقتی به 9to5Mac گفت که در حال بررسی iCloud Mail برای CSAM است ، بمب دیگری را پرتاب کرد و این کار را در سه سال گذشته انجام داده است. از سوی دیگر ، عکس های iCloud و پشتیبان گیری iCloud اسکن نشده اند.

    این می تواند توضیحی بالقوه برای این باشد که چرا اریک فریدمن-که ریاست بخش ضد تقلب اپل را بر عهده دارد-گفت در یک موضوع iMessage (در محاکمه حماسه در مقابل اپل مشخص شد) "ما بزرگترین بستر برای پخش پورن کودکان هستیم. " فریدمن همچنین خاطرنشان کرد که وسواس اپل در حفظ حریم خصوصی ، اکوسیستم آن را به مکانی مناسب برای مردم تبدیل کرده است. به دنبال توزیع محتوای غیرقانونی ، برخلاف فیس بوک که در آن جمع آوری داده های گسترده آشکارسازی فعالیت های پلید را بسیار آسان می کند.

     https://techbord.com اپل می گوید که در حال حاضر ایمیل های شما را برای مواد کودک آزاری جستجو می کند

    به نظر می رسد که اپل از فناوری تطبیق تصویر برای کمک به پیدا کردن و گزارش استفاده می کند استثمار کودکان "عمدتا در چند سال گذشته تحت رادار قرار گرفت و فقط به طور مختصر در یک کنفرانس فناوری در سال 2020 ذکر شد. در همین حال ، فیس بوک پرچم و حذف سالانه میلیونها تصویر از کودک آزاری وجود دارد و در انجام این کار بسیار شفاف است.

    به نظر می رسد که اپل با این فرض کار می کند که از آنجا که سایر سیستم عامل ها باعث می شوند افراد نتوانند کارهای بدی را بدون دریافت آنها انجام دهند حساب غیرفعال شده است ، آنها به طور طبیعی برای جلوگیری از تشخیص به سمت استفاده از خدمات Apple می روند. اسکن iCloud Mail برای پیوست های CSAM ممکن است به شرکت اطلاعاتی درباره نوع محتوایی که افراد از طریق آن ارسال می کنند ، داده باشد و احتمالاً حتی در تصمیم گیری برای گسترش ابزارهای تشخیص CSAM برای پوشش بیشتر نقش داشته است.

    در هر صورت به این ترتیب ، درک انگیزه های اپل آسان تر نمی شود و همچنین توضیح نمی دهد که چگونه ابزارهای تشخیص CSAM آن از حریم خصوصی کاربران محافظت می کند یا از سوء استفاده دولتی جلوگیری می کند.





خبرهای دیگر از اپل