خبر

  • تک بورد - اپل از اسکن عکس آیفون دفاع می کند و آن را

    اپل از اسکن عکس آیفون دفاع می کند و آن را "پیشرفت" در حفظ حریم خصوصی می نامد
    2 روز و 19 ساعت قبل

    فدریقی در مورد تشخیص سوء استفاده از کودکان گفت که اپل هنوز در زمینه حفظ حریم خصوصی پیشتاز است.

    تصمیم اپل مبنی بر اسکن آیفون و سایر دستگاه های اپل برای یافتن مطالب مربوط به سوء استفاده جنسی از کودکان (CSAM) باعث انتقاد کارشناسان امنیتی و حامیان حریم خصوصی شده است-و از سوی برخی از کارکنان اپل به گفته کریگ فدریقی ، معاون ارشد مهندسی نرم افزار این شرکت ، اپل معتقد است سیستم جدید آن پیشرفتی د

    فدریقی در مصاحبه با وال استریت ژورنال از سیستم جدید دفاع کرد و گفت که اپل قصد دارد عکس های سوء استفاده جنسی از کودکان را به گونه ای تشخیص دهد که از حریم خصوصی کاربران بیشتر از سایر سیستم های اسکن مهاجم محافظت کند. مجله امروز نوشت:

    در حالی که تلاش های جدید اپل با استقبال برخی همراه شده است ، این شرکت با انتقاداتی نیز روبرو شده است. یکی از مدیران سرویس پیام رسانی واتس اپ فیس بوک و دیگران ، از جمله ادوارد اسنودن ، رویکرد اپل را برای حفظ حریم خصوصی بد دانسته اند. نگرانی اصلی این است که آیا اپل می تواند از نرم افزاری استفاده کند که مواد غیرقانونی را شناسایی کند بدون اینکه سیستم مورد سوء استفاده دیگران قرار گیرد ، مانند دولتها ، و با فشار بر اطلاعات خصوصی بیشتر - پیشنهادی که اپل به شدت آن را رد کرده و آقای فدریقی گفته است که "چندین" در برابر آن محافظت می کند. سطوح حسابرسی پذیری. "

    " ما ، که خود را کاملاً در زمینه حفظ حریم خصوصی پیشرو می دانیم ، آنچه را که در اینجا انجام می دهیم به عنوان پیشرفتی در زمینه حریم خصوصی ، و ایجاد یک دنیای خصوصی تر ، می بینیم. فدریقی گفت: سرویس ابری ، آنها در حال اسکن عکس ها با نگاه کردن به تک عکس در ابر و تجزیه و تحلیل آن هستند. ما می خواستیم بتوانیم چنین عکس هایی را در ابر بدون مشاهده عکس افراد مشاهده کنیم و معماری برای این کار ارائه دادیم. " او گفت که سیستم اپل "بسیار خصوصی تر از هر چیزی است که قبلاً در این زمینه انجام شده بود."

    این سیستم کارکنان را تقسیم کرده است. سازمان خبری رویترز دیروز نوشت: "کارکنان اپل با بیش از 800 پیام در برنامه اعلام شده یک هفته پیش ، یک کانال داخلی Slack اپل را غرق کردند ، کارگرانی که خواستند نامشان فاش نشود به رویترز گفتند." به گفته کارگرانی که موضوع چند روزه را دیدند ، بسیاری ابراز نگرانی کردند که این ویژگی می تواند توسط دولتهای سرکوبگر که به دنبال یافتن مطالب دیگری برای سانسور یا دستگیری هستند مورد سوء استفاده قرار گیرد. "

    در حالی که برخی از کارکنان" نگران هستند که اپل به نظر می رسد که کارکنان امنیتی "اپل" [c] سنگ معدن در صدمه زدن به شهرت اصلی خود در محافظت از حریم خصوصی ، شاکیان اصلی این پست ها نبودند و برخی از آنها گفتند که فکر می کنند راه حل اپل پاسخی منطقی به فشار برای سرکوب مواد غیرقانونی است. ، "رویترز نوشت.

    تلفن هایی برای اسکن عکس ها قبل از بارگذاری در iCloud

    اپل هفته گذشته اعلام کرد دستگاه هایی که iCloud Photos را فعال کرده اند تصاویر را قبل از بارگذاری در iCloud اسکن می کنند. یک آیفون تقریباً هر عکس را بلافاصله پس از گرفتن آن در iCloud بارگذاری می کند ، بنابراین اگر کاربر قبلاً iCloud Photos را روشن کرده باشد ، اسکن نیز تقریباً بلافاصله اتفاق می افتد.

    خواندن بیشتر

    اپل توضیح می دهد که چگونه iPhone عکس ها را برای کودک اسکن می کند تصاویر سوء استفاده جنسی

    همانطور که گزارش دادیم ، اپل گفت فناوری آن "یک تصویر را تجزیه و تحلیل کرده و آن را به یک عدد منحصر به فرد مخصوص آن تصویر تبدیل می کند." این سیستم زمانی عکسی را علامت می زند که هش آن یکسان یا تقریباً مشابه هش موجود در پایگاه داده CSAM شناخته شده باشد. اپل گفت که سرور آن "در مورد عدم تطبیق تصاویر هیچ چیز نمی آموزد" و حتی دستگاه های کاربر نیز "هیچ نتیجه ای در مورد نتیجه مسابقه نمی آموزند زیرا این امر مستلزم آگاهی از راز کور کننده سمت سرور است."

    اپل همچنین گفت که طراحی سیستم آن "کمتر از یک در یک تریلیون در سال نشان می دهد که یک حساب مشخص نشان داده شده است" و این سیستم از یادگیری نتیجه اپل جلوگیری می کند "مگر اینکه حساب iCloud Photos از آستانه محتوای CSAM شناخته شده عبور کند." فدریقی به مجله گفت ، این آستانه تقریبا 30 عکس CSAM شناخته شده است. تبلیغات

    در حالی که اپل می تواند سیستم را برای اسکن انواع دیگر محتوا تغییر دهد ، این شرکت روز دوشنبه گفت که از هرگونه درخواست دولت برای توسعه فراتر از برنامه فعلی استفاده از فناوری تنها برای تشخیص CSAM خودداری خواهد کرد.

    خواندن بیشتر

    اپل می گوید از درخواست دولت برای گسترش اسکن عکس فراتر از CSAM خودداری می کند

    اپل به طور جداگانه یادگیری ماشین روی دستگاه را به برنامه Messages برای ابزاری که والدین در اختیار دارند ، اضافه می کند گزینه استفاده برای فرزندان خود. اپل می گوید فناوری پیام ها "پیوست های تصویر را تجزیه و تحلیل می کند و مشخص می کند که آیا عکس از نظر جنسی واضح است" بدون این که به اپل اجازه دسترسی به پیام ها را بدهد. این سیستم "هنگام دریافت یا ارسال عکس های جنسی به کودکان و والدین آنها هشدار می دهد." و اینکه سیستم جدید در ابتدا فقط در ایالات متحده اجرا می شود و بعداً به سایر کشورها می آید. کاری که اپل انجام می دهد فدریقی در گفتگو با وال استریت ژورنال گفت: "واضح است که بسیاری از پیامها از نظر نحوه درک چیزها بسیار بد آمیخته شده اند." "ما آرزو می کنیم که این امر برای همه کمی واضح تر نشان داده شود زیرا ما نسبت به کاری که انجام می دهیم بسیار مثبت و قوی هستیم."

    اعلان همزمان دو سیستم - یکی که اسکن عکس ها را برای مجله خاطرنشان کرد: CSAM و دیگری که پیوست پیام ها را برای مطالب جنسی واضح اسکن می کند - باعث شد برخی از افراد در رسانه های اجتماعی بگویند "نگران این هستند که عکس های خانوادگی نوزادانشان در حمام توسط اپل به عنوان پورنوگرافی علامت گذاری شود." /p>

    "در آینده نگری ، معرفی این دو ویژگی به طور همزمان دستور این نوع سردرگمی بود." "با رها کردن آنها در همان زمان ، مردم آنها را از لحاظ فنی به هم وصل کردند و بسیار ترسیدند: پیامهای من چه می شوند؟ پاسخ این است ... هیچ اتفاقی برای پیام های شما نمی افتد."





خبرهای دیگر از سیاست فناوری