خبر

  • تک بورد - حالا که ماشین ها می توانند یاد بگیرند ، آیا می توانند یادگیری را از یاد ببرند؟

    حالا که ماشین ها می توانند یاد بگیرند ، آیا می توانند یادگیری را از یاد ببرند؟
    5 روز و 18 ساعت قبل

    محققان می بینند که آیا می توانند داده های حساس را بدون آموزش مجدد هوش مصنوعی از ابتدا حذف کنند.
    شرکتهای مختلف از یادگیری ماشینی برای تجزیه و تحلیل خواسته ها ، ناپسندها یا چهره افراد استفاده می کنند. برخی از محققان اکنون س differentال متفاوتی را مطرح می کنند: چگونه می توانیم ماشین ها را به فراموشی بسپاریم؟

    حوزه نوپایی از علوم رایانه که به آن یادگیری ماشین گفته می شود به دنبال راه هایی برای ایجاد فراموشی انتخابی در نرم افزارهای هوش مصنوعی است. هدف این است که همه آثار یک شخص یا نقطه داده خاص را از سیستم یادگیری ماشین بدون تأثیر بر عملکرد آن حذف کنیم. از آن. اگرچه کاربران می توانند از برخی شرکت ها بخواهند اطلاعات شخصی خود را حذف کنند ، اما عموماً در مورد الگوریتم هایی که اطلاعات آنها به تنظیم یا آموزش آنها کمک کرده است ، در تاریکی هستند. عدم یادگیری ماشین می تواند این امکان را برای فرد ایجاد کند که هم اطلاعات خود را جمع آوری کند و هم شرکت بتواند از آن سود ببرد.

    https://techbord.com حالا که ماشین ها می خواهند یاد بگیرند ، آیا من یاد یادگیری را از یاد ببرند؟ اگرچه برای هرکسی که آنچه را که به صورت آنلاین به اشتراک گذاشته اند خراب کرده است ، این مفهوم فراموشی مصنوعی مستلزم ایده های جدیدی در علوم کامپیوتر است. شرکت ها میلیون ها دلار صرف آموزش الگوریتم های یادگیری ماشین برای تشخیص چهره ها یا رتبه بندی پست های اجتماعی می کنند ، زیرا الگوریتم ها اغلب می توانند سریعتر از برنامه نویسان انسانی مشکلی را سریعتر حل کنند. اما پس از آموزش ، سیستم یادگیری ماشین به راحتی تغییر نمی کند ، یا حتی قابل درک نیست. روش مرسوم برای از بین بردن تأثیر یک نقطه داده خاص ، بازسازی یک سیستم از ابتدا است ، یک تمرین بالقوه پرهزینه. آرون روث ، پروفسور دانشگاه پنسیلوانیا که در حال کار بر روی یادگیری ماشینی است می گوید: "هدف این تحقیق یافتن زمینه میانی است." "آیا می توانیم همه اطلاعات داده های شخصی را هنگام درخواست حذف آنها حذف کنیم ، اما از هزینه کامل بازآموزی از ابتدا اجتناب کنیم؟" هوش می تواند حریم خصوصی را از بین ببرد تنظیم کنندگان داده در سراسر جهان مدتهاست که این قدرت را دارند که شرکت ها را مجبور به حذف اطلاعات بد بدست آمده کنند. شهروندان برخی مناطق مانند اتحادیه اروپا و کالیفرنیا حتی می توانند در صورت تغییر نظر در مورد آنچه افشا کرده اند ، از یک شرکت درخواست کنند اطلاعات آنها را حذف کند. اخیراً ، تنظیم کننده های ایالات متحده و اروپا گفته اند که صاحبان سیستم های هوش مصنوعی باید گامی فراتر بگذارند: حذف سیستمی که بر روی داده های حساس آموزش دیده است.

    سال گذشته ، تنظیم کننده اطلاعات بریتانیا به شرکت ها هشدار داد که برخی از دستگاه ها نرم افزارهای یادگیری ممکن است مشمول حقوق GDPR مانند حذف داده ها باشند ، زیرا یک سیستم هوش مصنوعی می تواند حاوی اطلاعات شخصی باشد. محققان امنیتی نشان داده اند که گاهی اوقات می توان الگوریتم ها را مجبور به نشت اطلاعات حساس مورد استفاده در ایجاد آنها کرد. در اوایل سال جاری ، کمیسیون تجارت فدرال ایالات متحده ، استارتاپ تشخیص چهره Paravision را مجبور کرد مجموعه ای از عکس های چهره و الگوریتم های یادگیری ماشین را که با آنها آموزش دیده بود حذف کند. روهیت چوپرا ، کمیسیونر FTC ، از تاکتیک های اجرایی جدید به عنوان راهی برای مجبور ساختن یک شرکت نقض قوانین داده به "محرومیت از نتایج فریب خود" ، تقدیر کرد. سوالات ریاضی ناشی از آن تغییرات نظارتی. محققان نشان داده اند که می توانند الگوریتم های یادگیری ماشین را در شرایط خاصی فراموش کنند ، اما این تکنیک هنوز برای زمان نخست آماده نیست. روث می گوید: "همانطور که برای یک رشته جوان معمول است ، بین آنچه که این منطقه آرزو دارد انجام دهد و ما می دانیم چگونه باید انجام دهیم" فاصله وجود دارد. از تورنتو و ویسکانسین-مدیسون شامل تفکیک داده های منبع برای یک پروژه یادگیری ماشین جدید به چندین قسمت است. سپس هریک جداگانه پردازش می شوند ، قبل از اینکه نتایج در مدل نهایی یادگیری ماشین ترکیب شوند. اگر بعداً یک نقطه داده باید فراموش شود ، فقط بخشی از داده های ورودی اصلی باید دوباره پردازش شوند. نشان داده شد که این رویکرد بر روی داده های خریدهای آنلاین و مجموعه ای از بیش از یک میلیون عکس کار می کند.

    تبلیغات

    روث و همکاران پن ، هاروارد و استنفورد اخیراً نقصی در این رویکرد نشان داده اند که نشان می دهد اگر درخواست های حذف شده ارسال شده در یک دنباله خاص ، چه به صورت تصادفی و چه از سوی یک بازیگر مخرب ، سیستم یادگیری از کار بیفتد. آنها همچنین نشان دادند که چگونه می توان مشکل را کاهش داد. چگونه می توان یادگیری را بیش از یک کنجکاوی آزمایشگاهی ایجاد کرد. گروه تحقیقاتی خود در حال بررسی این موضوع است که چقدر سیستم با عدم یادگیری پی در پی چندین نقطه کاهش می یابد. یک سیستم واقعاً آنچه را که قرار بود یاد بگیرد فراموش کرده است. او می گوید: "به نظر می رسد کمی در راه است ، اما شاید آنها در نهایت برای این نوع کارها حسابرسان داشته باشند." همانطور که FTC و دیگران به قدرت الگوریتم ها توجه بیشتری می کنند. روبن بینس ، استاد دانشگاه آکسفورد که در زمینه حفاظت از داده ها مطالعه می کند ، می گوید این تصور که افراد باید در مورد سرنوشت و ثمره داده های خود اظهار نظر کنند در سال های اخیر در ایالات متحده و اروپا افزایش یافته است.

    قبل از اینکه شرکت های فناوری بتوانند یادگیری ماشین را به عنوان راهی برای کنترل بیشتر افراد بر سرنوشت الگوریتمی داده های خود به مردم ارائه دهند ، کار فنی مجازی انجام خواهند داد. حتی در آن صورت ، این فناوری ممکن است در مورد خطرات حفظ حریم خصوصی عصر هوش مصنوعی تغییر چندانی نکند. اپل ، گوگل و مایکروسافت همگی از این فناوری استقبال می کنند ، اما از آن به ندرت استفاده می شود و خطرات مربوط به حریم خصوصی همچنان زیاد است.

    Binns می گوید که اگرچه می تواند واقعاً مفید باشد ، "در موارد دیگر این بیشتر چیزی است شرکت نشان می دهد که در حال نوآوری است. " او مظنون است که یادگیری ماشین ممکن است شبیه به هم باشد ، بیشتر نشان دهنده مهارت فنی است تا یک تغییر اساسی در حفاظت از داده ها. حتی اگر ماشین ها فراموش کردن را یاد بگیرند ، کاربران باید به خاطر داشته باشند که مراقب باشند با چه کسانی داده ها را به اشتراک می گذارند.

    این داستان در ابتدا در wired.com ظاهر شد.





خبرهای دیگر از فناوری اطلاعات