techbord.com دانشمندان UCSD تکنیکی را ابداع کردند که سیستم های تشخیص عمیق جعلی را فریب می دهد

لبه خونریزی: همزمان با تکامل فناوری deepfake ، تشخیص اینکه چه زمان یک ویدیو دستکاری شده دشوارتر می شود. خوشبختانه ، گروه های مختلفی شبکه های عصبی پیچیده ای برای شناسایی چهره های جعلی ایجاد کرده اند. با این حال ، دانشمندان کامپیوتر هفته گذشته فاش کردند که آنها راهی برای فریب حتی قوی ترین مدل های تشخیص در مورد واقعی بودن جعلی دارند.

محققان دانشگاه کالیفرنیا ، سن دیگو ، تکنیکی را ایجاد کرده اند که می تواند الگوریتم های آموزش دیده برای کشف فیلم های جعلی عمیق را فریب دهد. با استفاده از یک روش دو مرحله ای ، دانشمندان کامپیوتر با استفاده از یک جعل عمیق قابل تشخیص ، اقدام به ساختن یک لایه "مثال خصمانه " در هر قاب می کنند تا جعلی جدید ایجاد کنند که تقریباً قابل شناسایی نیست.

مثالهای خصمانه تصاویر دستکاری شده که باعث بی نظمی سیستم یادگیری ماشین می شود و باعث می شود تصویری را به اشتباه تشخیص دهد. یک نمونه از این موارد که در گذشته مشاهده کرده ایم ، برچسب های خصمانه یا حتی نوار برقی است که برای فریب وسایل نقلیه خودمختار به اشتباه خواندن علائم راهنمایی و رانندگی استفاده می شود. با این حال ، برخلاف خدشه دار کردن علائم راهنمایی و رانندگی ، روش UCSD تغییری در ظاهر تصویری ویدیو ایجاد نمی کند. این جنبه از آنجا اهمیت دارد که هدف فریب هر دو نرم افزار تشخیص و بیننده است (به فیلم زیر مراجعه کنید).

محققان دو نوع حمله را نشان دادند - "White Box" و "Black Box". "با سو White استفاده جعبه سفید ، بازیگر بد همه چیز را در مورد مدل تشخیص هدفمند می داند. حملات Black Box زمانی است که مهاجم از معماری طبقه بندی استفاده شده بی اطلاع باشد. هر دو روش "به رمزگذارهای فشرده سازی فیلم و تصویر قوی هستند" و حتی می توانند "پیشرفته ترین" سیستم های تشخیص را گول بزنند.

از چند سال پیش در اینترنت ظاهر شد. در ابتدا ، این افراد در درجه اول خشم مردم در مورد شباهت خود را نشان می دهد در فیلم های پورنو است. با این حال ، با پیشرفت فن آوری ، مشخص شد که بازیگران بد یا ملتهای سرکش می توانند از آن برای تبلیغات یا اهداف شیطنت آمیزتر استفاده کنند.

دانشگاه ها اولین کسانی بودند که الگوریتم هایی را برای شناسایی تقلب های عمیق توسعه دادند ، و به دنبال آن به سرعت وزارت امور خارجه آمریکا دفاع. چندین غول فناوری از جمله توییتر ، فیس بوک و مایکروسافت نیز در حال توسعه روش هایی برای شناسایی جعل عمیق در سیستم عامل خود هستند. محققان می گویند بهترین روش برای مبارزه با این روش انجام آموزش خصمانه در سیستم های تشخیص است.

"ما Paarth Neekhara ، همکار ، توضیح داد: مقاله تحقیقاتی تیم. "یعنی در حین آموزش ، یک دشمن تطبیقی ​​همچنان به تولید Deepfakes جدیدی می پردازد که می تواند وضعیت فعلی ردیاب را دور بزند و ردیاب برای شناسایی Deepfakes جدید همچنان بهبود می یابد. "

گروه ارسال شده چندین نمونه از کارهای آن در GitHub. برای کسانی که به جزئیات فناوری علاقه مند هستند ، مقاله منتشر شده از طریق arXivLabs کورنل را بررسی کنید.

دانشمندان UCSD تکنیکی را ابداع کردند که سیستم های تشخیص عمیق جعلی را فریب می دهد
tech-culture/دانشمندان-ucsd-تکنیکی-را-ابداع-کردند-که-سیستم-های-تشخیص.html

آخرین مطالب سایت
techbord.com در حالیکه صنعت نیمه هادی آن افزایش یافته است ، چین از تراشه های پیر استفاده خواهد کرد
techbord.com این بسته هک اخلاقی با تخفیف 98 درصدی به فروش می رسد
techbord.com سامسونگ و Mastercard به طور مشترک در حال تهیه کارت پرداخت بیومتریک هستند
techbord.com اپل می گوید که iOS 14.5 به کاربران امکان تنظیم یک پخش کننده موسیقی پیش فرض را نخواهد داد
techbord.com Diablo II: Resurrectioned با پرونده های بازی ذخیره شده 20 ساله سازگار خواهد بود
techbord.com حمل جهانی ساعت های هوشمند به دلیل همه گیر شدن در اکثر مواقع در سال 2020 ثابت بود
copyright 2020 techbord.com
تمامی حقوق برای وبسایت تک بورد محفوظ است. استفاده از مطالب فقط با ذکر نام و لینک به صفحه منبع امکان پذیر است.