خبر

  • تک بورد - تحقیقات نشان می دهد که بدافزار می تواند در داخل مدل های هوش مصنوعی پنهان شود

    تحقیقات نشان می دهد که بدافزار می تواند در داخل مدل های هوش مصنوعی پنهان شود
    3 روز و 10 ساعت قبل

    پنهان کردن داده ها در درون یک طبقه بندی تصویر تقریباً مانند پنهان کردن آن در یک تصویر است.
    محققان Zhi Wang ، Chaoge Liu و Xiang Cui دوشنبه گذشته مقاله ای منتشر کردند که نشان دهنده روش جدیدی برای لغزش بدافزار در گذشته از ابزارهای تشخیص خودکار است - در این مورد ، پنهان کردن آن در داخل یک شبکه عصبی.

    این سه بدافزار 36.9MiB را در مدل AlexNet 178MiB جاسازی کرده اند بدون اینکه عملکرد مدل به طور چشمگیری تغییر کند. مدل جاسازی شده توسط بدافزار ، تصاویر را با دقت تقریباً یکسان ، در 1٪ مدل عاری از بدافزار طبقه بندی می کند. (این امکان وجود دارد زیرا تعداد لایه ها و نورون های کل در یک شبکه عصبی کانولوشن قبل از آموزش ثابت شده است - این بدان معنی است که ، دقیقاً مانند مغز انسان ، بسیاری از سلول های عصبی در یک مدل آموزش دیده در نهایت یا به طور کامل خاموش هستند.)

    به همان اندازه مهم ، مخرب کشیدن بدافزار در این مدل باعث شکسته شدن آن به روش هایی شد که از شناسایی توسط موتورهای ضد ویروس استاندارد جلوگیری می کند. سرویسی از ویروس توتال ، "مواردی را که دارای بیش از 70 اسکنر آنتی ویروس و سرویس های بلاک گذاری URL / domain هستند ، علاوه بر ابزارهای بی شماری برای استخراج سیگنال از محتوای مورد مطالعه ،" بررسی می کند ، هیچ گونه سوions ظن در مورد مدل جاسازی شده بدافزار ایجاد نکرد.

    Advertising

    تکنیک محققان بهترین لایه را برای کار در یک مدل آموزش دیده انتخاب می کند ، سپس بدافزار را در آن لایه جاسازی می کند. در یک مدل آموزش دیده موجود - به عنوان مثال ، یک طبقه بندی کننده تصویر که به طور گسترده در دسترس است - ممکن است به دلیل نداشتن نورون کافی خاموش یا عمدتاً خاموش ، تأثیر ناخواسته ای در دقت داشته باشد.

    اگر دقت بدافزار باشد مدل آمیخته شده کافی نیست ، مهاجم ممکن است در عوض انتخاب یک مدل غیر آموزش دیده را شروع کند ، تعداد زیادی نورون اضافی اضافه کند و سپس آن را بر روی همان مجموعه داده ای که مدل اصلی استفاده کرده آموزش دهد. این باید مدلی با اندازه بزرگتر اما دقت معادل آن تولید کند ، به علاوه این روش فضای بیشتری برای سنجاب کردن چیزهای تند و زننده در داخل فراهم می کند.

    خبر خوب این است که ما در واقع فقط در مورد استگانوگرافی صحبت می کنیم - روش جدید این است روشی برای پنهان کردن بدافزار ، نه اجرای آن. برای اجرای واقعی بدافزار ، باید توسط برنامه مخرب دیگری از مدل مسموم خارج شده و دوباره در فرم کار خود مونتاژ شود. خبر بد این است که مدل های شبکه عصبی به طور قابل توجهی بزرگتر از تصاویر عکاسی معمولی هستند - به مهاجمان این امکان را می دهد که داده های بسیار غیرقانونی را بدون شناسایی در داخل خود پنهان کنند.

    محقق امنیت سایبری ، دکتر لوکاس اولجنیک به مادربرد گفت که او این کار را نکرده است. فکر می کنم تکنیک جدید پیشنهاد زیادی برای یک مهاجم دارد. "امروز ، شناسایی آن توسط نرم افزار آنتی ویروس ساده نیست ، اما این فقط به این دلیل است که هیچ کس به دنبال آن نیست." اما این روش نمایانگر راه دیگری برای قاچاق بالقوه داده ها از طریق مراکز نگهداری دیجیتال و به یک شبکه داخلی است که احتمالاً از آن محافظت نمی شود.





خبرهای دیگر از اسباب