مارک زاکربرگ ، مدیرعامل فیس بوک ، سه سال پیش وقتی در مورد پیشرف">

خبر

  • تک بورد - گرداننده هوش مصنوعی فیس بوک فیلم های تیراندازی دسته جمعی و کارواش ها را اشتباه گرفت

    گرداننده هوش مصنوعی فیس بوک فیلم های تیراندازی دسته جمعی و کارواش ها را اشتباه گرفت
    20 روز و 13 ساعت قبل

    گزارش می گوید نگرانی های اجرایی از "اعمال بیش از حد" اجازه می دهد تا نفرت از بین برود.
    مارک زاکربرگ ، مدیرعامل فیس بوک ، سه سال پیش وقتی در مورد پیشرفت شرکت خود در ابزارهای تعدیل خودکار با استفاده از هوش مصنوعی نوشت ، یادداشتی خوش بینانه بیان کرد. او در نوامبر 2018 نوشت: "ما انتظار داریم تا پایان سال 2019 سیستم های خود را برای تشخیص فعال اکثریت قریب به اتفاق محتوای مشکل ساز آموزش داده باشیم."

    اما اخیراً در ماه مارس ، اسناد داخلی فیس بوک نشان می دهد که این شرکت متوجه شد ابزارهای خودکار تعدیل آن بسیار کوتاه است و پست هایی را که تنها بخش کوچکی از دیدگاه های نفرت و خشونت و تحریک را بر روی این پلتفرم داشتند حذف کرد. پست های حذف شده توسط ابزارهای هوش مصنوعی تنها 3 تا 5 درصد از دیدگاه های نفرت و 0.6 درصد از دیدگاه های خشونت و تحریک را شامل می شود.

    خواندن بیشتر

    فیس بوک " در حالی که این میزان از 2 درصد از نظرات نفرت دو سال پیش افزایش یافته است ، اما طبق اسنادی که توسط افشاگر فرانسیس هاوگن به وال استریت ژورنال تحویل داده شده است ، از اکثریت قریب به اتفاق فاصله دارد. یکی از مهندسان ارشد این شرکت در سال 2019 نوشت که احساس می کند شرکت می تواند به میزان بزرگی پیشرفت کند ، اما ممکن است آنها به سقفی برسند که پیشرفت بیشتر از آن دشوار خواهد بود.

    "مشکل این است که ما مدلی نداریم و احتمالاً هرگز نخواهیم داشت که حتی بیشتر آسیب های یکپارچگی را به ویژه در مناطق حساس جلب کند." "برآوردهای اخیر نشان می دهد که اگر تغییر عمده ای در استراتژی ایجاد نشود ، بهبود این محدوده بیش از 10 تا 20 درصد در کوتاه مدت بسیار دشوار خواهد بود."

    برای رسیدن به این تخمین ها ، فیس بوک نمونه ای از پست ها ، ابزارهای تعدیل هوش مصنوعی خود را روی آنها اعمال می کند ، و سپس از ناظران انسانی می خواهد تا صحت هوش مصنوعی را ارزیابی کنند. سپس از این بخش برای برآورد میزان ناسزاگویی یا خشونت و تحریک در سرتاسر جهان استفاده می کند.

    تبلیغات

    "وقتی در نظر بگیرید که 95 درصد از نقض سخنان نفرت را از دست می دهیم ، متوجه می شوید که ممکن است در واقع یک دانشمند داده در یادداشتی که در سال 2020 توسط BuzzFeed و WSJ گزارش شد ، 100 مورد نقض برای آن گروه به دست آورد.

    آمارهای متفاوت

    دیدگاه داخلی فیس بوک نسبت به هوش مصنوعی خود ابزارهای تعدیل بسیار بدبینانه تر از آن چیزی است که به مردم گزارش می دهد. بخشی از آن به این دلیل است که آنچه در داخل گزارش می شود و آنچه به مردم می گوید به طور ظریف ، هر چند کاملاً متفاوت است. در بیانیه های عمومی ، فیس بوک درصد سخنان نفرت انگیز کشف شده توسط هوش مصنوعی را قبل از گزارش کاربران ، افشا کرده است که این رقم بسیار بالا ، 98 درصد است. مشکل این است که موارد زیادی وجود دارد که سخنان نفرت انگیز گزارش نمی شود.

    اندی استون ، سخنگوی شرکت به WSJ گفت که ارقام مربوط به پست های حذف شده شامل سایر اقدامات پلتفرم مانند کاهش دسترسی به محتوای مشکوک نمی شود. به گفته وی ، در این زمینه ، محتوای نقض کننده سیاست ها در حال کاهش است و همان چیزی است که شرکت خود آن را قضاوت می کند. در سال 2020 بیشتر از سال 2017 است. هر چند این رقم برخی از جزئیات کلیدی را مبهم می کند. "ما می پرسیم ، چه عددی است؟ مخرج چیست؟ آن شماره را چگونه دریافت کردید؟ و سپس شبیه جیرجیرک است. "راشد رابینسون ، رئیس گروه حقوق مدنی Color of Change ، به WSJ گفت. "آنها هرگز کار خود را نشان نمی دهند."

    گزارش دادن سخت تر است

    امروزه ، ابزارهای هوش مصنوعی فیس بوک قبل از گزارش کاربران ، محتوای بیشتری را جذب می کنند ، زیرا دو سال پیش ، فیس بوک عمدا فایل گزارش را برای کاربران سخت تر کرده است. یک عارضه جانبی آن این بود که ابزارهای هوش مصنوعی قبل از اینکه کاربران در نهایت به آنها گزارش دهند ، قادر به دریافت پست های بیشتری بودند.

    خواندن بیشتر

    جدیدترین "عذرخواهی" فیس بوک یکی از نویسندگان این گزارش در مورد موانع اضافی که کاربران باید برای گزارش پست هایی که ممکن است خط مشی های سایت را نقض کنند ، گفت: "ما ممکن است سوزن را خیلی جلو برده باشیم". استون ، سخنگوی فیس بوک ، به WSJ گفت که این شرکت برخی از موانع را حذف کرده است.

    فیس بوک دارای انگیزه سود قوی است تا بتواند تعدیل خود را بیشتر کند. طبق گفته WSJ ، ناظران انسانی در سال 2019 104 میلیون دلار برای شرکت هزینه کردند و سه چهارم آن به مردم برای پاسخگویی به گزارشات کاربران پرداخت می شد. در آن سال ، فیس بوک هدف خود را "کاهش 15 درصدی هزین $ کل ظرفیت بررسی نفرت 15٪" عنوان کرد.

    تبلیغات

    علاوه بر این ، WSJ گزارش می دهد که فیس بوک در آن زمان الگوریتم خود را نیز تغییر داده است. روشی که باعث شد نتواند گزارشات کاربران بیشتری را نادیده بگیرد.

    سردرگمی هوش مصنوعی

    اسناد داخلی فیس بوک نشان می دهد که ابزارهای تعدیل هوش مصنوعی چقدر از شناسایی آنچه مدیران انسانی به راحتی در حال جذب آنها بودند فاصله دارد. به عنوان مثال نبرد خروس ها به اشتباه توسط AI به عنوان تصادف اتومبیل پرچم گذاری شد. در این گزارش آمده است: "اینها به وضوح فیلم های مبارزه خروس هستند." در نمونه ای دیگر ، ویدئوهای پخش شده توسط عاملان تیراندازی دسته جمعی توسط ابزارهای هوش مصنوعی به عنوان بازی پینت بال یا سفر با کارواش برچسب گذاری شد. خیلی بدتر در جاهای دیگر به عنوان مثال ، در افغانستان ، این شرکت در گزارشات خود گفت که فاقد فرهنگ لغت اهانت به زبانهای مختلف این کشور است. در نتیجه ، فیس بوک تخمین می زند که تنها 0.23 درصد از سخنان نفرت انگیز ارسال شده در پلت فرم در افغانستان را شناسایی کرده است.

    خواندن بیشتر

    الگوریتم ها نباید توسط بخش محافظت شوند. 230 ، فاش کننده فیس بوک به سنا می گوید گزارشات داخلی نشان می دهد که کاربران فیس بوک ترجیح می دهند این شرکت رویکرد تهاجمی تری برای اعمال نقض سیاست ها در مورد سخنان نفرت انگیز و خشونت و تحریک داشته باشد ، حتی اگر به معنای حذف تعداد بیشتری از پست های بیگناه باشد. در یک نظرسنجی ، کاربران سراسر جهان گفتند حذف محتواهای نادرست کمترین نگرانی آنها است و به فیس بوک گفتند که نفرت و خشونت باید بالاترین اولویت باشد. در ایالات متحده ، بیشتر کاربران احساس می کردند حذف نادرست یک مسئله است ، اما همچنان صحبت از نفرت و خشونت به عنوان اصلی ترین مشکل شناخته می شود.

    با این حال ، رهبری فیس بوک بیشتر به دنبال حذف پست های زیاد بوده است ، خودی های شرکت به WSJ گفتند. در نتیجه ، آنها گفتند ، در حال حاضر مهندسان به احتمال زیاد مدلهایی را تربیت می کنند که از موارد مثبت کاذب اجتناب کنند و باعث می شود که نفرت بیشتر از بین برود.





خبرهای دیگر از سیاست فناوری