خبر

  • تک بورد - اگر الگوریتم های YouTube مردم را رادیکالیزه کنند ، تشخیص داده ها دشوار است

    اگر الگوریتم های YouTube مردم را رادیکالیزه کنند ، تشخیص داده ها دشوار است
    23 روز و 11 ساعت قبل

    ردیابی رفتار کاربران نشان می دهد که اکثر مردم از سوراخ خرگوش رادیکال خارج نمی شوند.
    همه ما شاهد چنین اتفاقی بوده ایم: یک ویدئو را در YouTube تماشا کنید و توصیه های شما تغییر کند ، گویی الگوریتم های گوگل فکر می کنند موضوع ویدئو شور زندگی شما است. ناگهان ، همه ویدئوهای توصیه شده - و احتمالاً بسیاری از تبلیغات - که در اختیار شما قرار گرفته اند در این زمینه هستند.

    بیشتر ، نتایج کمدی هستند. اما دائماً داستان هایی در مورد چگونگی رادیکالی شدن این فرایند وجود دارد که آنها را به سوراخ خرگوش عمیق تر می فرستد تا زمانی که تمام دیدگاه آنها تحت سلطه ایده های حاشیه ای و نظریه های توطئه قرار گیرد.

    یک مطالعه جدید منتشر شد در روز دوشنبه بررسی می کند که آیا این داستانها نشان دهنده روند بزرگتری هستند یا فقط مجموعه ای از حکایات هستند. در حالی که داده ها نمی توانند وجود رادیکالیزاسیون آنلاین را رد کنند ، اما قطعاً نشان می دهد که این رایج ترین تجربه نیست. در عوض ، به نظر می رسد ایده های حاشیه ای فقط بخشی از یک جامعه بزرگتر خود تقویت کننده هستند. -تماشای عادات بدون آن که افراد بدانند -و به طور بالقوه رفتار خود را بر این اساس تغییر دهند. محققان با دریافت داده هایی از نیلسن ، که به سادگی آنچه را که مردم تماشا می کنند ، ردیابی می کند ، بر روی این موضوع کار کردند. مردم به نیلسن اجازه می دهند عادات خود را ردیابی کند و شرکت داده های حاصله را ناشناس می کند. برای این مطالعه ، محققان داده های بیش از 300000 بیننده را به دست آوردند که به طور کلی بیش از 21 میلیون ویدیو را در YouTube در مدت زمانی که از سال 2016 تا پایان سال 2019 ادامه داشت ، مشاهده کردند.

    اکثر این ویدئوها هیچ ارتباطی با سیاست ، بنابراین نویسندگان از ادبیات برای شناسایی مجموعه بزرگی از کانالهایی که تحقیقات قبلی بر اساس گرایش سیاسی آنها برچسب گذاری کرده بودند ، استفاده کردند ، از چپ افراطی تا مرکزگرای تا راست افراطی. به آن لیست ، محققان مقوله ای را اضافه کردند که آنها آن را "ضد بیداری" نامیدند. در حالی که آنها همیشه آشکارا سیاسی نیستند ، مجموعه رو به رشدی از کانال ها بر "مخالفت با جنبش های عدالت اجتماعی مترقی" تمرکز می کنند. در حالی که این کانال ها با علایق راست گرایان همخوانی دارند ، اغلب ایده ها توسط میزبان ویدئوها به این شکل ارائه نمی شود.

    تبلیغات

    همه آنها گفته شد ، کانال هایی که محققان آنها را طبقه بندی کردند (فقط کمتر از 1000 مورد از آنها) در این مدت تنها 3.3 درصد از کل بازدیدهای ویدیو را به خود اختصاص داده است. و کسانی که آنها را مشاهده کردند تمایل داشتند از یک نوع محتوا استفاده کنند. اگر در سال 2016 تماشای محتوای چپ را شروع کرده اید ، احتمالاً وقتی دوره مطالعه در سال 2020 به پایان رسید ، همچنان آن را تماشا می کردید. در واقع ، بر اساس زمان صرف شده در هر ویدئو ، به احتمال زیاد بیشتر در آن مشاهده خواهید کرد 2020 ، شاید به عنوان محصول بحث برانگیز سالهای ترامپ. .)

    تقریباً همه انواع محتوای خارج از حومه نیز در این مدت رشد داشته اند ، هم از نظر تعداد بینندگان و هم از نظر مدت زمان صرف تماشای فیلم ها در این کانالها (به استثنای چپ و دور) -محتوای درست) این یافته نشان می دهد که حداقل برخی از روندها نشان دهنده استفاده روزافزون از YouTube به عنوان جایگزینی برای رسانه های پخش سنتی تر است. راحت تر می توان آنها را گروه های متمایزی دانست. محققان تعداد افراد متعلق به هر گروه و همچنین زمان تماشای فیلم ها در دوره چهار ساله را پیگیری کردند. ترکیب شده؛ پس از آن مرکز گرایان دنبال کردند. جریان اصلی راست و ضد بیداری این دوره را تقریباً در همان سطح راست افراطی آغاز کرد. اما همه آنها روندهای متفاوتی را نشان دادند. تعداد کل بینندگان راست افراطی ثابت ماند ، اما مدت زمانی که برای تماشای فیلم ها صرف کردند افزایش یافت. در مقابل ، تعداد کل بینندگان راست جریان اصلی افزایش یافت ، اما میزان تماشای آنها با راست افراطی تفاوت چندانی نداشت.

    بینندگان ضد بیدار بیشترین میزان رشد را نشان دادند از هر گروه در پایان این دوره ، آنها زمان بیشتری را صرف تماشای ویدئو نسبت به مرکزگراها کردند ، حتی اگر جمعیت آنها کمتر باشد.

    تبلیغات

    آیا هیچ کدام از اینها نشان دهنده رادیکالیزاسیون است؟ عدم رشد قابل ملاحظه در دو حالت افراطی نشان می دهد که روند عمده ای از مشاهده YouTube وجود ندارد که مردم را به سمت چپ یا راست افراطی سوق می دهد. در واقع ، محققان شواهدی پیدا کردند که بسیاری از افراد راست افراطی فقط از YouTube به عنوان بخشی از اکوسیستم سایت هایی که در آن مشغول بودند استفاده می کردند. (باز هم ، چپ افراطی برای تجزیه و تحلیل بسیار کوچک بود.) ویدئوهای راست افراطی بیشتر از طریق ویدئوهای دیگر از طریق پیوندهای وب سایت های راست به آنها می رسید.

    علاوه بر این ، هیچ نشانه ای از هیچ گونه شتاب گیری مشاهده نشد. اگر الگوریتم های YouTube افراد را به سمت ویدئوهای شدیدتر هدایت کند ، فرکانس ویدیوهای راست افراطی باید تا پایان یک جلسه مشاهده افزایش یابد. این اتفاق نیفتاد-در حقیقت ، برعکس اتفاق افتاد.

    چسبنده ، اما رادیکال نیست

    با این حال ، محققان توجه می کنند که محتوای راست افراطی برای تماشاگران کمی چسبنده تر بود. صرف زمان بیشتری برای آن ، حتی اگر جامعه بینندگان راست افراطی رشد قابل توجهی نداشته باشد. مواد ضد بید هنوز چسبنده بودند و بیشترین رشد بینندگان را به خود دیدند. علاوه بر این ، افرادی که چندین فیلم ضد بیداری را در یک جلسه مشاهده کرده اند ، در آینده به تماشای آنها ادامه می دهند.

    اگرچه ویدئوهای ضد بیداری خود را کاملاً سیاسی نشان نمی دادند ، اما بینندگان آنها تمایل داشتند بر اساس ادغام آنها با اکوسیستم بزرگتر وب سایت های راست گرا ، آنها را راست گرا بدانند. با این حال ، این امر باعث افراط گرایی نشد-با داشتن بینندگان بیشتر ضد بیداری در نهایت بینندگان راست افراطی بیشتری ایجاد نشد. محدودیت ها. برای اولین بار ، فقط استفاده از مرورگر دسکتاپ را ردیابی کرد ، بنابراین مشاهده تلفن همراه را از دست داد. محققان همچنین نتوانستند الگوریتم های یوتیوب را در واقع توصیه کنند ، بنابراین آنها تنها می توانند پاسخ واقعی به توصیه ها را بر اساس رفتار کلی استنباط کنند. و مانند همیشه ، رفتار متوسط ​​کاربران می تواند برخی از استثنائات چشمگیر را پنهان کند.

    به گفته محققان ، "در پلتفرمی با تقریبا 2 میلیارد کاربر ، نمونه هایی از تقریباً هر نوع رفتاری را می توان یافت." it.

    PNAS ، 2021. DOI: 10.1073/pnas.2101967118 (درباره DOI ها).





خبرهای دیگر از علوم پایه