خبر

  • تک بورد - تاریخچه پردازنده مدرن گرافیک ، قسمت 5

    تاریخچه پردازنده مدرن گرافیک ، قسمت 5
    20 روز و 17 ساعت قبل

    در آخرین بخش تاریخچه پردازنده گرافیکی مدرن ، به مرحله ای رسیده بودیم که بازار فقط از سه رقبا تشکیل شده بود: AMD ، Intel و Nvidia. تا سال 2013 ، همه برای طراحی معماری خود مسیری مشابه را دنبال می کردند و همه رایانه های شخصی و ایستگاه های کاری را هدف قرار می دادند. این امر با توجه به مسیری که رندر می گیرد ، الزامات تعیین شده توسط API های گرافیکی و کاربرد گسترده GPU ها در محاسبات و هوش مصنوعی دیکته می

    با این وجود ، در سالهای بعد ، پردازنده های گرافیکی به یکی از بزرگترین ، پیچیده ترین و گرانترین اجزایی تبدیل می شوند که تقریباً در هر دستگاه محاسباتی یافت می شوند.

    ... در سالهای بعد ، پردازنده های گرافیکی به یکی از بزرگترین ، پیچیده ترین و گرانترین اجزایی تبدیل می شوند که تقریباً در هر دستگاه محاسباتی یافت می شوند.

    چیزی قدیمی ، چیز جدید ، به علاوه دادخواست خوبی برای راه اندازی

    در سال 2014 شاهد معماری های جدیدی بودیم که توسط بسیاری از فروشندگان بزرگ عرضه شد و همچنین تعداد زیادی از محصولات با استفاده از فناوری های قدیمی تر بودند. در مورد AMD ، خط تولید آنها تقریباً از سیستم های قبلی تشکیل شده بود. در بازار دسک تاپ ، مدل هایی با استفاده از Graphics Core Next (GCN) 1.0 و حتی معماری قدیمی تر TeraScale 2 به ما داده شد. یک نمونه خوب از نمونه قبلی ، Radeon R9 280 بود که در ماه مارس عرضه شد.

    این Radeon HD 7950 از دو سال قبل با نام تجاری جدید بود ، اما حداقل AMD در مقایسه با این قیمت منطقی است که با قیمت پایین تری عرضه شود. تا اولین تکرار آن اندکی پس از آن محصول ، Radeon R9 295X مجهز به GCN 2.0 ظاهر شد و قطبی برخلاف 280 بود.

    \

    فناوری قدیمی ، دو برابر شده ، باعث تعجب شد نتایج

    دو GPU ورزشی ، یک سیستم خنک کننده آب سفارشی و برچسب قیمت 1499 دلار ، مستقیماً به بالای میزهای عملکردی پرید و ما از خوب بودن آن بسیار خوشحال شدیم (علی رغم هزینه سرسام آور).

    در سپتامبر 2014 ، AMD Radeon R9 285 را منتشر کرد - این کارت دارای یک تراشه جدید است ، با تجدید ساختار GCN خود ، که باعث ایجاد پیشرفت های جزئی در حافظه پنهان و سیستم های tessellation در جدول. با قیمت 250 دلار جایگزین R9 280 قدیمی شد و در هر ساعت با ساعت های بالاتر عرضه می شد. هرچند به دلیل داشتن 25٪ پهنای باند حافظه ، سرعت آن بسیار اندک بود.

    https://techbord.com تاریخچه پردازنده مدرن گرافیک ، قسمت 5

    طرح اولین GPU GCN 3.0 AMD - R9 285 دارای چهار کنترل کننده حافظه غیرفعال شده است. تصویر: PC Watch

    عجیب به نظر می رسد که AMD با GCN 3.0 پیشرفت کمی داشته باشد اما در آن زمان آنها با بدهی های کلان و سطح ضعیف درآمد عملیاتی دست و پنجه نرم می کردند. برای مقابله با این موضوع ، آنها بر بازارهای سودآورتر مانند سیستم های کم مصرف و طراحی های نیمه سفارشی تمرکز کردند. در مقابل ، ثروت انویدیا در آن سال بسیار پر رونق بود. آنها علی رغم برخی تصمیمات عجیب و غریب در مورد محصولات ، هم در درآمد و هم در درآمد خالص سود ثابت داشتند. مانند AMD ، آنها از سیستم های قدیمی ، سیستم های تازه شده و معماری جدیدی (Maxwell) استفاده كردند - در مورد مدل دوم ، از آن در یك مدل برتر و هاله استفاده نمی شد ، اما در عوض با قیمت 150 دلار به نمایش درآمد. پیشنهاد میان رده.

    \

    الهام بخش ترین انتخاب برای برجسته کردن معماری جدید GPU نیست

    GeForce GTX 750 Ti برای رقابت با مانند Radeon R7 265 AMD. علی رغم فن آوری جدید ، به طور کلی به سرعت Radeon نبود. اگر تمام انویدیا در فوریه 2014 ارائه می شد ، شاید تصور می شد که آنها شتاب خود را از دست می دهند.

    این موضوع پیچیده تر شد زیرا انویدیا بدون هیچ سر و صدایی ، بهترین خط خود را - GeForce را تازه کرد. GTX Titan - با افزودن ساده کلمه "سیاه" و سرعت کلاک کمی بیشتر. با قیمت 999 دلار ، گرانتر از جدش نبود ، اما به سختی می توانست خبرساز شود.

    برای مبارزه با Radeon R9 295X2 AMD در ماه آوریل ، انویدیا Titan Z را در زیر به بازار عرضه کرد. ماه به عنوان تمرینی در تمبرهای خالص ، به دلایل غلط توجه زیادی را به خود جلب کرد.

    \

    اندازه کینگ کنگ ، قیمت گودزیلا ، عملکرد آقای مگو

    به سختی هیچ نمونه ای برای تجزیه و تحلیل از بازرسان صادر شد و هیچ یک حاضر نبودند شخصاً قیمت 2999 دلار را بپردازند. برای عده معدودی که موفق به آزمایش آن شدند ، عملکرد کلی برای چنین کالای گران قیمت کمتر از ایده آل بود - به طور کلی از R9 295X2 و دو کارت قدیمی GeForce GTX 780 Ti انویدیا در SLI بدتر است.

    در ماه سپتامبر ، هنگامی که سری GeForce GTX 900 وارد فروشگاه شد ، حتی با وجود اینکه فقط دو مدل در دسترس بود ، مسائل بسیار بهبود یافتند.

    GeForce GTX 980 و 970 دارای تراشه های مبتنی بر Maxwell ، البته با جزئیات ، اصلاحات ، و ادامه به گرفتن عناوین متعدد. مدل اول با قیمت 529 دلار و 329 دلار بود ، مدل های جدید هر دو ارزان تر از GTX 780 و 770 در هنگام راه اندازی بودند. عملکرد خوب ، رقابتی بودن در برابر پیشنهادات AMD و کاتالوگ برگشت انویدیا بود.

    https: / /techbord.com تاریخچه پردازنده گرافیک مدرن ، قسمت 5

    در کل ، باید پایان سال انویدیا برای سال موفقیت آمیز باشد ، اما GTX 970 ویژگی \" را پنهان می کرد که به سرعت تمام مطبوعات خوبی را که در زمینه راه اندازی سری جدید ایجاد شده بود خنثی می کند.

    در برگه مشخصات مدل آمده است که دارای 4 گیگابایت حافظه GDDR5 7 گیگابیت بر ثانیه با حافظه 256- گذرگاه بیت - برای اهداف و اهداف مشابه همان GTX 980. جزئیات با این ادعا که GPU دارای 64 ROP (واحد خروجی ارائه) و 2 مگابایت حافظه پنهان L2 است.

    با این حال ، چیزی که انویدیا در مورد آن سکوت کرد این بود که کاملاً درست نیست - فقط 56 ROP و 1.75 MB حافظه پنهان L2 داشت ، به این معنی که گذرگاه حافظه باید فقط 224 بیت باشد و بنابراین فقط 3.5 گیگابایت حافظه داخلی باشد. رم. 0/5 گیگابایت دیگر کجا بود؟

    در واقع آنجا بود ، بنابراین "4 گیگابایت در یک گذرگاه 256 بیتی" بود ، اما نه به همان روشی که در GTX 980 وجود داشت. به دلیل پیکربندی درگاه های میله ای و کنترل کننده های حافظه ، سیستم می تواند به صورت موازی در اتصال 224 بیتی به 3.5 گیگابایت بخواند یا بنویسد یا برای 0.5 گیگابایت باقیمانده از یک گذرگاه 32 بیتی استفاده کند.

    https://techbord.com تاریخچه پردازنده گرافیک مدرن ، قسمت 5 \

    با بلوک حافظه نهان L2 در غیر فعال GTX 970 ، دسترسی به 0.5 گیگابایت آخر به شدت جریمه شد

    با روشن شدن خبر این فریب آشکار ، انویدیا برای توضیح اوضاع دست به گریبان شد و علت آن را اشتباه در انتشار اسناد خود برای مطبوعات دانست. .

    آنها توضیحاتی را در مورد تنظیمات ارائه دادند (همانطور که در تصویر بالا شرح داده شده است) و بابت اشاره به اینکه تنظیمات حافظه ROP + در واقع مشکلی نبوده و کاملاً عمدی بوده است ، از این اشتباه عذرخواهی کردند. اما خسارت وارد شد و دو سال بعد ، آنها مجبور به ارائه غرامت به دعاوی حقوقی متعددی شدند و به طور علنی 30 دلار به کلیه خریداران GTX 970 پیشنهاد دادند.

    اینتل همچنین معماری جدیدی را در سال 2014 با نام رمز منتشر کرد. Gen8 ، به عنوان بخشی اصلی از پردازنده های Broadwell آنها. پردازنده های گرافیکی مجتمع با وجود این که بخش قابل توجهی از پردازنده مرکزی هستند تقریباً هرگز علاقه ای به آنها نمی رساند ، اما این طرح پیشرفت های قابل توجهی نسبت به نسخه قبلی خود داشته است.

    \"

    Core i5 در سال 2014 از پردازنده مرکزی GPU بیشتر بود

    هر دو جفت پردازنده SIMD (دستورالعمل واحد ، داده های چندگانه) در اتحادیه اروپا (واحدهای اجرا) اکنون می توانند عملیات نقطه صحیح و شناور را انجام دهند ، در حالی که این فقط پردازش قبلی بود. با پشتیبانی از فرمت های داده FP16 - دوباره با دو برابر افزایش ، دو برابر م effectiveثر در میزان کارایی عدد صحیح مطابقت داشت.

    این تغییرات باعث شده GPU های کوچک با قابلیت های معماری تراشه های AMD و Nvidia در ارتباط باشند - با این وجود ، کمبود اتحادیه اروپا ، واحدهای بافت و ROP ها هنوز آنها را برای بازی نامناسب ساخته است.

    نه اینکه GPU های کوچک توانایی اجرای بازی های مناسب را ندارند ...

    < p> در دنیای گوشی های هوشمند ، اپل آیفون 6 را در ماه سپتامبر به بازار عرضه کرد ، مجهز به طراحی داخلی A8 SoC (سیستم روی تراشه). این پردازنده از ساختارهای مجاز CPU و GPU از Arm و PowerVR استفاده می کند ، اما مورد اخیر نیز حاوی برخی واحدهای سفارشی ساخته شده توسط خود اپل است.

    \

    اپل در حال معرفی اولین Metal API جدید خود بود . این مجموعه از کتابخانه ها شامل گرافیک و سایه پردازی محاسباتی بود که همگی به شدت برای GPU های آیفون و iPad بهینه شده اند. با آشنایی بیشتر توسعه دهندگان با این نرم افزار به مرور ، این امر به محصولات اپل مزیت عملکردی متمایز نسبت به رقبا داد.

    نیاز به کنترل برنامه نویسی بهتر و کتابخانه های کم تأخیر فقط محدود نشده بود. به تلفن های هوشمند در پشت صحنه ، گروه Khronos (یک کنسرسیوم از ارگانهای صنعت) شروع به کار در ایجاد جانشین OpenGL کردند - هدف این کار تهیه یک گرافیک بین پلتفرمی و محاسبه API بر اساس کار AMD با نرم افزار Mantle است.

    و نرم افزار قرار بود به یکی از ویژگیهای مهم سال بعد تبدیل شود.

    چیزی قدیمی ، چیز جدید ... صبر کنید ، این دوباره؟

    از بسیاری جهات ، سال 2015 فقط تکرار سال قبل بود. AMD نزدیک به 30 کارت گرافیک مختلف را راه اندازی کرد که اکثریت آنها از معماری قدیمی GCN 1.0 یا 2.0 استفاده می کنند.

    پیشکسوت تراشه سیلیکون رویکرد اسلحه را برای زمان بندی عرضه محصولات در نظر گرفت. در ماه ژوئن ، فقط یک هفته ظاهر RC Radeon R9 390X مجهز به GCN 2.0 (اساساً یک GPU R9 295X2 ، با یک ضربه ساعت) و Radeon R9 Fury X کاملاً جدید را جدا کرد.

    اگرچه تفاوت 200 دلاری بین این دو ، گران تر Fury می تواند این قیمت را توجیه کند. پردازنده گرافیکی 596 mm2 ، با نام رمز فیجی ، در 4069 واحد سایه بان حیرت انگیز بسته بندی شده است - 45٪ بیشتر از 390X. همچنین این اولین کارت گرافیک در سطح مصرف کننده بود که از HBM (حافظه پهنای باند بالا) استفاده می کرد.

    \

    یک کارت گرافیک کوچک با پردازنده گرافیکی عظیم - باید باشد Radeon R9 Fury X

    این فناوری شامل قرار دادن تراشه های DRAM بر روی یکدیگر و اجرای اتصالات از طریق آنها است. نتیجه نهایی یک سیستم کاملاً جمع و جورتر است که پهنای باند حافظه زیادی را فراهم می کند ، البته در کل بیش از 4 گیگابایت از آن ، برای تکرار اول.

    اما همه آن سایه بان ها و RAM جدید فانتزی به بازار آمدند. هزینه - هم به معنای واقعی و هم به صورت مجازی. حداکثر مصرف برق زیاد بود (البته بیشتر از R9 390X نبود) و طراحی AMD با دما مشکل داشت. بنابراین Fury X با تنظیمات خنک کننده آب یکپارچه فروخته شد ، که بسیار کارآمد بود.

    نسخه غیر X به دلیل داشتن ساعتهای کمتر و 8 ، کاملاً خنک بود و به آن احتیاج نداشت. واحدهای محاسبه غیرفعال شده است و همه انواع شخص ثالث مدل از ترکیب گرمایشی سنتی و فن استفاده می کنند. همانطور که Radeon R9 Nano ، نسخه کودک AMD Fury X ، یک ماه بعد به بازار آمد.

    \

    R9 Nano - گرمای کمتری ، اندازه کوچکتر ، همان قیمت Fury X

    کارتهای گرافیکی فیجی با عملکرد بسیار خوب و با وجود برچسب قیمت ، گرما و نسبتاً کم حافظه ، بهترین عملکرد AMD را داشتند ، فروش بسیار خوبی داشت. این امر با رقابت سخت Nvidia روبرو خواهد شد ، حتی اگر آنها در نیمه اول سال نسبتا کم کلید باشند ، با توجه به محصولات جدید هیجان انگیز.

    چیز دیگری که AMD در اوایل سال 2015 ارائه کرد این بود FreeSync - جایگزینی بدون حق امتیاز برای G-Sync انحصاری انویدیا (نگاهی به مقاله 2021 ما بخوانید). هر دو سیستم با نرخ تازه سازی متغیر بودند که به مانیتورها اجازه می داد تا برای به روزرسانی فریم همگام بمانند و مشکل پارگی صفحه را کاهش دهند ، بدون اینکه میزان تغییرات را قفل کنند.

    GPU های Radeon توانایی انجام این کار را برای در حالی که تراشه های GeForce در آن زمان به دستگاه خارجی احتیاج داشتند که در مانیتور تعبیه شود.

    برای انویدیا ، اکثر نسخه های منتشرشده از آنها بودجه و مدل های میان رده بودند که مشهورترین آنها GeForce GTX بود. 960 ، در ابتدای سال ظاهر می شود. فقط 199 دلار و با استفاده از 120 وات ، این پیشرفت بهتری بود که انویدیا با معماری ماکسول به دست آورده بود.

     https://techbord.com تاریخچه پردازنده مدرن گرافیک ، قسمت 5

    GPU GM204 اساساً همان چیزی است که در GeForce GTX 980 وجود دارد ، اما به دو قسمت تقسیم شده است

    < p> از نظر عملکرد ، همسان با نمونه های Radeon R9 280 و 280X و کمی ارزان تر بود. این تفاوت کاملاً به تفاوت تراشه های استفاده شده در محصولات رقیب برمی گردد - GTX 960 دارای یک پردازنده گرافیکی 228 mm2 ، متشکل از 2.94 میلیارد ترانزیستور است ، در حالی که مدل های قدیمی AMD از تراشه های 432 mm2 با 4.31 میلیارد ترانزیستور استفاده می کردند.

    علیرغم اینکه هر دو در گره فرایند 28 نانومتری TSMC تولید شده اند ، معماری جدید نشانگر میزان پیشرفتی است که از زمان ظهور GCN 1.0 تاکنون حاصل شده است.

    در انتهای دیگر مقیاس GPU ، انویدیا فقط دو مدل جدید ارائه داد و هر دو از تراشه GM200 یکسان استفاده کردند. GeForce GTX Titan X در ماه مارس و GeForce GTX 980 Ti در ماه ژوئن به بازار عرضه شدند. اولی با برچسب قیمت 999 دلار ، بازار بسیار خوبی را هدف قرار می داد ، اما 980 Ti با قیمت 649 دلار روانه بازار شد - هنوز هم بسیار گران قیمت ، اما برای مخاطبان بیشتر بسیار خوشایندتر.

    \

    Radeon R9 Fury X هنوز ظاهر نشده بود و کارت های گرافیک برتر انویدیا در معرض R9 295X2 و 290X قرار می گرفتند. بسته به بازی ، آنها عملکرد بهتری ارائه می دهند ، اگرچه مدلهای AMD بسیار مقرون به صرفه تر بودند.

    2015 همچنین با انتشار نرم افزارها و اطلاعیه هایی که می توانند جهت GPU ها و فروشندگان آنها را شکل دهند ، ارائه می شود. برای معماری های آینده خود دنبال می کنند در ماه مارس ، در کنفرانس سالانه توسعه دهندگان بازی ها ، گروه Khronos پروژه ای را که در حال کار بودند به طور عمومی نامگذاری کرد: Vulkan به یک موضوع داغ تبدیل شد.

    این API گرافیک جدید مزایای قابل توجهی نسبت به OpenGL و Direct3D دارد ، بیشتر در شکل انتقال بسیاری از مدیریت حافظه ، رشته ها و GPU به توسعه دهندگان و دور از درایورهای GPU. این به شما کمک می کند تا مقدار سربار پردازنده که سیستم های موجود در آن زمان با آن دست و پنجه نرم می کنند بسیار کاهش یابد.

    \

    چهار ماه بعد ، مایکروسافت ویندوز 10 را راه اندازی کرد و همراه آن ، DirectX 12.

    بخش گرافیکی این API به نام Direct3D ویژگی های مشابه Vulkan را ارائه می دهد ، اگرچه فقط به سیستم عامل جدید محدود شده است - کاربران با نسخه های قدیمی ویندوز مجبور شدند با DirectX 11 باقی بمانند. .

    نه اینکه بهترین شروع تبلیغاتی را داشته باشد. اولین بازی DirectX 12 فقط به طور طبیعی یک بازی مایکروسافت بود - Gears of War: Ultimate Edition. عنوان یک آشفتگی فاجعه بار بود ، با اشکالات بی شماری و عملکرد وحشتناک. بازی های دیگر با استفاده از API جدید قرار بود در سال بعد ظاهر شوند ، اما مدت زمان بیشتری طول می کشد تا نرم افزار به پتانسیل کامل خود برسد.

    یکی از ویژگی های آن ، محاسبه ناهمزمان ، مورد توجه ویژه توسعه دهندگان قرار گرفت. سایه بانهای محاسبه برای مدتی بخشی از DirectX بودند ، اولین بار در DX11 در سال 2008 (و از طریق پسوندها در OpenGL و نرم افزار CUDA انویدیا) ظاهر شدند. این سایه بان ها که به طور خاص توسط API DirectCompute اداره می شوند ، با خط لوله جداگانه ای به خط گرافیکی (به عنوان مثال راس ، هندسه ، سایه های پیکسلی) اجرا می شوند و از توانایی محاسبات عمومی بیشتر برای GPU استفاده می کنند.

    \

    جابجایی بین خطوط لوله معمولاً منجر به مجازات عملکرد می شود ، بنابراین توانایی اجرای همزمان هر دو با محاسبه ناهمزمان به طور بالقوه قدرتمند است. با این وجود ، علیرغم اینکه AMD و Nvidia ادعا می کنند آخرین معماری های آنها سازگار با DirectX 12 است ، اما تنها پردازنده گرافیکی AMD از این ویژگی بهترین استفاده را کرده است - تراشه های Maxwell انویدیا برای این کار به خصوص خوب طراحی نشده اند.

    قبل از بسته شدن سال ، Google نرم افزار TensorFlow خود را به منبع آزاد منتقل كرد و به عموم مردم اجازه دسترسی كامل به كتابخانه هوش مصنوعی و ابزارهای یادگیری ماشین را داد. گرچه این اولین در نوع خود نبود ، اما تلاش های گوگل در آن سال با اینتل (با DAAL) ، مایکروسافت (CNTK) و آپاچی (MXNet) مطابقت داشت.

    کارتهای گرافیکی قبلاً موجود بودند در حال استفاده برای چنین نقش هایی (AI ، ML) ، اما افزایش تقاضا برای توانایی محاسبات کاملاً موازی می تواند بر چگونگی تولید GPU غالب باشد.

    در جایی که نرم افزار Intel برای پردازنده های اصلی بود ، Google و Apache برای استفاده در انواع سخت افزارها باز بود و AMD و Nvidia به سرعت پشتیبانی از آنها را با مجموعه ابزارها و درایورهای خود ادغام کردند. گوگل خود برای سرعت بخشیدن به شبکه های عصبی خاص ، "GPU" خود را که واحد پردازش تنسور نامیده می شود ، توسعه می دهد.

    \

    Nvidia DRIVE PX2 ظاهر می شود در اوایل سال 2016

    کارتهای گرافیکی قبلاً برای چنین نقشهایی مورد استفاده قرار می گرفتند ، اما افزایش تقاضا برای توانایی محاسبات کاملاً موازی می تواند بر چگونگی تولید GPU غالب باشد. اولین ورود جدی Nvidia به دنیای یادگیری ماشین به صورت Jetson TX1 و Nvidia DRIVE صورت گرفت.

    هر دو سیستم از Tegra X1 SoC استفاده کردند. این تراشه کوچک شامل هسته های پردازنده و پردازنده گرافیکی با استفاده از معماری Arm Cortex-A57 برای اولی و Nvidia\'s Maxell برای دومی است. اگرچه هیچ نیروگاهی نبود ، اما نکته ای در تاریخ انویدیا به وجود آمد که نشان می داد تمرکز آنها بر انجام کارهایی بیش از بازی نیست.

    یک سال طلایی برای پردازنده های گرافیکی

    هر یک از علاقه مندان رایانه های شخصی یک سخت افزار مورد علاقه خود را دارند ، به دلایل احساسی یا مالی باشد ، و بسیاری از آنها از سال 2016 سرچشمه گرفته اند.

    AMD هنوز بر روی مقابله با تراز بانکی خود متمرکز بود و بیشترین بخش از بودجه تحقیق و توسعه آنها به پردازنده ها بنابراین بخش گرافیک ، گروه فناوری های Radeon ، بهبود حاشیه سود را از طریق بهبود بازده تولید و تنها بهبودهای نسبتاً کوچک معماری متمرکز کرد.

    \

    AMD \ \'s Radeon RX 480: ساده ، ارزان و بسیار محبوب

    GCN 4.0 با انتشار سری کارت های Radeon RX 400 در ماه ژوئن ظاهر شد - مدل های میان رده و بودجه هنوز تراشه های GCN 1.0 / 2.0 را در خود جای داده اند ، اما در بالا -end RX 480 دارای طراحی جدید تراشه است. این پردازنده گرافیکی فقط با 36 واحد محاسبه (CU) به نسبت قابل توجهی از نمونه های فیجی کاهش یافته است.

    هر علاقه مند به رایانه شخصی یک سخت افزار مورد علاقه را دارد ، خواه به دلایل احساسی یا مالی باشد ، و هم خوب بسیاری از آنها از سال 2016 آغاز شده اند.

    با نام رمز Polaris 10 (یا اِلزمیر) ، ساختار گرافیکی بدون تغییر از GCN 3.0 باقی مانده است ، اما دارای موتورهای نمایشگر و فیلمبرداری بسیار پیشرفته ای است. اما ویژگی اصلی Polaris اندازه آن بود: فقط 232 mm2 ، 60٪ کوچکتر از فیجی بود. بخشی از دلیل این امر استفاده از CU های کمتر بود.

    دلیل اصلی تغییر استفاده از TSMC به GlobalFoundries برای وظایف تولید GPU بود. GloFo ، همانطور که معمولاً نامیده می شود ، در سال 2009 تشکیل شد ، زمانی که AMD بخش ساخت خود را فروخت و برای تولید Polaris ، آنها مجوز پردازش گره 14LPP سامسونگ را صادر کردند.

    \"

    این سیستم به جای ترانزیستورهای مسطح ، از FinFET ها استفاده می کرد ، همانطور که استفاده می شود توسط TSMC در گره 28HP خود که پیشینیان Polaris را ساخته است. به روزرسانی امکان دستیابی به سرعت کلاک بالاتر را فراهم می کرد ، در حالی که همزمان مصرف برق را کاهش می داد ، و تراکم م componentلفه بسیار بالاتری را ارائه می داد.

    Radeon RX 480 به عنوان کارت با بالاترین عملکرد طراحی نشده است بازار ، صرفاً مقرون به صرفه ترین بازار ، و با قیمت 240 دلار متناسب با این معیارها روی کاغذ به نظر می رسید. در حقیقت ، چیزی بهتر از نمونه های Radeon R9 390 و GeForce GTX 970 قدیمی نبود و علی رغم اینکه هر دو مدل تقریباً 100 دلار بیشتر به بازار عرضه شدند ، اما در این زمان آنها می توانستند با همان قیمت خریداری کنند.

    برای AMD ، اندازه کوچک به این معنی است که بازده تولید بسیار بهتر از آن است که با فیجی به دست آمده است - بازده بهتر برابر با حاشیه سود بهتر است.

    https://techbord.com History of the Modern Graphics Processor، Part 5 \

    معماری Pascal انویدیا بسیار موفقیت آمیز بود

    انویدیا با TSMC باقی ماند ، با استفاده از گره FinFET 16FF جدید خود برای ساخت معماری جدید خود ، پاسکال. این اولین بار در ماه می سال 2016 و در قالب GeForce GTX 1080 به بازار عرضه شد.

    طراحی انویدیا همچنین از مزایای فن آوری جدید ترانزیستور بهره مند شد ، و اگرچه به اندازه قطب 10 نیست ، اما تراشه GP104 که مجهز به 1080 بود 21٪ کوچکتر از GPU در GTX 980 بود.

    بسته بندی شده در داخل GTX 1080 38٪ ترانزیستور بیشتر بود (در کل 7.2 میلیارد) ، 42٪ بالاتر ، در حالی که فقط مصرف می کرد 10٪ قدرت بیشتر از مدل قبلی. همچنین با نسخه سریعتر RAM ، GDDR5X ، بیش از 40٪ پهنای باند حافظه بیشتری نسبت به GDDR5 980 ارائه می دهد.

    MSRP با قیمت 699 دلار ، به اصطلاح "Founders Edition" بود. مدل \ \'، اگرچه انواع شخص ثالث با 100 دلار کمتر شروع شد. اما با سرعت تقریبی 60٪ سریعتر از GTX 980 و حدود 30٪ سریعتر از بهترین AMD (Radeon R9 Fury X) ، بهبود عملکرد اطمینان حاصل کرد که فروش بسیار خوبی دارد.

    < p> \

    GeForce GTX 1050 - جمع و جور و مقرون به صرفه

    طی شش ماه آینده ، انویدیا می خواهد سه پردازنده گرافیکی جدید را با استفاده از معماری Pascal منتشر کند: GP102 ، 104 و 106. این دو مورد دیگر مانند GTX 1070 ، 1060 و 1050 را تأمین می کنند - همه خریدهای خوب و مورد استقبال مردم است. نمونه اول در گرانترین کارت گرافیک رومیزی تک کارت گرافیک انویدیا در آن روز مورد استفاده قرار می گیرد.

    Titan X با قیمت درخواستی 11199 دلار - 70٪ + گران تر از GTX 1080 به بازار عرضه شد. این رقم عظیم با مشخصات GPU مطابقت داشت: 3584 واحد سایه بان با حداکثر 11 TFLOPS توان FP32 ، 12 گیگابایت RAM GDDR5X و 384 گیگابایت در ثانیه پهنای باند حافظه.

    اما برای با تمام این قدرت ، 70٪ سریعتر از GTX 1080 نبود. بسیاری از آزمایشات نشان داد که به طور متوسط ​​حدود 25٪ بهتر است. نه اینکه به نظر مهم برسد ، زیرا تایتان ایکس به همان اندازه خواهر و برادر کوچکترش فروخته شد.

    https://techbord.com تاریخچه پردازنده گرافیک مدرن ، قسمت 5

    بازار کارت گرافیک سال 2016 تقریباً برای هر بودجه از 100 دلار تا 1000 دلار چیزی ارائه داد. عملکرد و ثبات GPU به طور قابل توجهی بهتر از گذشته بود و سازندگان بازی شروع به استفاده کامل از توانایی های خود کردند.

    Nvidia درآمد خوبی کسب می کرد و در حالی که سهم بازار آن به دلیل محبوبیت بیشتر بود خط تولید AMD RX 400 ، به دلیل کاهش طولانی مدت فروش جهانی رایانه های رومیزی ، محموله های کارت گرافیک گسسته به طور مداوم در حال کاهش بود.

    هسته های بیشتر ، گرمای بیشتر ... و دلار بیشتر

    توسط اکنون ، فروشندگان GPU به یک الگوی قابل پیش بینی منطقی رسیده اند: یک معماری جدید هر دو سال یا بیشتر منتشر می شود ، با تجدید صف در این میان ، یا گاهی اوقات هر دو به طور همزمان اتفاق می افتد.

    برای AMD در سال 2017 ، این مورد اخیر بود. Radeon RX 480 دچار یک ضربه جزئی جزئی شد و به عنوان RX 580 اصلاح شد - با قیمت 70 دلار برای کاهش GeForce GTX 1060 ، در کل عملکرد کمی سریعتر ، هرچند با مصرف برق بالاتر ، انجام می شود.

    < img src = "https://techbord.com/picsbody/2102/2257-21.jpg " alt = "https://techbord.com تاریخچه پردازنده گرافیک مدرن ، قسمت 5 \">

    GeForce GTX 1060 (سمت چپ) و Radeon RX 580 (راست)

    میان رده Radeon RX 560 پیشرفت چشمگیری نسبت به RX 460 داشت که بر اساس آن بود: دو واحد محاسباتی اضافی ، رم بیشتر و ساعت های بالاتر با قیمت تقریبی 99 دلار. GeForce GTX 1050 انویدیا ، با یک سال سن ، کمی کارآمدتر و عملکرد بهتری داشت ، اگرچه قیمت آن کمی بالاتر بود.

    لازم به ذکر است که GP107 نیروگاه 1050 توسط سامسونگ با استفاده از گره 14 نانومتری آنها تولید شده است - همان چیزی که GloFo برای ساخت GPU Polaris 21 در RX 560 استفاده کرده است. هر دو پردازنده Nvidia ترانزیستور بیشتری دارند ، هر دو دارای امتیاز TDP (قدرت طراحی حرارتی) 75 وات هستند. و سرعت کلاک بالاتر.

    کنترل نسبتاً ضعیف AMD بر قدرت با کارت های Radeon RX Vega که در اواسط آگوست راه اندازی شد ، بار دیگر برجسته شد. معماری Graphics Core Next بار دیگر به نسخه 5.0 تجدید شد و پردازنده های گرافیکی اساساً فیجی دوباره متولد شدند. رده بالای RX Vega 64 دارای تراشه ترانزیستوری 12.5 میلیارد دلاری ، 40٪ بیشتر از فیجی است ، اما به دلیل گره پردازش بهتر ، با 495 میلی متر مربع به 596 میلی متر مربع رسید.

    https://techbord.com تاریخچه پردازنده مدرن گرافیک ، قسمت 5 \

    دو تراشه 4 گیگابایتی HBM2 در کنار GPU Vega بنشینید

    تراشه کوچکتر نیز به لطف استفاده از فناوری جدید HBM2 از RAM بیشتری پشتیبانی می کند و عملکرد کلی تقریباً مشابه GeForce GTX 1080 است. علیرغم نیاز به توان بالای آن (تقریباً 300 وات) برای برخی از مدلها) ، نسخه استاندارد با قیمت 499 دلار - 100 دلار كمتر از 1080 دلار.

    نه اینکه انویدیا به خصوص اذیت شده باشد. طیف کارت گرافیک Pascal آنها فروش خوبی داشت و در ماه مارس با GeForce GTX 1080 Ti قدرت خود را در بخش علاقه مندان تقویت کرد. این کارت گرافیک جدید از همان تراشه ای که در Titan X یافت می شود استفاده کرد ، البته واحد سایه زنی کمتری نیز فعال است.

    اما با ساعت های بالاتر ، عملکرد آن تقریباً مشابه مدل هاله بود اما 500 دلار کمتر به فروش می رسید که به نظر می رسید مانند یک معامله گران قیمت در مقایسه. در این راه اندازی همچنین MSRP برای GTX 1080 100 دلار کاهش یافت و فروش هر دو مدل رکورد جدیدی را برای شرکت سانتا کلارا ثبت کرد.

    https://techbord.com History of the Modern Graphics Processor، Part 5 \

    GPU GP102 Nvidia در GeForce GTX 1080 Ti

    Nvidia معماری جدیدی را در سال 2017 معرفی کرد ، اما نه برای مصرف کننده عمومی. ولتا بازار محاسبات حرفه ای را هدف قرار داده بود ، اما طراحی و مجموعه ویژگی های آن به شدت روی جهت گیری محصولات آینده GeForce تأثیر می گذارد.

    این اولین تراشه Nvidia بود که از معماری انحصاری برای یک بازار خاص برخوردار بود. تمام محصولات قبلی متمرکز بر محاسبات ، مانند تسلا K80 ، از ساختارهای موجود در تراشه های دسک تاپ و موبایل مصرف کننده گرفته شده اند. ولتا با پاسکال کاملاً متفاوت نبود ، اما در اندازه 815 میلی مترمربع ، با 21.1 میلیارد ترانزیستور و 5120 واحد سایه زن ، بزرگترین پردازنده ای بود که تاکنون ساخته شده است.

    در انتهای دیگر از این مقیاس ، پردازنده های گرافیکی یکپارچه در پردازنده ها یا سیستم بر روی تراشه ها (SoC) نیز پیشرفت چشمگیری داشته اند. اگرچه اینتل با پردازنده های Coffee Lake خود هیچ مرز فناوری جدیدی را نمی شکند ، معماری گرافیک آنها به Gen 9.5 رسیده بود و بسته به مدل CPU ، حداکثر تا 48 اتحادیه اروپا - هر کدام اکنون 7 رشته عرض دارند ، تا 4 دستورالعمل به طور همزمان در هر ساعت صادر می شود.

    به طور طبیعی ، عملکرد بازی با مقیاس کلی GPU هنوز مختل می شود و نسبت به پردازنده های جدید مبتنی بر ذن AMD با پردازنده های گرافیکی Vega یکپارچه نسبتاً ضعیف عمل می کند. اما این نشان داد که اینتل همچنان مصمم به بهبود معماری است.

    \

    این امر به ویژه هنگامی مشخص شد که AMD اعلام کرد رئیس گروه Radeon ، راجا کودوری ، با هدف خاص تولید محصولات گرافیکی گسسته جدید به اینتل پیوسته بود.

    آخرین باری که اینتل گرافیک گسسته ای را برای بازار رایانه های رومیزی ارائه داده بود تقریباً دو دهه پیش بود ، و گرچه GPU های یکپارچه یک چیز بود ، برای مقابله با پیشنهادات AMD و Nvidia ، مقیاس بندی چنین طرح هایی در محصولات رقابتی کاملاً متفاوت بود.

    دنیای تلفن های هوشمند نیز پیشرفت مداومی با پردازنده های گرافیکی خود دید. اپل با موفقیت از طراحی خود استفاده می کرد ، و اگرچه عناصر سیستم از فناوری مجاز PowerVR استفاده می کردند ، آنها اعلام کردند که راه های جدا شدن خود را دارند - حرکتی که صدمات جبران ناپذیری به شرکت افسانه وارد کرد.

    https://techbord.com تاریخچه پردازنده گرافیک مدرن ، قسمت 5 \

    برای طرفداران اندروید ، Arm پیشنهاد مانند Mali-T860 و Qualcomm از یک پردازنده گرافیکی کاملاً قابل احترام در سری SoC های تلفن همراه Snapdragon 600 برخوردار بودند. حتی تراشه دو ساله Tegra X1 انویدیا خانه ای محبوب در نینتندو سوییچ پیدا کرد.

    این باید یکی دیگر از "سال های طلایی" GPU ها باشد. مدل های مختلفی برای هر بودجه و بخش وجود داشت ، و AMD و انویدیا به نظر می رسید منطبق به جز در بالای نردبان عملکرد گرافیکی مطابقت داشته باشند.

    با این حال ، چیزی که در پس زمینه ایجاد می شد ، برای تعدادی سالها ، به طور ناگهانی منفجر شد و بازیکنان و علاقه مندان به رایانه بار اصلی پس لرزه را متحمل شدند. استفاده از GPU برای استخراج ارزهای رمزپایه به دلیل افزایش شهابی قیمت بیت کوین به طرز چشمگیری افزایش یافت.

    https://techbord.com تاریخچه پردازنده مدرن گرافیک ، قسمت 5

    عرضه پردازنده های گرافیکی جدید خشک شد و قیمت کارت های دست دوم به طور قابل توجهی افزایش یافت. استخراج GPU به چیزی تبدیل شد زیرا پردازنده های گرافیکی در انجام بسیاری از ریاضیات ساده به صورت دسته جمعی بسیار ماهر بودند. AMD\\'s GPUs were especially good at compute, although Nvidia\\'s were more power efficient.

    Regardless of the difference, both mid-range and top-end models saw consistent increases in price (as well as a continued dearth in availability), that ran well into the following year. And if consumers were hoping that the products for 2018 would be bring some sanity back to their wallets, they were in for a bit of a shock.

    New technology, new marketing names, new prices

    AMD enjoyed a successful launch of their fully redesigned Zen CPU architecture, after which it took a cautious approach to spend limited resources (both financial and physical) on developing their GPUs. Rather than refreshing a chip\\'s internal features or introducing an update to Vega, they stuck to familiar grounds: rebadging.

    Thus, the Radeon RX 500 series remained as it was from the previous year, albeit with an \\'X\\' tacked onto the model name -- for example, the RX 580 became the RX 580X, and so on. Some of the mid-range and budget models were given a boost to the amount of RAM they sported, but other changes were scarce.

    \"https://techbord.com

    The only new product AMD brought to market was the Radeon RX 590. It used the same GCN 4.0 Polaris chip as the RX 580 and specs were almost the same, too. However, this chip was made by GlobalFoundries and Samsung, using improved process nodes (GloFo - 12LP, Samsung - 11 LPP).

    The end result was a 5% reduction in the TDP, a 17% higher base clock, and a 15% higher boost clock -- and an extra $50 on the MSRP, for good measure. Such minor changes didn\\'t make the RX 590 stand out in any way, and the 580 (now in the form of the 580X) fared much better in stores.

    Nvidia started 2018 in a similar manner, bringing amended versions of their GTX 10 series to market, such as the miserable DDR4-equipped GeForce GT 1030. None brought anything new to the table, but it didn\\'t matter so much in the first few months of the year, as GPU prices were so high.

    \"https://techbord.com

    By the summer, matters had improved, and PC enthusiasts eagerly awaited Nvidia\\'s new architecture. The gap between new GeForce designs had been steadily increasing over the decade -- 15 months separated Maxwell from Kepler, and there were 28 months between Pascal and Maxwell.

    The first Turing GPUs appeared on shelves in August and September. The very first was a Quadro model for the professional workstation market. The GeForce lineup brought not just new GPUs and cards to buy, but new technology and marketing terms.

    Nvidia had used the \\'GTX\\' label as a prefix or suffix, since 2005 but now it was being replaced in favor of RTX, with the RT part effectively standing for ray tracing. Once the preserve of the film industry, the ability to more accurately model real-time lighting was becoming available in a standard desktop graphics card.

    Earlier on Microsoft had announced a new API, called DirectX Raytracing (DXR) at that year\\'s GDC event. They detailed how the system worked, and showcased a number of videos from EA, Epic, and Futuremark. While Nvidia and the RTX moniker were also involved, it was via Volta GPUs, not Turing.

    We got to see how this new architecture handled ray tracing with the GeForce RTX 2080 and 2080 Ti, both of which used the same TU102 chip. With 18.6 billion transistors and 754 mm2 in size, it made the Pascal-based GP102 look tiny in comparison. Despite sporting just over 4600 shader cores, it only had 20% more than its predecessor, so why was it so much larger?

    \"https://techbord.com

    The hulking TU102 processor -- 60% larger than the GP102

    Plenty of changes under the hood accounted for the increase. L1 and L2 caches doubled in size, the internal bandwidth greatly improved, and the addition of tensor and ray tracing cores to every SM (streaming multiprocessor) in the GPU all played their part.

    The tensor cores -- essentially a collection of FP16 ALUs, so they handled FP16 shader code, too -- had surfaced in Volta, but had been updated slightly for Turing; the RT cores were completely new, with each one containing two specialized units: one for handling BVH traversal algorithms and the other for testing ray-primitive intersections.

    Techno-babble aside, such circuitry isn\\'t absolutely necessary, as ray tracing could be (and was) done on CPUs. But for doing it in real-time, in everyday games that anyone could buy, then such hardware was categorically required.

    \"https://techbord.com

    However, with no titles available for testing, offering DXR support or its equivalent via OpenGL/Vulkan extensions, when the new Turing chips appeared, reviewers turned to its raw performance in \\'normal\\' games. The results, for the Ti version at least, were suitably impressive and further cemented Nvidia\\'s hold over the top-end crown.

    What was far less impressive, though, were the launch MSRPs -- for the GeForce RTX 2080 Ti, Nvidia had set the tag at $999, and $699 for the 2080 (and $100 extra for Founders Editions).

    In the case of the former, that was a full $300 more than the GTX 1080 Ti, although the RTX 2080 was a more palatable $100 increase over the 1080. But with GPU values only just returning to normal after the crypto mining debacle, a 43% increase in the price tag for the Ti was felt by many to be unjustified.

    With the Turing line still being made by TSMC, albeit on a customized version of their 16FF process node (labelled 12FFN), the enormous chips would never generate the same level of yields that the 38% smaller Pascal GP102 dies could achieve. AMD had experienced a similar problem with the likes of Fiji and Vega, although they more willing to absorb the higher production costs.

    \"https://techbord.com

    Another element of new GeForce RTX cards was much-touted by Nvidia: DLSS or Deep Learning Super Sampling. The general idea behind DLSS is to render everything at a lower resolution, then use an algorithm determined by machine learning to upscale the final frame to the monitor\\'s resolution.

    The tensor cores were promoted as being a key element behind this feature, but the first version of DLSS didn\\'t use them in the consumer\\'s graphics cards. Instead, this was all done by Nvidia\\'s own computer grids, which were used to analyze each game, frame by frame, to work out what the upscaling routine would be.

    Initial impressions were positive, as the lower resolution rendering improved performance, while the upscaling was good enough to maintain decent image quality. But as with ray tracing, there were no full games using the technology for the launch of Turing.

    A swansong, a new start, and a change of heart

    For hardware reviewers, the end of 2018 and the early months of 2019 gave them a better opportunity to examine Nvidia\\'s RTX feature set. By then, there were several titles available that supported DXR and DLSS.

    The likes of Battlefield V, Shadow of the Tomb Raider, and Metro Exodus all used the systems, to varying degrees, but two things rapidly became obvious: the use of ray tracing had the potential to significantly improve the realism of global lighting, shadows, and reflections. And second, the performance cost was exceptionally high, and only the use of DLSS helped maintain any semblance of playability. And this was at 1080p -- resolutions higher than this were simply not an option.

    \"\"

    While frame rates of 30 fps or below were often the norm for consoles, when running games with extreme graphics, it was the antithesis of what PC enthusiasts had come to expect when shelling out $1,000 for a graphics card.

    Around this time, both AMD and Nvidia released new graphics cards -- the former gave us the Radeon VII, whereas the latter offered the GeForce RTX 2060 and the return of the GTX moniker, with the 1660 Ti.

    \"https://techbord.com

    Saying goodbye to GCN with the Vega 20 chip

    The Radeon VII would be GCN\\'s swansong: the last version of that long-running architecture, or so it would seem, before AMD swi tched to something new. The chip powering the card was the Vega 20, a version of that found in the Radeon Vega 64, albeit with a few tweaks, and manufactured on TSMC\\'s new 7N node.

    On paper, the model had everything going for it: 16 GB of HBM2, sporting 1024 GB/s of bandwidth, along with 60 Compute Units running at up to 1,800 MHz.

    With an asking price of $700, AMD was pitching it against Nvidia\\'s GeForce RTX 2080 and on average, it was only a few percent slower in testing. But the product was never intended for gamers, as it was just a rebadged Radeon Instinct, a workstation-level compute model.

    The TU116-powered GeForce GTX 1660 Ti, on the other hand, was absolutely targeted at gaming -- especially for those with a clear mind on budget. For $279, you could say goodbye to Tensor and RT Cores and hello to a product to that was on-par with the $100 more expensive Pascal GTX 1070.

    \"https://techbord.com

    No ray tracing or tensor cores for this Turing GPU

    The GeForce RTX 2060 released at the start of 2019, retaining all RTX features, it was nearly 30% more expensive than the GTX 1660 Ti, but only 12% faster on average, so it didn\\'t offer the same value for money.

    Both mainstream models offered some relief against Nvidia\\'s pricing of their enthusiast-level RTX models though -- in the case of the 2080 Ti, it had risen by over $300. Later they would be joined by the likes of the GTX 1650, released at $149.

    AMD held their new architecture hidden away until the summer, when they released the Radeon RX 5000 series, powered by Navi 10 chips. The GCN architecture had been given a thorough overhaul, transforming into RDNA, and with it addressing many of the limitations that the older design suffered from.

    \"https://techbord.com

    Goodbye GCN and hello to the start of a new architecture

    Where Nvidia was aiming to please all markets with Turing, casual and professionals alike, RNDA was all about games. The basic specs pointed to it being worse than the Radeon Vega 64, with significantly fewer Compute Units. But AMD reworked the architecture to improve instruction issuing and internal data flow, and the end result was a graphics card that wasn\\'t that far behind a Radeon VII and GeForce RTX 2070. Launching at $399, it undercut both models, and with the chip being a svelte 251 mm2 in size (due to TSMC\\'s 7N node), it gave AMD good yields too.

    While some people were disappointed that the new GPU wasn\\'t a top-end model, and criticisms over stability and drivers would eventually become newsworthy, Navi proved that it was possible to have decent gaming performance without the need for enormous chips and price tags.

    Nvidia had readied a response to the Radeon RX 5000 family in the form of \\'Super\\' models -- over the course of 2019, the RTX 2080, 2070, 2060, GTX 1660, and 1650 would all be refreshed with GPUs sporting more shader cores and higher clock speeds. The extra performance was welcome as was the fact that the MSRPs hadn\\'t changed, bar the 2060\\'s.

    Intel\\'s discrete GPU project was starting to take shape. By now it had a clear name, Xe, and some details about potential models were being discovered. Its first outing though, would still be in the integrated graphics market.

    An end of a decade -- new chips, new threats, worse problems

    2020 would turn out to be a year of disparate fortunes. Against the background of a global pandemic, AMD, Intel, and Nvidia all released new graphics cards containing new architectures and product designs.

    Microsoft and Sony also brought fresh consoles to market, sporting a raft of new technologies and features, with the former consolidating several years of API updates with the release of DirectX Ultimate.

    \"https://techbord.com

    Hidden by the heatspreader, Nvidia\\'s largest ever GPU: the GA100

    The professional world of compute and AI were given the likes of the AMD Radeon Instinct MI100 and Nvidia A100, both featuring gargantuan GPUs (750 and 856 mm2 respectively) with enormous power (120 CUs giving 23 FP32 TFLOPs or 432 Tensor Cores producing 312 BF16 TFLOPs).

    The former fielded AMD\\'s new CDNA architecture, GCN reborn into a compute-only market, whereas Nvidia used the new Ampere design. It was marketed as a direct replacement for Volta, offering large performance increases for AI workloads.

    Speaking of AI, Nvidia introduced an improved version of DLSS in March, which used a very different process to the first iteration. Now, the tensor cores in users\\' graphics cards would process the inference algorithm to upscale the image, and overall, the new system was well received.

    Desktop PC enthusiasts would have to wait to later in the year for a new batch of GPUs, but their patience was rewarded by the GeForce RTX 3000 and Radeon RX 6000 series of cards. Nvidia\\'s models brought Ampere to the masses, although there were significant differences between the GA100 chip in the A100 and the GA102 that drove the RTX line-up. The latter was essentially an update of Turing, featuring improvements to the CUDA, Tensor, and RT cores.

    \"https://techbord.com

    Nvidia\\'s unusual design for the cooling system in the GeForce RTX 3080

    In the case of the general shader units, the integer ALUs could now handle the same FP32 routines as the FP ones, and Nvidia utilized this to promote the 3000 series having double the number of cores as their predecessors. While not entirely true, it did mean that the GA102 had the potential to offer substantial floating point throughput.

    But as games are not entirely limited by their FP32 shaders, the overall performance of the RTX 3090, 3080, and 3070 was less than the paper specifications suggested, though still a sizeable improvement over Turing. Better yet, launch prices were generally lower than those for the RTX 2000 range.

    AMD took RDNA and tweaked critical aspects of it, such as power consumption, operating frequencies, and data throughput, to mitigate the factors that ultimately limited the capabilities of the RX 5000 cards. RDNA 2 showed that the consistent progress made with the Zen architecture was going to a company-wide goal.

    Popularly known as \\'Big Navi\\', the Navi 21 GPU housed twice the number of Compute Units than its predecessor, a substantial 128 MB of L3 cache, and adapted texture processors that would handle the ray-triangle intersection checks in ray tracing.

    \"https://techbord.com

    The Radeon RX 6000 series would put AMD on a level playing field with Nvidia in most games, although the cards were notably worse when ray tracing was involved, and offered nothing like DLSS to boost performance.

    The same RDNA 2 architecture, albeit with far fewer CUs and no extra cache, would power the new Xbox and PlayStation consoles. Coupled with Zen 2 processors on the same die, the updated systems left gamers salivating at the potential the devices had to offer.

    Even Intel finally released a new discrete GPU, though only to OEM and system builders. Previously known as DG1, the Iris Xe desktop card was nothing to get excited about, but it highlighted that Intel were serious about competing in the graphics market.

    All of the excitement and enthusiasm about the new releases would eventually turn to frustration and anger, as the usual problems of supply and exaggerated prices grew to farcical proportions. For desktop Ampere, Nvidia chose to use Samsung for fabrication duties and while never directly confirmed, the general impression, felt by many industry, was that their yields simply weren\\'t as good as TSMCs.

    \"https://techbord.com

    Not that it ultimately mattered. As 2020 drew to a close and the new decade started in earnest, the demand for electronics and computing devices skyrocketed, due to millions of people around the world being forced to work from home. As the effects of Covid grew more serious, the production of basic components, such as voltage regulators and microcontrollers, became increasingly limited.

    Supplies of GeForce and Radeon graphics cards turned exceptionally sparse, a matter not helped by another burst in crypto mining and the pervasive use of bots to mass purchase cards and consoles from websites. Almost every available GPU model significantly rose in price and second hand prices matched or exceeded their original launch values.

    And where the general consumer struggled with the dearth of options, AMD and Nvidia both enjoyed significant increases in the revenues, with the latter experiencing nearly a 30% growth in their gaming sector. Such figures would offer scant comfort for PC gaming enthusiasts, many of which were unable or unwilling to pay the extortionate prices that graphics cards were now demanding.

    What does the future hold?

    And so, as we bring the fifth part of our history of the modern graphics processor to a close, it would remiss of us to not look ahead and see if it\\'s possible to determine what the next decade holds. The current situation, pertaining to supplies and prices, will not last forever, but it shows no signs of improvement in the immediate future.

    What we do know is that AMD had previously targeted 2022 as the year to release updates for the gaming and compute architectures: RNDA 3 and CDNA 2. Whether this holds true or not, given other circumstances, it\\'s hard to predict but it\\'s unlikely it will take much longer that that.

    \"https://techbord.com

    Fundamentally, RDNA 2 is a refined version of its forebearer, with performance gains coming from a mixture of design changes to improve clock speeds, pipeline efficiency, and reduced data movement. The only new feature are ray accelerator units, integrated into the texture processors.

    We certainly won\\'t see a new major version of DirectX in 2022, so RDNA 3 is likely to be more of the same optimizations and tweaks. The above image states that it will also be manufactured on an \\'Advanced Node\\' but this tells us very little. Will they use TSMC\\'s EUV-based N7+ node, or another one, such as N6 or N5?

    The Navi 21 GPU used for the Radeon RX 6800 series is one of AMD\\'s largest chips ever designed for the desktop PC market, at 520 mm2 (only Fiji was larger). But as this is still 30% smaller than Nvidia\\'s TU102, it would suggest that there\\'s scope for an even larger processor to hit shelves.

    \"https://techbord.com

    Will the next decade of GPUs be just updated versions of RDNA 2 and Ampere, or is something entirely new on its way?

    Nvidia is considerably more reticent to publicly issue roadmaps, and little is known about what\\'s next for them, other than rumors of it being called Hopper (named after Grace Hopper, a pioneer in computer science). Like RDNA 2, Ampere was an optimization of Turing, and having settled on a GPU structure that\\'s changed relatively little over the year, there\\'s a strong chance that it will be more of the same.

    And like AMD\\'s Navi design, there\\'s scope for the next round of Nvidia GPUs to sport even more shader units, cache, and so on -- even if they retain Samsung for manufacturing duties, and don\\'t even alter the node, the likes of the GA102 can be made 20% larger before it hits the same size as the largest Turing processor.

    If we ignore GPUs like Volta, which weren\\'t intended for the consumer market, the TU102 was the largest single GPU to be manufactured and sold for desktop PCs. At 754 mm2, it greatly restricted the number of dies that could be extracted from a single 300 mm wafer -- around 80 or so, at best. So could we see chips that size again?

    \"https://techbord.com

    Taking a sample of AMD and Nvidia\\'s largest GPUs over the years shows a vaguely linear trend in the growth of die sizes, but it also highlights how altering the process node can make an enormous difference (for example, compare Vega 10 and 20 sizes). However, there\\'s far too much variation in the data for it to be used to reliably estimate what size of processor one could be seeing over the next ten years.

    Perhaps a better approach would be to look at the processing power the above GPUs offered, for the given unit density (i.e. millions of transistors per square millimetre). While peak FP32 throughput, measured in billions of floating point operations per second, isn\\'t the only metric that should be used to judge the capability of a GPU, it is a comparable one. This is because general shader operations form the bulk of the processing load and will continue to do so for a while.

    When we look at a graph of those figures (below), it paints a rather different picture. There are outliers that affect the trends somewhat, but even with them removed, the overall pattern is broadly the same.

    \"https://techbord.com

    It shows us that Nvidia has consistently focused on increasing raw processing power with each new design -- something that makes sense given how the same chips are used in general and professional models. The same was true of AMD until they released RDNA, where the product is solely aimed at gaming.

    GCN lives on in the form of CDNA and also in integrated GPUs in Ryzen APUs, and although there is only one GPU using that architecture, it would actually place lower than Navi 21 does on the chart. This is because that design is targeted for AI workloads, where standard FP32 processing is less important than integer and tensor workloads.

    With both Nvidia and AMD offering ray tracing acceleration, as well as support for data formats and math operations needed for machine learning in their latest GPUs, PC and console games of this decade are increasingly going to utilize them. Just as anti-aliasing and tessellation were once too demanding and could only be used sparingly, the same will be true of today\\'s performance hogs.

    \"https://techbord.com

    It won\\'t take to 2077 for games to routinely be using psycho levels of ray traced global lighting

    Does this mean that GPUs of 2030 will be routinely hitting 800 mm2 in size and produce well over 1 TFLOP per unit density? Will they increasingly favor ray tracing and machine learning over traditional aspects such as general purpose shaders or texture processing? Possibly, but there\\'s a critical aspect to all of this that may curtail such growth patterns or changes in fundamental GPU design, and it all revolves around data movement.

    Having thousands of shader units, tensor or ray tracing cores is all well and good, but they\\'d be left hung out to dry if they couldn\\'t fetch or write data fast enough. This is why cache size and internal bandwidth has grown so much, ever since the start of the GPGPU industry.

    \"https://techbord.com

    The G80\\'s SMs are the pink/green pair of blocks at top and bottom. Between them lies the texture units and cache. Image: Fritzchens Fritz

    The Nvidia G80, the company\\'s first chip to use unified shaders, sported just 16 kB of shared memory for each SM (streaming multiprocessor), 16 kB of texture cache for a pair of SMs, and a total of 96 kB of Level 2. Compare that to the GA102, where each SM gets 128 kB of L1 cache and the whole GPU contains 6144 kB of L2.

    As process nodes develop and component features reduce in size, it would seem that even more can be packed in. However, SRAM (the primary building block of cache) scales down far worse than logic systems do, and with so much of a modern graphics processor being cache, chip sizes may well balloon in size without increasing the shader count or ray tracing ability by the same scale.

    Or it could well be the other way round. Nvidia (and others) have done significant research into scaling GPU performance by using a modular design -- i.e. having multiple smaller dies on the same package, much like AMD does with chiplets on Zen-based CPUs.

    \"https://techbord.com

    GPUs in the desktop PCs of 2030 won\\'t be this big!

    While such research was predominantly for the professional market, it\\'s worth remembering that many of Volta\\'s features found their way into Turing, so it could be possible that gamers at the end of this decade will have PCs sporting numerous CPU and GPU chips, all packed into relatively compact packages.

    But regardless of what format they take, tomorrow\\'s GPUs will continue to push the boundaries of VLSI chip design and microprocessor fabrication. The raw capabilities of future GPUs in terms of FP32 throughput and internal bandwidth will reach levels that could only be dreamed about, just 10 years ago.

    And with Intel and others determined to force their way into the market, to capitalize on the growth of GPGPU in AI, we can be certain of one thing: AMD, Nvidia, et al are all still many years away from reaching the limits of what they can achieve with their graphics processors.

    Part 1: (1976 - 1995) The Early Days of 3D Consumer Graphics Part 2: (1995 - 1999) 3Dfx Voodoo: The Game-changer Part 3: (2000 - 2006) The Nvidia vs. ATI Era Begins Part 4: (2006 - 2013) The Modern GPU: Stream processing units a.k.a. GPGPU Part 5: (2013 - 2020) Pushing GPU Technology Into New Territory

    Masthead credit: Syafiq Adnan

    .subDriveRevBot { margin: 30px 0 25px; شعاع مرز: 3px؛ ارتفاع خط: 1.5؛ font-size: 0.9em; color: #fff; background-color: #1d4d84; مکان نما: اشاره گر؛ background-repeat: no-repeat; اندازه پس زمینه: حاوی background-position: right؛ } .subDriveRevBot:hover { background-color: #245996; transition: 0.4s linear; } .subDriveRevBot a { color: #fff; نمایش: بلوک؛ عرض: 100٪ قد: 100٪ } .subDriveRevBot a:hover { color: #fff; } .subDriveRevBot .titlerr { background: rgba(30, 41, 51, 0.63); padding: 10px 20px 7px; color: #fff; font-style: italic; letter-spacing: -0.1px; نمایش: بلوک؛ شعاع مرز: 3px؛ font-size: 0.9em; } .subDriveRevBot .remark { font-weight: 500; color: #f29f26; font-family: Roboto; } .subDriveRevBot .remarknew { font-weight: 500; color: #fea; font-family: Roboto; } .subDriveRevBot .bulll { margin-bottom: 5px !important; padding: 15px 5px } If you enjoy our content, please consider subscribing... Ad-free TechSpot experience while supporting our work Our promise: All reader contributions will go toward funding more content That means: More tech features, more benchmarks and analysis





خبرهای دیگر از امکانات