20 lat rozwoju kart graficznych - część 2. Droga do współczesności
Pierwszym układem graficznym wykorzystującym zunifikowane shadery był GeForce 8800 GTX, a bez niego nie byłoby dzisiejszego króla wydajności, czyli RTX-a 4090. Przedstawiamy ciąg dalszy drogi, którą przeszły karty graficzne w ostatnich latach.
Rewolucję, jaką przyniósł światu GeForce 8800 GTX opisaliśmy w pierwszej części publikacji. AMD początkowo próbowało walczyć starszymi układami pokroju Radeona X1900 XT z marnym skutkiem, a kontra w postaci układów Radeon HD 2000 wykorzystujących nową mikroarchitekturę TeraScale - opartą o architekturę VLIW (Very Long Instruction Word) - pojawiła się w praktyce rok później.
Układy z tej serii miały problem z pokonaniem już rocznych konkurentów Nvidii. Szczególnie poszukiwanym modelem Nvidii był GeForce 8800 GT, który bez problemu pokonywał najpotężniejszego Radeona HD 2900 XT i po podkręceniu nie był zbyt daleko od dużo droższego modelu GeForce 8800 GTX.
Ponadto Nvidia zaczęła także mocno promować swój pakiet narzędzi CUDA SDK dla twórców, który jest wspierany do dzisiaj. To poprzez niego Nvidia promowała adaptacje swoich rozwiązań pokroju silnika fizycznego PhysX, CSAA. Była to inna droga w porównaniu do AMD, które z kolei starało się promować swoje rozwiązania za pomocą otwartych standardów, takich jak środowisko OpenCL i mocno trzymając się rynku OEM. Następnie mamy układy z serii GeForce 9XXX i Radeon HD 3000, które są w zasadzie tylko odświeżonymi starymi układami wyprodukowanymi w niższej litografii.
Świetne lata AMD/ATI
Także w 2008 roku ATI wydało Radeony HD 4870 i HD 4850. Pierwszy był pierwszą kartą z pamięcią graficzną GDDR5 i zdołał się zbliżyć bardzo blisko do dużo droższego układu GTX 280 od Nvidii, a drugi znajdował się na poziomie modelu GeForce 9800 GTX. Obydwa układy były bardzo dobrze wycenione, toteż zdobyły dużą popularność.
ATI poszło za ciosem i rok później jako pierwsze wydało na świat karty graficzne wykonane w 40-nm litografii (Radeony HD 4770 i HD 4750), a pod koniec września 2009 roku zostały wydane Radeony HD 5850 i HD 5870 będące pierwszymi kartami na świecie wspierającymi DirectX 11. Ponadto ATI jako pierwsze zaprezentowało technikę Eyefinity umożliwiającą wyświetlanie obrazu nawet na sześciu monitorach.
Nowe Radeony były królami wydajności do czasu mikroarchitektury Fermi od Nvidii ze wsparciem DirectX 11, która ujrzała światło dzienne w marcu 2010 roku. Jej pierwszym przedstawicielem był GTX 480, który co prawda wygrał z konkurentem od ATI, ale kosztem koszmarnej kultury pracy, dużego poboru prądu i rozgrzewaniem się do ponad 90 stopni Celsjusza.
Mimo dość chłodnego przyjęcia wyższych w hierarchii układów Fermi opartych na potężnym rdzeniu GF100, wydany w lipcu GTX 460 oparty na małym rdzeniu GF104 spisał się zaskakująco dobrze i był do tego dobrze wyceniony.
Następnie pod koniec roku pojawiły się odświeżone układy Fermi drugiej generacji, a ATI wypuściło Radeony HD 6950 i HD 6970. Ciekawostką z tego okresu była możliwość przerobienia słabszego Radeona na szybszy model poprzez wgranie vBIOSu.
Radeon GCN i pierwszy GeForce TITAN
22 grudnia 2011 roku miała miejsce premiera nowego Radeona HD 7970 od AMD. Był to pierwszy układ wykorzystujący 28-nm litografię oraz opierający się na nowej mikroarchitekturze GCN. Ta odeszła od architektury VLIW na rzecz instrukcji w stylu RISC i przyniosła też wsparcie początkowo rozwijanego przy pomocy EA niskopoziomowego API Mantle, które miało zastąpić DirectX 11 oraz rzadziej stosowane OpenGL.
Nowe API faktycznie zmniejszało narzut sterownika na procesor, poprawiając wydajność i zostało ono bazą dla później rozwijanego Vulkana. Był to przedsmak tego, co przyniósł wprowadzający podobne rozwiązania DirectX 12 wraz z premierą Windows 10.
Efekt był wręcz piorunujący i nowy Radeon bez problemów pokonał GTX-a 580 od Nvidii pobierając mniej energii i oferując bardzo dobry potencjał podkręcania, gdzie nawet 1,1 GHz nie stanowiło problemu.
Na kontrę zielonych przyszło trochę poczekać, ponieważ GTX 680 oparty na architekturze Kepler zadebiutował dopiero 22 marca 2012 roku i co ciekawe opierał się na stosunkowo małym rdzeniu GK104 także powstałym w 28 nm litografii. Nvidia zdecydowała się przeprojektować boki SM, które składały się z większej liczby mniejszych jednostek CUDA. Ponadto ta generacja przyniosła adaptacyjny Vsync, który później wyewoluuje w G-Sync, czy nowe techniki wygładzania krawędzi (FXAA i TXAA).
GTX 680 wygrywał z Radeonem z nieznaczną przewagą, ale AMD wiedząc o potencjale swojego układu w czerwcu wypuściło fabrycznie podkręcony wariant Radeon HD 7970 1 GHz Edition, który odwrócił pozycje na wykresach. Z kolei w średnim segmencie trwała zacięta walka Radeonów HD 7850 i HD 7870 z układami GTX 660 / Ti.
W 2013 orku przeważały rebrandy i modyfikacje układów, ale wtedy Nvidia wydała też pierwszego GeForce'a TITAN wycenionego na ówcześnie astronomiczne 999 dolarów. Niedługo po nim miała miejsce premiera GTX-a 780, w odpowiedzi na którego AMD wypuściło Radeony R9 290/290X.
Oferowały one aż 4 GB pamięci graficznej oraz 512-bitową magistralę pamięci. W zależności od tytułów 290X symbolicznie wygrał z GTX-em 780 kosztem ogromnego poboru energii, temperatury blisko 100 stopni Celsjusza i hałasu generowanego przez turbinkę systemu chłodzenia. Ta sprawiała wrażenie silnika odrzutowego zamkniętego w obudowie (ponad 50 dBA) i dopiero autorskie wersje kart trochę zmniejszyły ten problem. Co ciekawe, istniała możliwość przerobienia niektórych sztuk 290 na lepszy wariant poprzez wgranie vBIOSu.
Z kolei Nvidia niedługo po premierze Radeonów wydała potężnego GTX-a 780 Ti, który wykorzystywał w pełni odblokowany rdzeń GK100, który zmiażdżył Radeony.
Czas wielkiej smuty w AMD oraz dominacja Nvidii
Z końcem 2014 roku Nvidia zaprezentowała pierwsze GPU oparte na mikroarchitekturze Maxwell w postaci GTX-ów 980 i trochę problematycznego 970, które zaoferowały flagową wydajność przy bardzo niskim zużyciu prądu i dobre możliwości podkręcania. Nowe karty, do których w 2015 roku dołączył GTX 960, przyniosły też techniki MFAA, DSR oraz G-Sync.
AMD w tym okresie walczyło głównie rebrandami, ale w 2015 roku wypuściło Radeona R9 Fury X, który był pierwszą kartą wykorzystującą pamięci HBM, ale mimo to przegrywał z GTX-em 980 Ti. AMD przyniosło też światu FreeSync będący tańszą opcją od rozwiązania Nvidii.
Następnie w 2016 roku mamy bardzo mile wspomniane GPU mikroarchitektury Pascal, które dzięki wykorzystaniu 16-nm litografii zapewniało rewelacyjną wydajność. Przykładowo GTX 1070 zapewniał wydajność starszego flagowca za znacznie niższą cenę (przykład jak powinna wyglądać wycena RTX-a 4080). AMD próbowało tutaj walczyć odświeżonymi w niższej litografii układami GCN, ale Radeon RX Vega 64 był w stanie walczyć wyłącznie z GTX-em 1080.
AMD wstaje z kolan, a Nvidia promuje Raytracing i DLSS
Następnie pod koniec 2018 roku mamy premierę kart z mikroarchitektury Turing, która przyniosła nam rdzenie Tensor wykorzystujące uczenie maszynowe wymagane w DLSS i rdzenie RT zapewniające sprzętową obsługę techniki śledzenia promieni.
Warto zaznaczyć, że wydajność pierwszych układów bardzo cierpiała. Przykładowo na mapie Tyralierzy w BFV RTX 2070 z trudem osiągał 30 kl./s z włączonym RT (bez DLSS). Dopiero przyszłe generacje GPU, poczynając od Ampere, zapewniły już dostateczną wydajność, a DLSS zostało dopracowane.
Warto zaznaczyć, że początkowo AMD negowało konieczność sprzętowego wsparcia śledzenia promieni, którego w pierwszej generacji GPU opartych na mikroarchitekturze RDNA nie było. To wraz z FSR zostało dodane w GPU opartych na RDNA 2 wydanych w 2020 roku, ale wydajność znacząco odstaje od rozwiązań Nvidii. Warto jednak zaznaczyć, że GPU od AMD są godnym rywalem w klasycznej rasteryzacji.
Teraz pozostaje czekać na karty graficzne z serii 7000, które pokażą, czy mogą walczyć z najnowszymi układami zielonych opartych na mikroarchitekturze Lovelace. W tle mamy też karty graficzne Intela z serii ARC, ale tutaj na osąd należy jeszcze trochę poczekać.
Publikacja powstała w ramach cyklu z okazji 20-lecia dobrychprogramów. Wszystkie artykuły można znaleźć na stronie poświęconej jubileuszowi.
Przemysław Juraszek, dziennikarz dobreprogramy.pl