AMD Radeon R9 Fury X: test godnego kandydata do tytułu najmocniejszej karty graficznej
Małe jest piękne – to wyświechtany slogan, ale w tym wypadkucałkiem trafny. Najwydajniejsza karta graficzna, jaką zdołało dotej pory stworzyć AMD, od początku przykuwa uwagę wyglądem.Wzornictwo Radeona Fury X, zamkniętego w obudowie ze zintegrowanymsystemem chłodzenia cieczą, odbiega i rozmiarami i estetyką odtego, do czego przyzwyczajały nas kolejne generacje flagowych kartgraficznych. Także i jej wydajność powinna być spektakularna,zarówno za sprawą nowego GPU Fiji, jak i innowacyjnej pamięci HBM.Czy jednak słupki na wykresach z pięknych slajdów,przygotowywanych przez dział marketingu AMD rzetelnie opisująmożliwości tego przecież nietaniego produktu? Przez ostatnie dnimieliśmy okazję w redakcji dobrychprogramów bliżej zapoznać sięz Fury X, a także porównać ją z bezpośrednim konkurentem –GeForce GTX 980 Ti od Nvidii. Zapraszam do zapoznania się zrecenzją.
08.07.2015 | aktual.: 09.07.2015 09:08
Gdy po raz pierwszy w tym roku usłyszeliśmy o zupełnie nowychflagowych Radeonach, spodziewaliśmy się… no właśnie, czego?Niektórzy mówili nawet o tak wyczekiwanej miniaturyzacji,skończeniu z wykorzystywaną od lat litografią 28 nm. Nowe kartyAMD miały też zaprezentować światu zupełnie nowy rodzaj pamięcio wysokiej przepustowości, za sprawą której wciąż uwiązane dostarego GDDR5 karty Nvidii zostałyby pod względem wydajnościdaleko w tyle.
Fiji – olbrzym ograniczony miniaturyzacją
Rzeczywistość okazała się trochę inna. Plany związane zprocesem 20 nm zawiodły, tak dla AMD jak i Nvidii. Mimo że mamy2015 rok, obaj producenci kart graficznych dalej zmuszeni są bawićw litografię 28 nm. Efekt takiego stanu rzeczy jest jasny – noweGPU są bardzo duże. Zastosowany w Fury X procesor Fiji XT mapowierzchnię 596 mm2. Dodajmy do tego cztery warstwy pamięci HBM,osadzonej na wspólnej z GPU warstwie pośredniczącej (interposerze)– i w rezultacie mamy naprawdę spory kawałek elektroniki. Takduży czip oznacza zastosowaniewyższych napięć, zastosowanie wyższych napięć to większeciepło, większe ciepło trzeba jakoś odprowadzić – i tu ukłonw stronę czerwonych, że w swojej nowej flagowej karcie domyślniezastosowali chłodzenie cieczą, znacznie efektywniejsze niż układwentylatorów referencyjnej karty GTX 980 Ti.
Przyjrzyjmy się bliżejsamemu czipowi Fiji. Rzut oka na diagram architektury pokazuje, żeczerwoni nie odeszli daleko od rozwiązań przyjętych w GPU Hawaii.Widzimy cztery silniki shaderów, z których każdy ma własnyprocesor geometrii i rasteryzer, oraz po cztery backendyrenderowania. Wzrosła jednak liczba jednostek obliczeniowych wkażdym silniku, z 11 do 16. W ten sposób z 64 shaderami najednostkę obliczeniową, w każdym z silników mamy 1024 shadery,czyli łącznie 4096 na cały procesor graficzny. Wzrosła takżeliczba jednostek teksturujących, po cztery na jednostkęobliczeniową dają nam łącznie 256 w całym czipie, niemal półtorarazy więcej, niż w Hawaii.
Jeśli ktoś jeszcze jednakpamięta problemy, jakie miało Hawaii, to może zastanowić się nadwąskim gardłem nowego czipu. Wydajność przyjętej wtedyarchitektury ograniczać miała przede wszystkim szerokość512-bitowej szyny pamięci, nawet na operacjach na grafice z 8-bitowąna kanał głębią koloru. Czy to samo nie czeka Fiji? Tak by pewniebyło, szczególnie przy powiększonej liczbie shaderów i jednostekteksturujących, gdyby nie pamięć o wysokiej przepustowości i nowemechanizmy kompresji koloru. Po prawdzie, Fiji mogłoby być jeszczewydajniejsze… tyle że wówczas nie zmieściłoby się na płytceinterpozera. Ponownie podziękujmy procesowi 28 nm.
Zanim przejdziemy donajwiększej innowacji, warto wspomnieć jeszcze o rdzeniach GraphicsCore Next. Oznaczone wciąż jako GCN 1.2, przynoszą drobneulepszenia w stosunku do tego, co pokazano w procesorach Tonga, m.in.ulepszenia wydajności teselacji, wspomnianą już bezstratnąkompresję zawartości bufora dla operacji zapisu i odczytu orazpodwojenie rozmiaru pamięci podręcznej L2 do 2 MB. Jeśli chodzi oukłady IP, to większych zmian nie ma, zaktualizowano jedynie silnikdekodowania wideo, który zapewnia teraz sprzętową akcelerację dlakodeka HEVC. Wszystko to zostało zrealizowane za pomocą 8,9 mldtranzystorów. Łącznie nowe GPU zapewnia 8,6 TFLOPS mocyobliczeniowej (oczywiście w trybie pojedynczej precyzji). Dozastosowań inżynierskich Fiji nie bardzo się nadaje, jegowydajność w podwójnej precyzji ograniczona jest do niespełna 538MFLOPS.
Trzy wymiarypamięci, szkoda że tylko cztery gigabajty
Fiji z pamięcią GDDR5szybko by się zadławiło. HBM zmieniło sytuację. Karta Fury Xpochwalić się może przepustowością pamięci na poziomie nawet512 GB/s. By osiągnąć taki wynik w starej konstrukcji, trzebabyłoby ją przetaktować do granic możliwości (i chłodzeniaazotem), tu jednak jest to zasługa nowej architektury – zegarpamięci to zaledwie 500 MHz. Jak zapewne wiecie, w konstrukcji HBMwykorzystywane są obecnie cztery warstwy DRAM, ułożone jedna naddrugą. Każda warstwa ma po parze 128-bitowych kanałów, dającłącznie 1024-bitową ścieżkę.
Ale zaraz, w specyfikacjitechnicznej mowa była o 4096-bitowej szerokości, więc czemu piszęo 1024 bitach? Po rozmowach z ludźmi z AMD doszedłem do wniosku, żemamy tu do czynienia z pewną nieścisłością. Na każdej warstwieDRAM mamy po dwie partycje pamięci podłączone 128-bitowymikanałami, o przepustowości 128 GB/s, a więc osiem z nich daje1024-bitowy interfejs. Jednak każdy z kontrolerów pamięci jestniezależnie taktowany i obsługiwany, więc podłączone do GPUcztery zestawione pakiety pamięci HBM dają łącznie 4096-bitowąprzepustowość, przekładającą się właśnie na te 512 GB/s. Niepotrzebujemy tu ogromnych taktowań jak w GDDR5, gdyż te warstwyDRAM są połączone także w pionie, przez tzw. TSV (Through SiliconVia), dzięki którym w jednym cyklu przekazać można nawetośmiokrotnie więcej danych.
HBM ma swoje zalety, ma teżswoje wady. Zaletami, oprócz ogromnej przepustowości, są też b.małe opóźnienia i nawet o 50% mniejsze zużycie energii. Wadąjest oczywiście cena procesu technologicznego, nowego i przez toograniczonego tylko do produktów z górnej półki (w pozostałychRadeonach z serii 300 wciąż mamy stare GDDR 5). Znaczniepoważniejszą wadą jest ilość pamięci. HBM pierwszej generacjima 4 GB i ani bajta więcej. W porównaniu do 6 GB pamięci na 980Ti, nie mówiąc już o monstrualnych 12 GB na Titanie X, możewydawać się to mało (tym bardziej, że „zwykły” Radeon 390Xma 8 GB GDDR5) – i faktycznie, jak przekonałem się w trakcietestów, już dzisiaj 4 GB może niekiedy nie wystarczyć, a codopiero za 2-3 lata? W końcu kart graficznych za kilka tysięcyzłotych większość osób nie kupuje na rok. W teorii możnaproblem ten rozwiązać za pomocą efektywniejszego zarządzaniapamięcią na poziomie sterowników i kodu gier, ale wszyscy wiemy,jak dziś wydawcy gier garną się do optymalizacji pod Radeony.
Póki co jednak w wypadkuwymagających pod względem pamięci gier możemy mieć problem. HBMjest oczywiście dużo szybsze od GDDR5, ale jeśli gra zostaniezmuszona do przeniesienia danych nie mieszczących się w 4 GBpamięci karty do pamięci operacyjnej komputera, to zapomnijmy o 512GB/s – zostanie nam 16 GB/s przepustowości magistrali PCIe.
DirectX 12:wsparcie wsparciu nierówne
Kto nie czeka na nową wersjębiblotek graficznych Microsoftu? Nawet taki redmondosceptyk jak jachętnie by pograł w gry pisane na nową bibliotekę – bo już podemach widać, że będą potrafiły dopieścić oko. Jak na tym tlewypada Fury X? Odpowiedź brzmi: to zależy. Deklaracje, żewszystkie dostępne w sprzedaży karty graficzne będą DirectX 12wspierać, są bowiem niewiele warte. Owszem, nowe gry na nichuruchomicie, ale niewiele więcej. W wypadku Radeonów wszystkozależy zastosowanej od wersji architektury GCN. AMD zaś zrobiłowszystko, by kwestia ta była zagmatwana.
API Direct3D 12 wprowadzabowiem trzy poziomy wsparcia: 11_1, 12_0, oraz 12_1. W wypadkuRadeonów wykorzystujących architekturę GCN 1.0 obsługiwany jesttylko poziom 11_1. Radeony z GCN 1.1 oraz 1.2 (czyli nasze Fury X)obsługują poziom 12_0. Żaden współczesny Radeon nie obsługujepoziomu 12_1, dziś radzą sobie z nim jedynie najnowsze MaxwelleNvidii (z serii 900). Nie jest to poważny niedostatek, na poziomie12_0 dostępne są już najważniejsze dodatkowe mechanizmy API, tj.Tiled Resource, Bindless i Typed UAV Access, ale nowe GeForcewypadają tu lepiej, dostarczając wsparcie dla mechanizmów RasterOrder Views, Conservative Raster oraz Volume Tiled Raster. Przynosząone ulepszenia w porządku rysowania obiektów na scenie, stapianiu,przezroczystości, antyaliasingu i efektywnym wykorzystaniukafelkowanych tekstur.
Tu mała dygresja na tematnowej karty od AMD, która może rozczarować swoich nabywców. Mamna myśli Radeona R9 370, który wykorzystuje stare rdzenie GCN 1.0.Nowiutka karta wspiera więc jedynie podstawowe funkcje DirectX 12,gorzej niż karty sprzed 2-3 lat. Oczywiście OEM-om nie przeszkadzato w umieszczaniu na pudełku informacji o „wsparciu DX12”. GTX960 też wspiera DirectX 12, jednak na daleko wyższym poziomie. Iznając praktyki handlowe Nvidii możemy się spodziewać, że gry wprzyszłości, szczególnie te korzystające z middleware GameWorks,będą te niedostępne dla Radeonów funkcje DX12 wykorzystywać dogranic możliwości.
Chłodno aległośno
Swoje pierwsze doświadczeniaz chłodzeniem cieczą AMD zdobyło przy karcie Radeon R9 295X. Taciekawa, wymagająca, dwuprocesorowa konstrukcja wykorzystywałakrążącą w zamkniętym obiegu ciecz, z wyprowadzonym na zewnątrzblokiem radiatora i wentylatora. Całość oczywiście bezobsługowa,nie wymagająca podpinania dodatkowego zasilania. W Radeonie Fury Xmamy do czynienia z ulepszoną wersją tamtego rozwiązania,estetycznie ładniejszą za sprawą oplotu pokrywającego gumowewęże. Mają one 40 cm długości, więc jak ktoś chce, możeradiator zainstalować nawet na zewnątrz obudowy.
Swoje zadanie zastosowanysystem chłodzenia wypełnia bardzo dobrze. Na jałowym biegu(oznaczonym świeceniem jednej diody wskaźnika obciążenia) RadeonR9 Fury X zgłosił zaledwie 26 °C. Po 10 minutach maksymalnegoobciążenia – uruchomiony benchmark gry Tomb Raider, ustawieniaekstremalne, rozdzielczość 2160p – zaledwie 50 °C. Pewniejesteście ciekawi, jak wypada tu karta konkurencji? Cóż, zielonebyło zdecydowanie gorętsze, na jałowym biegu 31 °C, pod takimsamym benchmarkowym obciążeniem aż 82 °C.
O ile pomiar temperatury tonie problem, to zmierzenie hałasu generowanego przez kartę jużtakie łatwe nie jest. Dysponujemy co prawda profesjonalnymmiernikiem natężenia dźwięku (Extech 407730, zapewniającydokładność pomiaru na poziomie ±2dBA), ale brakuje namdźwiękoszczelnej komory, dzięki której można byłoby uniknąćulicznych szumów i innych zaburzeń. Mierzyłem głośność kartyzainstalowanej na „gołej” płycie, bez obudowy, z odległości40 cm, tak więc w zmontowanym gamingowym, wyciszonym PC sytuacjapowinna być lepsza.
Głównym źródłem hałasupowinien być układ pompki cieczy. Normalnie niesłyszalny, podtestowym obciążeniem staje się dokuczliwy nawet przy odnotowanejgłośności 34 dBA, ze względu na częstotliwość – pisk 2 kHz(wirnik pompy wyrabia 2 tys. RPM) leży w paśmie dobrze słyszalnymdla ludzi. Powinien, ale nie jest. Znacznie bardziej hałasowałbowiem wentylator umieszczony na radiatorze, pod maksymalnymobciążeniem sięgając 54 dBA. To dużo za dużo, nawet jak nachłodzenie cieczą. Dla porównania, chłodzony powietrzem 980 Tiuzyskał 44 dBA. AMD zapewnia nas, że to problem uszkodzonegoinżynieryjnego sampla, który otrzymaliśmy do testów, w kartach„produkcyjnych” ma być znacznie ciszej.
Stanowisko AMD potwierdzająniezależne oceny renomowanych serwisów poświęconych testomsprzętu, w których głośność Fury X pod pełnym obciążeniembyła bardzo bliska tego, co osiągała karta Nvidii – z różnicamina poziomie ±3dBA. Warto jednak zauważyć, że GeForce 980 Tichłodzony jest powietrzem, więc zrównanie z nim nie jest dla AMDpowodem do dumy. Nasza platforma testowa z procesorem Core i5wykorzystuje referencyjny intelowski układ chłodzenia ciecząwykonany przez Aseteka, który nawet pod największymi obciążeniamijest praktycznie niesłyszalny.
A jeśli przeszkadzać Wambędzie głośna praca pompki, to możecie swój egzemplarz wymienić,na nieco ulepszony. Firma wydała oficjalne oświadczenie w tejsprawie, w którym przyznaje się, że mogłoby być lepiej izapewnia, że kolejne egzemplarze karty otrzymały lepszą izolacjęakustyczną.
Warto wreszcie wspomnieć opoborze energii. Cała testowa platforma z Fury X na jałowym biegupobierała 70 W, w porównaniu do 56 W z 980 Ti. Pod maksymalnymobciążeniem (wspomniany benchmark) zestaw z kartą AMD pobierał370 W, zaś z kartą Nvidii 322 W. Czy to oznacza, że opróczdrogiej karty, przyjdzie płacić drogie rachunki z elektrowni?Dzięki wprowadzonej w Radeonach serii 300 funkcji Frame RateTargeting Control tak być nie musi. Pozwala ona na sztywno ustawićliczbę klatek na sekundę generowanych przez kartę graficzną, bynie marnować energii na wyświetlanie klatek, których i tak niezobaczymy. W ten sposób w TombRaiderze w rozdzielczości FullHD przypełnych detalach, po ustawieniu sztywnego 60 FPS, zużycie energiiprzez cały zestaw spadło do 195 W, podczas gdy bez takiegoograniczenia karta pobierała ok. 320 W.
Po co komugranie w 4K?
W ten sposób doszliśmy donajważniejszej kwestii – tego, co faktycznie potrafi Radeon R9Fury X. W końcu nikt nie zapłaci co najmniej 3 tys. złotych zakartę graficzną tylko dlatego, że ładnie wygląda. Linuksowychbenchmarków tym razem nie będzie, niestety AMD do dziś niedostarczyło działających na „pingwinie” sterowników, któreobsługują procesory Fiji. Po raz kolejny okazuje się, że wprzeciwieństwie do Nvidii, AMD wciąż traktuje Linuksa jako systemdrugiej kategorii. Dostępne dla Windows sterowniki, pod którymiprzeprowadziłem testy nosiły numer 15.15 beta.
Testy przeprowadziłem wtrzech rozdzielczościach, mimo że początkowo tego wcale niechciałem. Granie w 4K nie wydaje się mieć moim zdaniem większegosensu z perspektywy fizjologii widzenia i higieny wzroku, no ale cokto lubi. AMD naciskało jednak, byśmy testy koniecznieprzeprowadzili w 4K (2160p), dostaliśmy do tego trzydziestocalowymonitor 4K od LG, dopełnił on zestawu – gamingowego monitora1440p od Asusa z obsługą mechanizmu FreeSync oraz bardzo zwykłegomonitora 1080p. Co gorsza, ten monitor 4K niespecjalnie nadawał siędo grania, był profesjonalnym sprzętem dla grafików, z ustawionymodświeżaniem ekranu 30 Hz. Efekt był niepiękny, ale na potrzebybenchmarków musiał wystarczyć.
Zacząłem od gry kojarzonejwręcz z Radeonami (dziękuję Krzysztofowi Fiedorowi za użyczenieswojego konta na Origin). Battlefield 4 powinien być wzorcową grą,wykorzystującą niskopoziomowy interfejs Mantle. Niestety gra poustawieniu na Mantle działała na Fury X niestabilnie, co ciekawe zgorszą wydajnością niż na DirectX 11. Co się okazuje? Konkurentod Nvidii wyraźnie wygrał w każdej rozdzielczości – immniejszej, tym przewaga GeForce była większa. Ta sytuacjapowtarzała się zresztą w większości gier. Wiadomo, nikt niekupuje kart za 3 tys. złotych do grania w 1080p, ale jednak słabewyniki Fury X w tej rozdzielczości każą się zastanowić, czemukarta AMD tak dziwnie się skaluje.
Kolejne popularne gry toBioshock Infinite oraz Far Cry 4. W pierwszej z nich Radeon szedłłeb w łeb z GeForce, a pod względem minimalnej liczby klatek nasekundę nawet nieco wyprzedzał zielonego konkurenta. W drugiej jużtak dobrze nie było, choć ponownie – im wyższa rozdzielczość,tym różnice wobec GeForce mniejsze.
W kultowym już Wiedźminie 3wyniki zielonego (jak można się spodziewać) były lepsze.Oczywiście technologia HairWorks została wyłączona, po jejwłączeniu sytuacja dla czerwonych jest jeszcze gorsza. Wrozdzielczości 4K Fury X zdołał jednak zremisować. Zaskoczyłomnie jednak, że GeForce wypadł też lepiej w grze mocno kojarzonejz AMD, czyli Tomb Raiderze 2013 (przy wyłączonych włosachTressFX).
Powyższe gry mnie osobiściemało interesują. Ukłon dla miłośników strategii, kolejna graoptymalizowana pod Mantle, Civilization: Beyond Earth – i ponowneproblemy z Mantle. Pod kontrolą DirectX 11 karta Nvidii okazała sięlepsza, choć w rozdzielczości 4K niemal zremisowała. Na koniec zato warto wspomnieć o Talos Principle, w którą ostatnio sam mamprzyjemność grać – tutaj już Fury X zdołało wygrać zzielonym.
Z testów wyleciały dwiegry, które miały się tu znaleźć. Pierwsza to GTA V, który poostatniej łatce drastycznie pogorszył swoje wyniki pod kartami AMDi działał na Fury X niezbyt stabilnie, oraz GRID: Autosport, któryz kolei niestabilnie zachowywał się na GeForce (dając przy tymzdecydowane zwycięstwo Radeonowi). Po raz kolejny widać, jak bardzowyniki uzyskane w takich testach związane są z konkretną wersjąsterowników i kolejnymi łatkami gier.
Dla zainteresowanych jeszczewyniki popularnego testu syntetycznego, czyli 3DMark FireStrike. Jakwidać i tutaj im trudniejsza sytuacja, tym Fury X sobie lepiejradzi. Nie dziwi, że AMD było tak zainteresowane przeprowadzeniemtestów w 4K. Czy granie w 4K na gamingowych monitorach o przekątnejnie przekraczającej zwykle trzydziestu cali ma sens – na toodpowiedzieć musicie sobie sami. Moim zdaniem jest to po prostu zbytkosztowna zabawa, a może wręcz ślepy zaułek grania na PC. O wielelepiej byłoby skupić się na rozdzielczości 1440p, wirtualnejrzeczywistości, wysokich FPS-ach, niż mordowaniu 28-nanometrowychukładów pompowaniem ogromnej ilości grafiki kosztem dużej ilościenergii.
Na koniec kilka słów ooverclockingu tej karty. Dostępne dziś narzędzia do łatwegopodkręcania, takie jak MSI Afterburner, jeszcze układów Fiji nieobsługują, ale pojawiły się już triki, dzięki którym co niecomożna uzyskać te kilka FPS dodatkowo w grach. Rdzeń udało mi sięstabilnie podkręcić do 1105 MHz, a pamięć do 540 MHz, toprzełożyło się na 2 FPS więcej w Wiedźminie 3 w 1440p.
Podsumowanie: sukces rzutem na taśmę
AMD stworzyło bardzo ciekawą kartę, wyciskając ze staregoprocesu technologicznego 28 nm i architektury GCN 1.2 chyba wszystko,co było możliwe, wprowadzając zupełnie nowy rodzaj pamięci idostarczając entuzjastom gier pięknej pod względem wzornictwakonstrukcji, ze zintegrowanym ciekłym chłodzeniem. Czy jednak towystarczy, by rzucić wyzwanie flagowej karcie Nvidii? Karta jest„cool”, zarówno pod względem wyglądu, jak i temperatur pracy,i na pewno osiąga zamierzone jej przez AMD cele – to świetnyprodukt do grania w 4K.
Jak już wspomniałem, nie bardzo rozumiem, po co komu jednakgranie w takich rozdzielczościach, szczególnie na niedużychprzecież ekranach komputerowych monitorów. Oczywiście możnapomyśleć o podłączeniu dużego telewizora 4K o przekątnej 55”(a może i większego), ale AMD jakby zapomniało o złączu HDMI2.0, niewiele zaś telewizorów ma wejście DisplayPort.
Mała i piękna obudowa przestaje zaś być taka mała, gdy sobieprzypomnimy, że gdzieś ten radiator z wentylatorem trzeba umieścić.Teraz pomyślmy, co powiedzieć mieliby ekstremiści zainteresowaniwsadzeniem do obudowy dwóch takich kart, spiętych w CrossFire. Jestto nowe podejście do projektowania, które od budujących swojegamingowe PC będzie wymagało pewnej kreatywności. Ja mogę tylkopowiedzieć, że w naszym testowym PC już jeden system chłodzeniacieczą dla CPU mamy – wsadzić radiator drugiego po prostu nie magdzie.
Niepokoi niepełne wsparcie dla DirectX 12. Znając Nvidię,wykorzysta ona każdą przewagę konkurencyjną, jaką będzie mogła– w tym też postara się, by nowe gry korzystały na PC zewszystkich możliwości oferowanych przez niskopoziomowy interfejsMicrosoftu. Niepokoi też 4 GB pamięci, której łatwo nie będziemożna zwiększyć. Jak pokazały nieciekawe doświadczenia z GTA V,nie jest wcale trudno wyjść poza taką ilość, można sobiewyobrazić, że w grach roku 2016 i 2017 oczekiwanie 6 GB i więcejdla ekstremalnych ustawień będzie czymś normalnym.
I tak oto nowy król Radeonów ledwo ledwo, ale mimo wszystkozdołał nawiązać równorzędną walkę z GeForce, znaczącowyprzedzając GTX980 i lądując bezpośrednio obok 980 Ti. To dziśdwie najwydajniejsze karty graficzne na rynku, pomijając wyniki dlarozdzielczości 1080p w zasadzie nieodróżnialne w wielu grach. Byprzekonać zamożniejszych fanów czerwonych do jej zakupu nie trzebaznowu tak wiele – może jakaś ciekawa oferta wiązana z monitorami1440p z FreeSync, może jakieś zestawy załączonych gier, możewreszcie obniżka ceny, by była bardziej konkurencyjna względemGeForce.
- Piękne wzornictwo
- Superszybka pamięć
- Wydajne chłodzenie
- Kontrola docelowego FPS
- Brak pełnego wsparcia DirectX 12
- 4 GB RAM mogą w końcu nie wystarczyć
- Brak HDMI 2.0
- Niezadowalająca wydajność w 1080p