Test RTX 4070 od Inno3D. Godny następca RTX 3070?
Minęło przeszło pół roku od premiery topowych układów generacji Ada Lovelace. Upłynęło także sporo wody od zaprezentowania szerokiej publice odpowiedników po stronie AMD. Po sześciu miesiącach Nvidia zdecydowała się w końcu na kolejny ruch i tym samym na sklepowe półki wędruje RTX 4070 - przedstawiciel tzw. średniego segmentu. Warto było czekać? Przekonajmy się testując model Inno3D RTX 4070 iChill X3.
Dwunastego kwietnia padło embargo na recenzje RTX 4070 w wersji Founders Edition od Nvidii. Tym samym wielu z was pewnie już mniej więcej wie, co potrafi nowa karta graficzna Zielonych. Dziś natomiast przestaje obowiązywać embargo na testy autorskich konstrukcji wszelakich partnerów AIB. MSPR nowego członka rodziny Ada Lovelace ustalono w wysokości 600$, co stawia go na równi z identycznie wycenionym w dniu premiery RTX 3070 Ti. Jest to także całe sto dolarów więcej niż pierwotnie kosztowała bazowa 3070-tka. Nie przedłużając przejdźmy do konkretów.
Krótko i zwięźle o nowym układzie Ada Lovelace
Procesor graficzny GeForce RTX 4070 wykonano w litografii 4 nm w fabrykach TSMC. Rdzeń AD104 posiada 5888 rdzeni CUDA, czyli dokładnie tyle samo, co RTX 3070. Jest jednak kilka bardzo istotnych usprawnień względem starszego rdzenia GA104 kutego wspólnie ze Samsungiem. Po pierwsze mamy do czynienia z dużo mniejszą powierzchnią rdzenia: 295 mm² vs. 392 mm².
Oczywiście względem poprzenika nowy produkt legitymuje się wyższym taktowaniem rdzenia i pamięci. A skoro o pamięci już mówimy to tej przybyło. Producent oddaje do dyspozycji 12GB w standardzie GDDR6X. Niestety szyna pamięci wynosi 192‑bit, co jest ewidentnym downgradem w stosunku do 256‑bit 3070-tki. Gdzie znajdziemy rekompensatę to nowsza generacja RT Cores oraz Tensor Cores. Do tego karta daje nam obsługę kodeka wideo AV1. Słowem mamy wszystkie łakocie i witaminki generacji Ada Lovelace – łącznie z DLSS Frame Generation.
Pomówmy teraz o modelu Inno3D RTX 4070 iChill X3. Na karcie znajdziemy wtyczkę zasilania 12VHPWR a rekomendowany zasilacz dla testowanego układu powinien legitymować się mocą 600W. W pudle powinniśmy znaleźć przejściówkę 2x 8‑pin PCIe na 12VHPWR. Z jakiegoś powodu ja miałem wariant 3x 8‑pin, czyli ten z RTX 4070 Ti. Zapewne przeoczenie w fabryce. Zresztą mniejsza o to, ponieważ wszystkie testy przeprowadziłem na zasilaczu z dedykowanym przewodem 12VHPWR.
Szok i niedowierzanie: produkt w każdym możliwym względzie wygląda identycznie, co testowana na początku roku 4070-tka Ti. Oba układy wyposażono w ten sam system chłodzenia o wymiarach 334 x 148 x 62mm, gdzie za przepływ powietrza odpowiadają trzy wentylatory 98 mm. Oczywiście nie mogło zabraknąć ARGB. Niestety i tym razem nie można nim sterować z poziomu oprogramowania producenta karty graficznej. Musicie skorzystać z dostarczonego w zestawie przewodu 3‑pin, który następnie podpinamy do płyty głównej. Dopiero tak jesteśmy w stanie modyfikować podświetlanie.
Platforma testowa
- Procesor: Ryzen 9 3900X
- Płyta główna: NZXT N7 B550
- Chłodzenie: iCUE H150i Elite LCD XT
- Pamięć RAM: Vengeance RGB RT 32GB 3600MHz
- Dysk: Crucial MX500 250GB + Corsair MP600 2TB
- Obudowa: Corsair 5000D Airflow
- PSU: Corsair RM1000x Shift
- System: Windows 10 Pro 22H2
- Monitor: Cooler Master GM32-FQ
- Sterowniki: Nvidia 531.42
Słów kilka o metodyce testu
Z dostarczonych materiałów marketingowych wynika, że nowym produktem Nvidia celuje w użytkowników kart GTX 1080 oraz RTX 2070. W tym wypadku trzeba przypomnieć, że układ z rodziny Pascal (sprzed gorączki na Ray Tracing) w tym roku obchodzi siódme urodziny.
Ponieważ RTX 4070 wyceniono na 600$ postanowiłem zmierzyć go z RTX 3080. W przeszłości przeważnie bywało tak, że nowsze układy z numerem 70 biły 80‑tki poprzedniej generacji. Czy tak będzie i tym razem? Zobaczymy. Po drugie aktualna cena nowego średnio-półkowca sytuuje go w dość ciekawej pozycji. Wypada on wyraźnie ponad topowe modele AMD serii 6000 a także kosztuje plus-minus mniej więcej tyle, co 3080 z drugiej ręki.
W poniższym teście skupiłem się na 1440p. Producent sam rekomenduje tę rozdzielczość, obiecując +100 fps. Po drugie kupując GPU w cenie 600$ podejrzewam, że właśnie taki standard będzie chodzić nam po głowie. Na koniec, z ciężkim sercem przyznaję, ale Ryzen 9 3900X w 1080p stanowi wąskie gardło dla RTX 3080, 4070 a tym bardziej 4070 Ti. W 1440p bywa różnie.
Garść benchmarków syntetycznych
Chwyćmy za benchmarki. Pozwoli nam to ustalić mniej więcej gdzie ląduje nowa karta graficzna. W programie Superposition niestety zalicza wyraźną stratę do 3080-tki.
Następnie mamy 3DMark. Interesuje nas wynik uzyskany wyłącznie przez samą kartę graficzną. Ogółem mamy cztery testy: Fire Strike ULTRA (4K, DX11), Time Spy Extreme (4K, DX12), Port Royal (DX12, RayTracing) oraz najnowszy Speed Way stworzony z myślą o najbardziej high-endowych systemach.
W tym przypadku sprawy mają się nieco inaczej. RTX 3080 i RTX 4070 wypadają blisko siebie, walcząc jak równy z równym. RTX 4070 Ti to natomiast zupełnie inna klasa GPU, będąc poza zasięgiem tej dwójki.
Z ciekawości wykonałem jeszcze jedną przebieżkę w klasyku Heaven Benchmark. Głównie, dlatego, ponieważ praktycznie nie angażuje CPU, co daje nam porównać surową moc GPU w rasteryzacji. Pamiętajmy jednak, że jest to bardzo leciwy program, dlatego dziś traktuję go jako ciekawostkę. Pokusiłem się o dwie rozdzielczości: 1080p i 1440p. W tym scenariuszu 3080 nie zostawia suchej nitki na 4070. Do tego w 1440p niebezpiecznie zbliża się do 4070 Ti.
Porównanie kart graficznych w 2560 x 1440 px czas zacząć
„Syntetyki” to jedno a gry to drugie. Na poniższych trzech wykresach możecie porównać trzy karty graficzne przy maksymalnych ustawieniach graficznych, bez dodatku w postaci śledzenia promieni lub DLSS. W tym teście bierze udział m.in. remaster Crysis 3 oraz Wiedźmina 3.
Karta z rodziny Ampere radzi sobie wzorowo. Ogółem jest moc. To jak wypada 4070-tka? Zobaczcie poniżej.
Obie karty idą dosłownie łeb w łeb. Nawet "nowy" Wiedźmin nie stanowi problemu (odpalony z poziomu DirectX 11). Jedyne, gdzie starsza karta zalicza wyraźne zwycięstwo to Battlefield V. A teraz dorzućmy do zestawienia najmocniejsze GPU z naszego trio.
Według ogólnie dostępnych w sieci benchmarków Ti‑ajka powinna poradzić sobie lepiej a po prawdzie wypada dość blisko naszych zawodników. Różnice to średnio 13 do 20‑paru klatek na sekundę. W Warzone wszystkie karty mają nawet identyczny wynik. Przypomnę tylko, że obie 4070 są pozycjonowane w roli układów dedykowanych do zabawy w 1440p. Niestety w tym przypadku problem powinniśmy upatrywać w użytym procesorze.
No dobrze a jak wypada Ray Tracing i DLSS? Trzeba pamiętać, że śledzenie promieni nie tylko narzuca większe wymagania względem GPU, ale cięgi zgarnia także CPU. W obroty wziąłem m.in. Control, Cyberpunk, odświeżonego Wiedźmina. Zostawiam dla Was tylko jeden wykres, bo na mojej platformie Wrażenia są mieszane. Za każdym razem cała trójka wychodzi bardzo blisko siebie - raz 3080 ląduje obok Ti, aby zaraz potem znaleźć się przy bazowym 4070.
Karta graficzna to dziś więcej niż gry
Test nie byłby kompletny bez aplikacji profesjonalnych. Na tym polu RTX 4070 błyszczy! Zacznijmy od popularnego Blendera. W scenie Monster wykręcił wynik niemal identyczny do RTX 3090.
W SpecView 2020, adresowanym do profesjonalistów, RTX 4070 i 3080-tka lądują bardzo blisko siebie a Ti ponownie odskakuje. Mimo wszystko to inna klasa GPU. Ciekawie wygląda zestawienie z RTX A4000, kosztującym na rynku wtórnym tyle, co nowa 4070-tka.
Natomiast w V‑Ray oraz Octane Bench 2020 bohater dzisiejszego testu odnosi znaczące zwycięstwo nad "OG" RTX 3080. Nowy Ada Lovelace powinien zainteresować profesjonalistów z ograniczonym budżetem.
Sprawność to wielki atut RTX 4070
Na polu wypluwanych klatek w grach RTX 4070 daje raczej poprawne wyniki. Natomiast to jak osiąga powyższe rezultaty zasługuje na ogromne brawa. Przykładowo w odświeżonym Crysis 3 i Wiedźminie komputer z 3080-tką pobierał z gniazdka ok. 560W. Z tego przypadało ok. 320W na samą kartę grafiki. Natomiast z 4070-tką PC w obu grach połykał odpowiednio 370 i 398W. Zależnie od tytułu pobór karty wypada między 180 a 200W.
W zastosowaniach profesjonalnych nowe GPU zadowoli się jeszcze mniejszą ilością energii. Najniższy odnotowany wynik to 130W. Przeważnie kradnie ok. 170W. Rezultaty te przekładają się na wysoką kulturę pracy. Przy zamkniętej obudowie, po trzech godzinach pracy, zanotowałem temperatury od 54 do 61 stopni. Karta jest bardzo cicha. Testując Inno3D RTX 4070 iChill X3 nie usłyszałem także piszczących cewek. W identycznych warunkach RTX 3080, zresztą od Inno3D z serii iChill, nawet przy otwartej obudowie dobija do 74 stopni, wyjąc przy tym niesamowicie.
Kontrowersje wokół pamięci
O czym jeszcze chciałby wspomnieć to wykorzystanie pamięci. Nie chodzi o wartość powszechnie pokazywaną w GPU‑Z czy RTSS, czyli tzw. alokację a raczej o to ile poszczególne gry faktycznie użytkowały pamięci. Ze wszystkich jedynie Horizon Zero Dawn w ustawieniach Ultra przekroczył 9GB VRAM. Pozostałe tytuły używały od 2500 do 5900MB, gdzie przeważnie średnia wynosiła mniej więcej pięć gigabajtów. Odświeżony Wiedźmin 3 z poziomu DirectX 11 potrzebował tylko 2.5GB VRAM. Nawet Control z śledzeniem promieni bez DLSS na RTX 4070 bierze trochę ponad 6GB pamięci. Cyberpunk 2077 bez DLSS z włączonym RT niewiele więcej.
Zatem wydaje się, że zarówno karty z 10GB jak i 12GB pamięci VRAM na pokładzie spokojnie radzą sobie w rozdzielczości 2560 x 1440 px. Oczywiście sprawy mogą i będą wyglądać nieco inaczej w standardzie 2160p. Co jednak ciekawe, także i tym scenariuszu 4070 potrafi pozytywnie zaskoczyć. Ostatecznie wydaje mi się, że wiele będzie zależeć od ogólnej optymalizacji nadchodzących gier.
Kosztowna ta Siedemdziesiątka
RTX 4070 Ti startował z poziomu 799$. W Polsce karta ta kursuje w cenach od 4400 do 5000 zł. Ceny kart GeForce RTX 4070 zaczynają się od ok. 3100 - 3200 złotych; za lepsze wersje trzeba wydać już 3600 – 3900 złotych. No dobrze, a jak wypada Inno3D RTX 4070 iChill X3? Karta w sieci X‑Kom została wyceniona na 3479 zł. Niestety nie mam pojęcia o dostępności.
Co otrzymujemy za tak pokaźny plik gotówki? Karta w zestawieniu z 3070 w obu wersjach daje wyraźny acz umiarkowany skok wydajności. Generalnie dostajemy prawię tą samą wydajność, co 3080 za mimo wszystko niższe pieniądze. Gdzie Nvidia oferuje prawdziwy skok generacyjny to wszystkie dodatki: encodery i dekodery wideo, zastosowanie AI w obróbce obrazu, DLSS Frame Generation itd., itp. Osobiście za ogromną zaletę uważam kulturę pracy i pobór energii. Inno3D RTX 4070 iChill X3 pod tym względem wypada wzorowo.
Podsumowując, dostaliśmy naprawdę dobry produkt w niestety niezbyt przychylnych czasach – szarżująca inflacja, widmo kryzysu, malejące zainteresowanie rynkiem PC. W takich warunkach wydatek trzech tysięcy czterystu złotych za kartę (mimo wszystko) ze średniego segmentu to pigułka bardzo trudna do przełknięcia. A jak wy zapatrujecie się na nową kartę Nvidii? Sięgnięcie po nią w ramach gamingu czy może kusi Was na gruncie zastosowań profesjonalnych?