Blog (290)
Komentarze (260)
Recenzje (0)
@SirckTest RTX 4070 od Inno3D. Godny następca RTX 3070?

Test RTX 4070 od Inno3D. Godny następca RTX 3070?

Minęło przeszło pół roku od premiery topowych układów generacji Ada Lovelace. Upłynęło także sporo wody od zaprezentowania szerokiej publice odpowiedników po stronie AMD. Po sześciu miesiącach Nvidia zdecydowała się w końcu na kolejny ruch i tym samym na sklepowe półki wędruje RTX 4070 - przedstawiciel tzw. średniego segmentu. Warto było czekać? Przekonajmy się testując model Inno3D RTX 4070 iChill X3.

2400864

Dwunastego kwietnia padło embargo na recenzje RTX 4070 w wersji Founders Edition od Nvidii. Tym samym wielu z was pewnie już mniej więcej wie, co potrafi nowa karta graficzna Zielonych. Dziś natomiast przestaje obowiązywać embargo na testy autorskich konstrukcji wszelakich partnerów AIB. MSPR nowego członka rodziny Ada Lovelace ustalono w wysokości 600$, co stawia go na równi z identycznie wycenionym w dniu premiery RTX 3070 Ti. Jest to także całe sto dolarów więcej niż pierwotnie kosztowała bazowa 3070-tka. Nie przedłużając przejdźmy do konkretów.

Krótko i zwięźle o nowym układzie Ada Lovelace

Procesor graficzny GeForce RTX 4070 wykonano w litografii 4 nm w fabrykach TSMC. Rdzeń AD104 posiada 5888 rdzeni CUDA, czyli dokładnie tyle samo, co RTX 3070. Jest jednak kilka bardzo istotnych usprawnień względem starszego rdzenia GA104 kutego wspólnie ze Samsungiem. Po pierwsze mamy do czynienia z dużo mniejszą powierzchnią rdzenia: 295 mm² vs. 392 mm².

Memory Bandwidth (GB/sec) nowej karty jest identyczny, jak w przypadku RTX 4070 Ti.
Memory Bandwidth (GB/sec) nowej karty jest identyczny, jak w przypadku RTX 4070 Ti.

Oczywiście względem poprzenika nowy produkt legitymuje się wyższym taktowaniem rdzenia i pamięci. A skoro o pamięci już mówimy to tej przybyło. Producent oddaje do dyspozycji 12GB w standardzie GDDR6X. Niestety szyna pamięci wynosi 192‑bit, co jest ewidentnym downgradem w stosunku do 256‑bit 3070-tki. Gdzie znajdziemy rekompensatę to nowsza generacja RT Cores oraz Tensor Cores. Do tego karta daje nam obsługę kodeka wideo AV1. Słowem mamy wszystkie łakocie i witaminki generacji Ada Lovelace – łącznie z DLSS Frame Generation.

3x DisplayPort 1.4a + HDMI 2.1a
3x DisplayPort 1.4a + HDMI 2.1a

Pomówmy teraz o modelu Inno3D RTX 4070 iChill X3. Na karcie znajdziemy wtyczkę zasilania 12VHPWR a rekomendowany zasilacz dla testowanego układu powinien legitymować się mocą 600W. W pudle powinniśmy znaleźć przejściówkę 2x 8‑pin PCIe na 12VHPWR. Z jakiegoś powodu ja miałem wariant 3x 8‑pin, czyli ten z RTX 4070 Ti. Zapewne przeoczenie w fabryce. Zresztą mniejsza o to, ponieważ wszystkie testy przeprowadziłem na zasilaczu z dedykowanym przewodem 12VHPWR.

Akcesoria dołączone do zestawu. Wszystkie iChill'e dostają to samo.
Akcesoria dołączone do zestawu. Wszystkie iChill'e dostają to samo.

Szok i niedowierzanie: produkt w każdym możliwym względzie wygląda identycznie, co testowana na początku roku 4070-tka Ti. Oba układy wyposażono w ten sam system chłodzenia o wymiarach 334 x 148 x 62mm, gdzie za przepływ powietrza odpowiadają trzy wentylatory 98 mm. Oczywiście nie mogło zabraknąć ARGB. Niestety i tym razem nie można nim sterować z poziomu oprogramowania producenta karty graficznej. Musicie skorzystać z dostarczonego w zestawie przewodu 3‑pin, który następnie podpinamy do płyty głównej. Dopiero tak jesteśmy w stanie modyfikować podświetlanie.

Platforma testowa

  • Procesor: Ryzen 9 3900X
  • Płyta główna: NZXT N7 B550
  • Chłodzenie: iCUE H150i Elite LCD XT
  • Pamięć RAM: Vengeance RGB RT 32GB 3600MHz
  • Dysk: Crucial MX500 250GB + Corsair MP600 2TB
  • Obudowa: Corsair 5000D Airflow
  • PSU: Corsair RM1000x Shift
  • System: Windows 10 Pro 22H2
  • Monitor: Cooler Master GM32-FQ
  • Sterowniki: Nvidia 531.42

Słów kilka o metodyce testu

Z dostarczonych materiałów marketingowych wynika, że nowym produktem Nvidia celuje w użytkowników kart GTX 1080 oraz RTX 2070. W tym wypadku trzeba przypomnieć, że układ z rodziny Pascal (sprzed gorączki na Ray Tracing) w tym roku obchodzi siódme urodziny.

Na pokładzie mamy 2x Encoder 8. generacji i dekoder 5. generacji od Nvidii.
Na pokładzie mamy 2x Encoder 8. generacji i dekoder 5. generacji od Nvidii.

Ponieważ RTX 4070 wyceniono na 600$ postanowiłem zmierzyć go z RTX 3080. W przeszłości przeważnie bywało tak, że nowsze układy z numerem 70 biły 80‑tki poprzedniej generacji. Czy tak będzie i tym razem? Zobaczymy. Po drugie aktualna cena nowego średnio-półkowca sytuuje go w dość ciekawej pozycji. Wypada on wyraźnie ponad topowe modele AMD serii 6000 a także kosztuje plus-minus mniej więcej tyle, co 3080 z drugiej ręki.

Wtyczka zasilania, wzorem Ti-ajki, została solidnie schowana.
Wtyczka zasilania, wzorem Ti-ajki, została solidnie schowana.

W poniższym teście skupiłem się na 1440p. Producent sam rekomenduje tę rozdzielczość, obiecując +100 fps. Po drugie kupując GPU w cenie 600$ podejrzewam, że właśnie taki standard będzie chodzić nam po głowie. Na koniec, z ciężkim sercem przyznaję, ale Ryzen 9 3900X w 1080p stanowi wąskie gardło dla RTX 3080, 4070 a tym bardziej 4070 Ti. W 1440p bywa różnie.

Garść benchmarków syntetycznych

Chwyćmy za benchmarki. Pozwoli nam to ustalić mniej więcej gdzie ląduje nowa karta graficzna. W programie Superposition niestety zalicza wyraźną stratę do 3080-tki.

2401034

Następnie mamy 3DMark. Interesuje nas wynik uzyskany wyłącznie przez samą kartę graficzną. Ogółem mamy cztery testy: Fire Strike ULTRA (4K, DX11), Time Spy Extreme (4K, DX12), Port Royal (DX12, RayTracing) oraz najnowszy Speed Way stworzony z myślą o najbardziej high-endowych systemach.

2401035

W tym przypadku sprawy mają się nieco inaczej. RTX 3080 i RTX 4070 wypadają blisko siebie, walcząc jak równy z równym. RTX 4070 Ti to natomiast zupełnie inna klasa GPU, będąc poza zasięgiem tej dwójki.

2401036

Z ciekawości wykonałem jeszcze jedną przebieżkę w klasyku Heaven Benchmark. Głównie, dlatego, ponieważ praktycznie nie angażuje CPU, co daje nam porównać surową moc GPU w rasteryzacji. Pamiętajmy jednak, że jest to bardzo leciwy program, dlatego dziś traktuję go jako ciekawostkę. Pokusiłem się o dwie rozdzielczości: 1080p i 1440p. W tym scenariuszu 3080 nie zostawia suchej nitki na 4070. Do tego w 1440p niebezpiecznie zbliża się do 4070 Ti.

Porównanie kart graficznych w 2560 x 1440 px czas zacząć

„Syntetyki” to jedno a gry to drugie. Na poniższych trzech wykresach możecie porównać trzy karty graficzne przy maksymalnych ustawieniach graficznych, bez dodatku w postaci śledzenia promieni lub DLSS. W tym teście bierze udział m.in. remaster Crysis 3 oraz Wiedźmina 3.

2401037

Karta z rodziny Ampere radzi sobie wzorowo. Ogółem jest moc. To jak wypada 4070-tka? Zobaczcie poniżej.

2401038

Obie karty idą dosłownie łeb w łeb. Nawet "nowy" Wiedźmin nie stanowi problemu (odpalony z poziomu DirectX 11). Jedyne, gdzie starsza karta zalicza wyraźne zwycięstwo to Battlefield V. A teraz dorzućmy do zestawienia najmocniejsze GPU z naszego trio.

2401039

Według ogólnie dostępnych w sieci benchmarków Ti‑ajka powinna poradzić sobie lepiej a po prawdzie wypada dość blisko naszych zawodników. Różnice to średnio 13 do 20‑paru klatek na sekundę. W Warzone wszystkie karty mają nawet identyczny wynik. Przypomnę tylko, że obie 4070 są pozycjonowane w roli układów dedykowanych do zabawy w 1440p. Niestety w tym przypadku problem powinniśmy upatrywać w użytym procesorze.

2401040

No dobrze a jak wypada Ray Tracing i DLSS? Trzeba pamiętać, że śledzenie promieni nie tylko narzuca większe wymagania względem GPU, ale cięgi zgarnia także CPU. W obroty wziąłem m.in. Control, Cyberpunk, odświeżonego Wiedźmina. Zostawiam dla Was tylko jeden wykres, bo na mojej platformie Wrażenia są mieszane. Za każdym razem cała trójka wychodzi bardzo blisko siebie - raz 3080 ląduje obok Ti, aby zaraz potem znaleźć się przy bazowym 4070.

Karta graficzna to dziś więcej niż gry

Test nie byłby kompletny bez aplikacji profesjonalnych. Na tym polu RTX 4070 błyszczy! Zacznijmy od popularnego Blendera. W scenie Monster wykręcił wynik niemal identyczny do RTX 3090.

2401061

W SpecView 2020, adresowanym do profesjonalistów, RTX 4070 i 3080-tka lądują bardzo blisko siebie a Ti ponownie odskakuje. Mimo wszystko to inna klasa GPU. Ciekawie wygląda zestawienie z RTX A4000, kosztującym na rynku wtórnym tyle, co nowa 4070-tka.

2401062

Natomiast w V‑Ray oraz Octane Bench 2020 bohater dzisiejszego testu odnosi znaczące zwycięstwo nad "OG" RTX 3080. Nowy Ada Lovelace powinien zainteresować profesjonalistów z ograniczonym budżetem.

190438
190437

Sprawność to wielki atut RTX 4070

Na polu wypluwanych klatek w grach RTX 4070 daje raczej poprawne wyniki. Natomiast to jak osiąga powyższe rezultaty zasługuje na ogromne brawa. Przykładowo w odświeżonym Crysis 3 i Wiedźminie komputer z 3080-tką pobierał z gniazdka ok. 560W. Z tego przypadało ok. 320W na samą kartę grafiki. Natomiast z 4070-tką PC w obu grach połykał odpowiednio 370 i 398W. Zależnie od tytułu pobór karty wypada między 180 a 200W.

Inno3D RTX 4070, 3070 oraz MSI GTX 1070. Do kompletu brakuje RTX 2070.
Inno3D RTX 4070, 3070 oraz MSI GTX 1070. Do kompletu brakuje RTX 2070.

W zastosowaniach profesjonalnych nowe GPU zadowoli się jeszcze mniejszą ilością energii. Najniższy odnotowany wynik to 130W. Przeważnie kradnie ok. 170W. Rezultaty te przekładają się na wysoką kulturę pracy. Przy zamkniętej obudowie, po trzech godzinach pracy, zanotowałem temperatury od 54 do 61 stopni. Karta jest bardzo cicha. Testując Inno3D RTX 4070 iChill X3 nie usłyszałem także piszczących cewek. W identycznych warunkach RTX 3080, zresztą od Inno3D z serii iChill, nawet przy otwartej obudowie dobija do 74 stopni, wyjąc przy tym niesamowicie.

Kontrowersje wokół pamięci

O czym jeszcze chciałby wspomnieć to wykorzystanie pamięci. Nie chodzi o wartość powszechnie pokazywaną w GPU‑Z czy RTSS, czyli tzw. alokację a raczej o to ile poszczególne gry faktycznie użytkowały pamięci. Ze wszystkich jedynie Horizon Zero Dawn w ustawieniach Ultra przekroczył 9GB VRAM. Pozostałe tytuły używały od 2500 do 5900MB, gdzie przeważnie średnia wynosiła mniej więcej pięć gigabajtów. Odświeżony Wiedźmin 3 z poziomu DirectX 11 potrzebował tylko 2.5GB VRAM. Nawet Control z śledzeniem promieni bez DLSS na RTX 4070 bierze trochę ponad 6GB pamięci. Cyberpunk 2077 bez DLSS z włączonym RT niewiele więcej.

Obsługa RGB: Aura Sync, Mystic Light, Polychrome, RGB Fusion.
Obsługa RGB: Aura Sync, Mystic Light, Polychrome, RGB Fusion.

Zatem wydaje się, że zarówno karty z 10GB jak i 12GB pamięci VRAM na pokładzie spokojnie radzą sobie w rozdzielczości 2560 x 1440 px. Oczywiście sprawy mogą i będą wyglądać nieco inaczej w standardzie 2160p. Co jednak ciekawe, także i tym scenariuszu 4070 potrafi pozytywnie zaskoczyć. Ostatecznie wydaje mi się, że wiele będzie zależeć od ogólnej optymalizacji nadchodzących gier.

Kosztowna ta Siedemdziesiątka

RTX 4070 Ti startował z poziomu 799$. W Polsce karta ta kursuje w cenach od 4400 do 5000 zł. Ceny kart GeForce RTX 4070 zaczynają się od ok. 3100 - 3200 złotych; za lepsze wersje trzeba wydać już 3600 – 3900 złotych. No dobrze, a jak wypada Inno3D RTX 4070 iChill X3? Karta w sieci X‑Kom została wyceniona na 3479 zł. Niestety nie mam pojęcia o dostępności.

Co otrzymujemy za tak pokaźny plik gotówki? Karta w zestawieniu z 3070 w obu wersjach daje wyraźny acz umiarkowany skok wydajności. Generalnie dostajemy prawię tą samą wydajność, co 3080 za mimo wszystko niższe pieniądze. Gdzie Nvidia oferuje prawdziwy skok generacyjny to wszystkie dodatki: encodery i dekodery wideo, zastosowanie AI w obróbce obrazu, DLSS Frame Generation itd., itp. Osobiście za ogromną zaletę uważam kulturę pracy i pobór energii. Inno3D RTX 4070 iChill X3 pod tym względem wypada wzorowo.

3480 PLN za kartę z średniej półki... Na szczęście Inno3D ma tańszy wariant 4070 X2.
3480 PLN za kartę z średniej półki... Na szczęście Inno3D ma tańszy wariant 4070 X2.

Podsumowując, dostaliśmy naprawdę dobry produkt w niestety niezbyt przychylnych czasach – szarżująca inflacja, widmo kryzysu, malejące zainteresowanie rynkiem PC. W takich warunkach wydatek trzech tysięcy czterystu złotych za kartę (mimo wszystko) ze średniego segmentu to pigułka bardzo trudna do przełknięcia. A jak wy zapatrujecie się na nową kartę Nvidii? Sięgnięcie po nią w ramach gamingu czy może kusi Was na gruncie zastosowań profesjonalnych?

Wybrane dla Ciebie
Komentarze (7)