Blog (290)
Komentarze (260)
Recenzje (0)
@SirckTest karty Inno3d RTX 4090 iChill X3

Test karty Inno3d RTX 4090 iChill X3

Wydajność zafundowana przez architekturę Ada Lovelace w wykonaniu topowej karty graficznej Nvidii okazała się niemałym zaskoczeniem. Szeroko dostępne testy wersji Founders Edition nie pozostawiają złudzeń, że mamy styczność z największym skokiem generacyjnym w historii kart graficznych. Bez zbędnego przedłużania pora sprawdzić, co ma do zaoferowania autorska konstrukcja Inno3D, czyli RTX 4090 iChill X3.

973563

RTX 4090 iChill X3 pod lupą

W ofercie producenta mamy cztery warianty topowego układu Ada Lovelace: iChill Frostbite, iChill Black, iChill X3 oraz X3 OC. Pierwszą przygotowano od razu pod customowe chłodzenie cieczą. Black natomiast serwuje hybrydowe rozwiązanie. Ostatnia dwie opcje to klasyka, czyli GPU chłodzone przez masywny radiator i trzy wentylatory. Do moich testów trafił wariant iChill X3 z delikatną domieszką podświetlania RGB.

Pudło o niemałych gabarytach skrywa spory kawałek GPU.
Pudło o niemałych gabarytach skrywa spory kawałek GPU.

Wymiary karty to odpowiednio 334 x 148 mm, a wysokość zajmuje 3‑sloty na płycie głównej. Dla porównania Founders Edition cechują wymiary 304 x 137 x 61 mm, a zatem opcja od Inno3D jest niewiele większa. Mimo tego układ jest masywny i możecie mieć problem ze zmieszczeniem go do większości obudów typu mid‑tower. Kartę nie dałem rady umieścić w HZXT H510 Flow z zamontowanym na froncie radiatorem AiO. Bez radiatora wchodzi dosłownie na styk.

185347
185349
185348

Z pozostałych cech fizycznych należy wymienić obecność pojedynczego portu HDMI 2.1 oraz trzech DisplayPort 1.4a. Nowszego standardu DP powinniśmy spodziewać się w nadchodzącej 4080-tce lub 4090 Ti. Kartę zasilamy poprzez wtyczkę w standardzie PCIe Gen 5. Przejściówka na 3x PCIe 8‑pin znajduje się w pakiecie. Do tego mamy jeszcze mały kabelek 3‑pin ARGB, który można podpiąć do płyty głównej celem ujednolicenia zarządzania kolorami. Szkoda tylko, że wtyczka znajduje się po lewej stronie GPU, co skutkuje jego nadmierną ekspozycją w obudowie.

Ciekawostką jest, że nowa generacja nie obsługuje NVLink.
Ciekawostką jest, że nowa generacja nie obsługuje NVLink.

Jeśli idzie o ogólne parametry techniczne wszystko jest zgodne z wytycznymi Nvidii. Na pokładzie mamy 24GB pamięci GDDR6X produkcji Micron, a GPU komunikuje się z PC za pośrednictwem PCI‑E 4.0 x16. Trochę szkoda, że Nvidia nie zastosowała PCI‑E 5.0. W kwestii taktowania rdzenia bazowy zegar wynosi 2235 MHz, a boost clock 2580. Są to wartości zbliżone od tego, co proponuje opcja Founders Edition z zegarami 2,23 oraz 2,52 GHz boost.

Dołączone przejściówki w zestawie.
Dołączone przejściówki w zestawie.

Ogółem kartę wykonano dochowując dbałości o szczegóły. Wtyczkę PCIe Gen 5 solidnie osadzono na PCB. Cała konstrukcja po zainstalowaniu w obudowie nie opada pod własnym ciężarem, zatem kudosy za przemyślaną konstrukcję. Do tego producent nie przesadził z ilością krzykliwych detali oraz ogólnym podświetlaniem RGB. Jeśli interesuje Was jeszcze bardziej ascetyczna formuła karty graficznej proponuję zainteresować się wariantem X3 OC.

Platforma Testowa

  • Procesor: Ryzen 9 3900X
  • Płyta główna: NZXT N7 B550
  • Chłodzenie: NZXT Kraken X63 RGB
  • Pamięć RAM: Corsair Vengence 32GB 3200MHz
  • Dysk: Crucial MX500 250GB + Corsair MP600 2TB
  • Obudowa: CM Masterframe 700 (open test-bench)
  • PSU: NZXT C850 Gold 850W
  • System: Windows 10 Pro 22H2
  • Sterowniki: Nvidia 522.25 (GeForce), 517.40 (Quadro)

W teście udział biorą następujące karty graficzne:

  • Inno3D RTX 4090 iChill X3
  • Inno3D RTX 3090 iChill X4
  • Nvidia RTX A4000 FE

Testy syntetyczne RTX 4090

Poniższe testy mają na celu przede wszystkim sprawdzić, jak karta Inno3D zachowuje się pod względem kultury pracy, poboru energii, możliwości zabawy parametrami itd. Bezpośrednie porównanie wykonam z RTX 3090, czyli generacyjnym poprzednikiem. W teście nie zabraknie kliku wymagających gier, acz tym razem chciałbym bardziej skupić się na aplikacjach profesjonalnych.

3090 zgarnia bęcki nawet od RTX 3080 Ti :D
3090 zgarnia bęcki nawet od RTX 3080 Ti :D

Na pierwszy ogień idzie benchmark Superposition. Do puli dorzuciłem jeszcze wyniki 1080p i 4K dla 3080 Ti. Ogółem 4090-tka deklasuje wszystko w powyższym zestawieniu. Choć tak naprawdę 3080 udowadnia, że 3090-ta była słabym produktem. Podczas testu cały zestaw PC z najnowszym GPU pobierał od 511 do 580W, gdzie na kartę przypadało średnio 450W. Przy czym temperatura nie przerażała, lądując na poziomie 65‑66°C. Karta niebyła również przeraźliwie głośna. W identycznych warunkach RTX 3090 iChill X4 był dużo głośniejszy, przeskakując 40dB, przy temperaturze 80°C. Cały komputer z kartą Ampere pobierał w szczycie 460W (karta ok. 335W).

W kolejnym syntetyku 4090 masakruje 3090. Inaczej tego nazwać nie można.
W kolejnym syntetyku 4090 masakruje 3090. Inaczej tego nazwać nie można.

Pora na 3DMark. Na tapet bierzemy cztery testy: Fire Strike ULTRA (4K, DX11), Time Spy Extreme (4K + DX12), Port Royal (DX12 + RayTracing) oraz najnowszy Speed Way napisany z myślą o najbardziej high-endowych systemach. Interesuje nas oczywiście wyłącznie punktacja wykręcona przez GPU. Nieważne jakie API używamy, wszędzie dochodzi do deklasacji RTX 3090. Pobór energii systemu z 4090 na pokładzie wahał się od 510W (Fire Strike) po 600W (Port Royal).

Zachowanie 4090 podczas testu.
Zachowanie 4090 podczas testu.

W każdym z powyższych testów rdzeń karty boostował stabilnie do 2822 MHz i pozostawał na tym poziomie cały czas. Pamięci natomiast pracowały ze stabilnym zegarem 10502 MHz. W identycznych warunkach pamięci RTX 3090 kręciły się do 9752 MHz a rdzeń zależnie od testu kursował między 1635 a 1750 MHz. W przypadku obu kart było słyszalne piszczenie cewek, czego nie dało się zignorować ze względu na naturę otwartego test benchu. Przy RTX 4090 od razu skupiałem na tym swoją uwagę, ponieważ wentylatory karty były nieporównywalnie cichsze względem 3090-tki.

Karta do zadań specjalnych. Test w aplikacjach profesjonalnych

Karta na tym poziomie cenowym i parametrami powinna zainteresować osoby użytkujące PC do zadań profesjonalnych: montaż filmów i rednering scen 3D to pierwsze, co przychodzi mi namyśl. Porównanie wykonam z RTX 3090, procesorem Ryzen 9 3900X oraz perełką, która wpadła mi ostatnio w ręce – RTX A4000. Jest to GPU Nvidii zaprojektowane do zadań profesjonalnych w cenie ok. 5500 PLN. Na jej pokładzie znalazło się 16GB pamięci GDDR6.

974764

OctaneBench to obecnie najpopularniejszy test porównawczy GPU na gruncie renderowania. Znakomicie skaluje się na wielu procesorach graficznych. 4090 ponownie wystrzeliła ponad skalę, acz na trzy testy zdarzyło się, że karta w ogóle się "nie rozkręciła" dając skromny wynik zaledwie powyżej 700 punktów. Wina sterowników a może aktualizacji Windows? A4000 ląduje na ostatnim miejscu. Choć cały PC pobierał z tą kartą tylko 220W ale przez chłodzenie temperatura poszybowała do 90°C. Tak, było bardzo głośno.

974765

Kolejnym testem był benchmark LuxMark v3.1. Ku mojemu ogromnemu zaskoczeniu RTX 4090 wygrał małą różnicą tylko w scenie LuxBall o najniższym poziomie skomplikowania. Podobnie jak w teście OctaneBench RTX 3090 od pierwszej sekundy testu szedł pełną parą, o czym świadczyła temperatura rdzenia. Natomiast RTX 4090 chodził na najniższym biegu, reprezentując bardzo niski poziom obciążenia GPU.

974766

SPECviewperf mierzy liczbę klatek na sekundę (fps), z jaką karta graficzna może renderować sceny o dużym stopniu skomplikowania w wielu różnych aplikacjach i modelach profesjonalnego użytkowania. Każdy wynik powyżej program opiera na ważonej średniej geometrycznej wielu różnych scen i trybów renderowania. W jednym teście 4090 wychodzi na prowadzenie. Natomiast RTX A4000 pokazuje, co to znaczy sprzęt zoptymalizowany do wykonywania skomplikowanych obliczeń.

974768

Aplikacje profesjonalne kończymy Blenderem w najnowszej wersji. Jest to narzędzie, które szturmem podbiło świat grafików i animatorów a do tego jest w pełni darmowe. RTX 4090 pokazuje pazur i to jeszcze jaki! Ryzen 9 wygląda przy tym, jak ślimak a przecież nie można go nazwać wolnym procesorem. Trochę dziwna sprawa, bo program wysypywał się przy próbie uruchomienia z A4000 (stąd wynik 0), mimo że dwukrotnie zmieniałem sterowniki.

Wynik sumujący rezultaty scen Monster, Junkeshop i Classroom dla różnych kart.
Wynik sumujący rezultaty scen Monster, Junkeshop i Classroom dla różnych kart.

W kontekście renderowania dla 4090-tki w przyszłości problemem może okazać się brak NVLink. Bez tego łącznie VRAM dwóch kart w jedną pulę nie wchodzi w grę. Trzeba polegać na tym, co ma do zaoferowania płyta główna przez porty PCIe. W przypadku przekroczenia pamięci VRAM system będzie ratować się przejściem na pamięć RAM, zmniejszając tak wydajność pracy.

Jeśli interesuje Was bardziej świat wideo to układ AD102-300 wyposażono w podwójny sprzętowy koder AV1, H.264 i H.265, co przekłada się na zwiększenie wydajność i jakość podczas kodowania oraz strumieniowania wideo. Z tak mocnego GPU powinien skorzystać DaVinci Resolve, który w przeciwieństwie do Premiere Pro w większym stopniu "leży" na karcie graficznej, korzystając z jej potencjału.

Can it run Crysis?

No dobrze a co z grami? Test RTX 4090 został przeprowadzony w rozdzielczości 4K oraz wyżyłowanymi ustawieniami graficznymi gier. Powody ku temu są dwa. Po pierwsze nikt nie kupuje za przeszło dziesięć tysięcy złotych GPU do zabawy w 1440p czy nie daj boże 1080p. W obu standardach użyty w tym teście CPU stanowiłby wąskie gardło dla testowanej karty graficznej, drastycznie ograniczając jej możliwości. Dlatego w 1080p między RTX 3090 a RTX 4090 nie zobaczymy zbyt dużych różnic. Nie przedłużając przejdźmy do konkretów.

Średnia ilość klatek na sekundę.
Średnia ilość klatek na sekundę.

Różnice w elektronicznej rozrywce między (prawie) topowym Ampere a topowym Ada Lovelace są bardziej niż znaczące. Wyjątek stanowi odświeżony Crysis, ale należ pokreślić ogółem słabą optymalizację tego tytułu. Mimo, że poza Cyberpunkiem 3090 wykręcała dobre wyniki na papierze to dało się odczuć mikro-przycięcia i ogólnie brak konsolowej płynności animacji. Szczególnie parszywie na tym polu wypadał God of War mimo średniej 80 fps, gdzie niestabilny zegar rdzenia spadał do 1600 MHz. W Cyberpunk bez DLSS było jeszcze gorzej, ponieważ taktowanie GPU nurkowało do 1500 MHz.

Ponadt 200 fps w 4K? To się nazywa optymalizacja!
Ponadt 200 fps w 4K? To się nazywa optymalizacja!

Tego typu problemy nie dotyczyły RTX 4090. We wszystkich testach karta Inno3D utrzymywała stabilny zegar 2820 MHz. Do tego temperatury rzędu 63‑67°C budzą uśmiech na twarzy. Wszystko pięknie, tylko ten pobór prądu. Dla przykładu w God of War komputer notorycznie dobijał do 623W.

Masywny radiator faktycznie robi dobrą robotę w rozpraszaniu ciepła.
Masywny radiator faktycznie robi dobrą robotę w rozpraszaniu ciepła.

Niestety nie miałem możliwości przetestowania DLSS 3.0, zarezerwowanego wyłącznie dla układów Ada Lovelace, z powodu braku kompatybilnych gier. DLSS 3 to osobna funkcja względem DLSS 2.0. Bazując na jednostkach obliczeniowych zintegrowanych w Tensorach 4. generacji polega na generowaniu przez AI klatki pośredniej, co ma niejako podwoić liczbę fps. Podobno sposób generowania klatek przez DLSS 3.0 obarczony jest delikatnym Input Lagiem a do tego responsywność sterowania w grze będzie identyczna względem „klasycznego” generowania klatek. Niemniej mam nadzieję, że będzie mi dane kiedyś pobawić się nową metodą DLSS, gdy oficjalnie zawędruje do większej ilości gier.

Undervolting to trend, który powinien zakorzenić się w branży

Temperatury kart Inno3D RTX 4090 iChill X3 są bardziej niż zadowalające, gdy porównamy je z poprzednią generacją GPU. Akustycznie jest akceptowalnie, choć przy porównaniu z 3090-tka muszę powiedzieć, że jest dużo lepiej niż się pierwotnie spodziewałem. A co z poborem energii?

Tak fabrycznie podbitej krzywej napięcia-zagar jeszcze nie widziałem :)
Tak fabrycznie podbitej krzywej napięcia-zagar jeszcze nie widziałem :)

Nie jest tajemnicą, że Nvidia, a także jej partnerzy AIB, popchnęli rdzeń AD102 do górnych granic, pompując w niego tyle energii ile się da. Choćby z tego tytułu podarowałem sobie podkręcanie karty graficznej. Pamiętam jednak, że RTX 3000 bardzo chętnie poddawały się undervoltingowi. Moje zmagania z tworzywem potwierdziły to, co przypuszczałem – architekturę Ada Lovelace cechuje jeszcze lepsza sprawność niż poprzednika.

Pod backplate nie ma modułów pamięci. Wszystkie okalają rdzeń po drugiej stronie PCB.
Pod backplate nie ma modułów pamięci. Wszystkie okalają rdzeń po drugiej stronie PCB.

4090 iChill X3 ochoczo reagowała na undervolting, pozwalając na obniżenie napięcia rdzenia do 0.925 mV. W benchmarku Superposition 8K Optimized oznaczało to wynik 12936 pk. vs. 13116 pk w ustawieniach fabrycznych. Różnica zatem wynosi 2% a apetyt z 450W został uszczuplony do 350W. Temperatura nie spadła jakoś znacząco, bo zaledwie do 63°C, ale zyskałem na akustyce. Pod mniejszym napięciem rdzenia wentylatory obracały się dużo wolniej, co przełożyło się na bardzo cichą kartę. Poprawa była wręcz kolosalna. Co więcej, mniejsze napięcie oznaczało także trudniejsze do wychwycenia piszczenie cewek.

185356
185357
185358

Oczywiście nie poprzestałem na eksperymentach. Zamiast napięcia ręcznie obniżyłem Power Limit karty do 60%. W takich warunkach zegar boost spadł do 1900 MHz, co daje 900 MHz mniej niż w ustawieniach fabrycznych. W efekcie GPU wykręciło 11050 punktów w Superposition 8K Optimized. Oznaczało to rezultat o 16% niższy względem ustawień fabrycznych, acz średni fps spadł tylko o szesnaście klatek. Czy źle czy dobrze – sami zdecydujcie wiedząc, że karta wykręcała 80 fps na sekundę w rozdzielczości 8K przy poborze 270W.

Swoją zabawę zakończyłem na ustawieniach Power limit 75% + 0.950 mV, co poskutkowało pracą rdzenia z prędkością 2580 MHz i rezultatem 12644 punktów. Różnica tylko czterech punktów procentowych w benchmarku względem fabryki przełożyła się na temperaturę 60°C i pobór energii przez karę do 338W. W takich warunkach RTX był bardzo cichy.

Inno3D RTX 4090 iChill X3 to demon szybkości

Zresztą jak każdy przedstawiciel rodziny RTX 4090. Nie jest to żadne zdziwienie, a lekkie OC rdzenia czy pamięci nie powinno decydować o zakupie GPU, bo w praktyce przekłada się na mikroskopijny skok sprawności w porównaniu do Founders Edition. Testowana karta graficzna w dniu premiery startowała z pułapu cenowego 9800 zł i dziś (o ile jest dostępna a są z tym niemałe problemy) wyceniona jest na mniej więcej 10500 zł.

Ktoś ewidentnie przesadził z ilością frazy iChill.
Ktoś ewidentnie przesadził z ilością frazy iChill.

Po prawdzie to trochę szkoda mi użytkowników, którzy nie tak dawno temu zdecydowali się kupić za krocie RTX 3090 Ti (+- 5% lepszy performance względem bazowej wersji). Tak naprawdę to oba warianty 3090-tki były słabymi produktami już w dniu premiery, szczególnie w kontekście gamingu, przy zestawieniu z dużo tańszym RTX 3080 we wszystkich jego odmianach.

Wracając do meritum, decydując się na RTX 4090 iChill X3 dostajemy solidnie wykonaną oraz znakomicie działającą pod kątem kultury pracy kartę. Fakt drobnych potknięć w testach profesjonalnych upatruję w softwarze. Niestety GPU otrzymałem wyłącznie na trzy dni, więc nie mogłem prowadzić dłuższego śledztwa w poszukiwaniu źródła problemu. Co do piszczenia cewek po zamknięciu GPU w obudowie nie będzie to przeszkadzać, a udervolting pozwoli jeszcze bardziej wyciszyć 4090-tkę.

Z dostępnych na rynku modeli iChill jest jedną z mniejszych wersji 4090. Zastosowane chłodzenie wystarczy w zupełności. 
Z dostępnych na rynku modeli iChill jest jedną z mniejszych wersji 4090. Zastosowane chłodzenie wystarczy w zupełności. 

Kartę iChill X3 pochwalę także za stonowaną estetykę, a także producent pokazał, że nie trzeba stosować chłodzenia typu Behemot. Podkreślam to, bo niektóre propozycje producentów są groteskowo przerośnięte i absurdalnie pstrokate, co w kontekście GPU w cenie samochodu brzmi wręcz komicznie.

Podsumowując Inno3D RTX 4090 iChill X3 to produkt, którym można polecić acz ze względu na cenę zainteresują się nim głównie profesjonaliści, a także entuzjaści o nietypowych potrzebach i bardzo głębokich portfelach.

Wybrane dla Ciebie
Komentarze (4)