Nvidia chce, abyśmy płacili za komputery po kilkanaście tys. Grubo przesadzają (opinia)
Nvidia opublikowała kolejny artykuł z serii "Frames Win Games". Producenci kart graficznych przedstawiają w nich dowody na to, jak większa wydajność sprzętu przekłada się na wygrane starcia w grach online. Owszem, mocna grafika zrobi swoje, ale to nie wszystko. I wcale nie mówię o umiejętnościach.
29.04.2020 | aktual.: 29.04.2020 13:53
W ciągu ostatnich kilku lat prężnie rozwija się techniki mające wspomagać wydajność kart graficznych w grach. Samo wyświetlanie dużej liczby klatek na sekundę nie wystarczy. Karty wspomaga się rozwiązaniami do niwelowania ghostingu, metodami synchronizacji G-Sync/FreeSync, czy funkcjami rozjaśniania ciemnych pomieszczeń (producenci monitorów mają swoje wersje).
Rozwój tych funkcji, stawianie na dużą liczbę wyświetlanych klatek i wysoką częstotliwość odświeżania w monitorach jeszcze niedawno uznawano za wcielonego diabła. Do dziś wielu internautów twierdzi, że "ludzkie oko nie widzi powyżej 30 FPS" i do grania online nie potrzeba ekranu odnawiającego obraz więcej niż 60 razy na sekundę.
Nvidia po raz kolejny przekonuje do większej liczby klatek na sekundę
Tym razem Nvidia bierze na tapet Call of Duty: Warzone. To gra online typu battle royale, dostępna za darmo zarówno na PC jak i konsolach PS4, i Xbox One. W ten tytuł gra już 50 milionów graczy na świecie, a w jednym meczu bierze udział nawet 150 osób. Wcześniej opisywano wpływ wydajności na liczbę wygranych w grach takich jak Fortnite, PUBG czy Apex Legends.
Jak w praktycznie każdej "strzelance", jednym z ważniejszych czynników jest czas reakcji gracza. Zaczyna mieć znaczenie w momencie, gdy zobaczymy przeciwnika. A to może różnić się w zależności od wielu składowych. Za praktycznie główny element tej układanki Nvidia uznaje liczbę klatek, połączoną z adaptacyjną częstotliwością odświeżania ekranu. Czym te liczby są wyższe, tym gracze osiągają lepsze wyniki.
240 kl/s w Call of Duty: Warzone na karcie GeForce
Według Nvidii, przy 240 FPS i Hz, na ekranie powinniśmy zobaczyć przeciwnika nieznacznie wcześniej, niż w przypadku 144 FPS i Hz, ale dużo wcześniej niż w przypadku 60 FPS i Hz. Należy jednak pamiętać o opóźnieniu łącza sieciowego. Jeśli spotkamy się z utratą pakietów, która może od czasu do czasu się pojawić, lub wysokim pingiem, niestety ale nawet najlepsza karta graficzna nic nie wskóra.
Co więcej, w serwisie YouTube można znaleźć przeróżne filmiki udowadniające podobne tezy na bardziej praktycznych przykładach. Większa częstotliwość odświeżania i liczba klatek wyświetlanych w ciągu jednej sekundy może powodować także zmianę schematu odrzutu broni. Spójrzcie, jak to wygląda na przykładzie gry Playerunknown's Battlegrounds (PUBG).
[Fixed] How LOW FPS will CHANGE how your weapons shoot - Important info - PUBG
Ile trzeba zapłacić, żeby osiągnąć 240 FPS i ile kosztuje taki monitor?
Wszystko pięknie, ale jak potężny trzeba zakupić sprzęt, żeby osiągać 144 klatki na sekundę, a co dopiero 240? Oprócz wydajnej karty graficznej, procesora i pamięci RAM, potrzebny jest również monitor. Najlepiej obsługujący metodę synchronizacji G-Sync lub FreeSync, zależnie od doboru procesora graficznego.Na podstawie grafiki przygotowanej przez Nvidię, do osiągnięcia 240 klatek na sekundę w rozdzielczości 1920 x 1080 p i przy ustawieniach wysokich, w Call of Duty: Warzone potrzebujemy modelu RTX 2080 Ti. Za dobrej jakości produkt z tej serii zapłacimy ponad 6000 zł. Należy do tego doliczyć najlepszy procesor do gier, ponieważ ze słabszym niekoniecznie osiągniemy 240 klatek. I z własnego doświadczenia, nie spodziewałbym się takich FPS przy ustawieniach wysokich. Co najwyżej na średnich lub nawet niskich.
Niech będzie to Intel Core i9-9900K, na którym Nvidia robiła benchmarki - cena: 2400 zł. Do tego dokładamy pamięć RAM minimum 2x8GB o częstotliwości taktowania 3600 MHz - to kolejne 500 zł. Call of Duty: Warzone wymaga przynajmniej 16 GB RAM. Grając na 8 GB, mój znajomy jedynie spalił pamięć.
To już łącznie około 9000 zł, a do tego należy jeszcze doliczyć kosztowny monitor. Według danych z witryny prosetting.net, przedstawiającej zestawy komputerowe stosowane przez profesjonalnych graczy i streamerów, praktycznie wszyscy korzystają z monitorów o rozdzielczości FHD, około 24/27 cali, częstotliwości odświeżania 240 Hz i obsługi G-Sync. Pozostałe parametry, takie jak sRGB nie mają w tym momencie większego znaczenia. Ceny takich monitorów zaczynają się od około 2000 zł, przy czym średnia to raczej 2500 zł. Czyli 11,5 tysiąca zł na samą wydajność.
Schodząc na Ziemię - ile wydamy na 144 Hz/FPS?
144 klatki na sekundę połączone z 144 Hz częstotliwości odświeżania powinny być wystarczające dla każdego gracza. Tu też jednak musimy brać pod uwagę spory wydatek. Aby osiągnąć stabilny poziom 144+ FPS, potrzebujemy co najmniej RTX 2060 Super - według schematu Nvidii. Tu cena wynosi około 2200 zł. U konkurencji, czyli AMD, można wybrać kartę RX 5700 XT, która kosztuje około 2000 zł.
Jeśli chodzi o procesor, Ryzen 5 3600 powinien wystarczyć. Kosztuje około 850 zł. Monitor (27 cali) o rozdzielczości 1080 p, częstotliwości odświeżania 144 Hz oraz obsługujący G-Sync kosztuje, w zależności od producenta, od 1100 do 1500 zł. Do zestawu po raz kolejny dobieramy kości RAM 2x8 GB, w cenie około 500 zł.
Dla karty graficznej AMD RX 5700 XT potrzebujemy jednak sprzętu z obsługą metody synchronizacji FreeSync. Tutaj za około 1100 zł dostaniemy już odpowiedni sprzęt. Co prawda w listopadzie ubiegłego roku Nvidia zapowiadała integrację G-Sync ze wszystkimi urządzeniami, więc wkrótce wybór monitora do gier będzie stanowić mniejszy kłopot. O ile producenci dotrzymają słowa.
Podsumowując, aby uzyskać 240 Hz i FPS w Call of Duty: Warzone trzeba wydać majątek. Za kilkanaście tysięcy złotych można już kupić sprawne auto. Dużo bardziej opłaca się celowanie w skromniejsze 144 Hz i FPS, które wcale dużo nie odbiegają płynnością od 240 Hz. W tym przypadku wydamy około 4500 zł. Oczywiście do tych kwot należy doliczyć pozostały sprzęt, czyli obudowę, płytę główną, zasilacz i dysk SSD/HDD. Brałem jednak pod uwagę jedynie te elementy, które faktycznie wpływają na omawiane przez Nvidię klatki na sekundę i częstotliwość odświeżania ekranu.