20 lat zmian w gamingu, czyli od PS2 do VR‑a
Jak przez dwie dekady zmieniło się "granie w gry"? – Zmieniło się wszystko! – krzyknie entuzjasta, wyrzucając z siebie jednym tchem listę sprzętu, który w tym czasie mógł zawitać do salonów graczy. – Nic się nie zmieniło! – zawoła sceptyk, z przekonaniem twierdzący, że wszystko już było i historia zatacza koło. Obaj będą mieli rację.
PlayStation jako tajna broń Saddama Husajna? Opowieść o tym, jak to iracki dyktator miał wyczyścić rynek z konsol Sony, zbudować z nich superkomputer i wykorzystać go w celach militarnych, na początku XXI wieku rozpalała wyobraźnię nie tylko graczy, szukających przyczyny problemów z dostępnością długo wyczekiwanego sprzętu.
Historia ta jest o tyle ciekawa, co – ze szkodą dla suspensu – w znacznej części nieprawdziwa. Jej prologu można doszukiwać się w artykule z New York Timesa z czerwca 1999 roku. Jego autor ostrzegał przed dostarczaniem PS2 do Hongkongu, gdzie konsole mogłyby zostać przejęte przez chińskie władze i wykorzystane w celach militarnych.
Konsolowy superkomputer i znikające karty graficzne
Wątek ten – już w irackim wydaniu – kontynuował artykuł z serwisu "World Net Daily" z 19 grudnia 2000 roku. Autor powołując się na źródła w wywiadzie ostrzegał, że problemy z przedświątecznym zakupem debiutującej na amerykańskim rynku PlayStation 2 mogą mieć związek z masowym ściąganiem konsol do Iraku.
Artykuł podkreślał dużą moc obliczeniową sprzętu Sony, wykorzystującego procesor Emotion Engine taktowany zegarem 299 MHz i wskazywał, że dyżurny czarny charakter może wykorzystać superkomputer, zbudowany z 4 tys. konsol, do pilotowania bezzałogowca.
W historii tej było ziarenko prawdy, bo z PS2 – a w zasadzie zestawu o nazwie Linux dla PlayStation 2 (składającego się klawiatury, myszy, adaptera karty graficznej, Network Adaptera i twardego dysku, a także płyt CD z japońskim forkiem Red Hat 6) – dało się budować superkomputery, co skwapliwie wykorzystało kilka ośrodków badawczych.
Niemal 20 lat później historia ze znikającym sprzętem i rozczarowaniem graczy zatoczyła koło. Rolę deficytowego sprzętu przejęły od konsol karty graficzne, w buty Saddama Husajna weszli skutecznie czyszczący rynek scaplerzy, a superkomputery zamiast "pilotować bezpilotowce" zajęły się marnowaniem mocy obliczeniowej na generowanie kryptowalut.
VR, czyli do badania kosmosu po wojskowe drony
Podobny – a nawet dłuższy – cykl można zauważyć w przypadku rozwoju VR-u. Pierwsza fala zainteresowania tematem, trwająca mniej więcej do początku lat 80., przyniosła w zasadzie wszystkie kluczowe rozwiązania: eksperymenty Jarona Laniera, gogle, rękawice Data Glove pozwalające na manipulowanie wirtualnymi obiektami, czy wirtualną przestrzeń, gdzie – jak w przypadku NASA – można było ćwiczyć trudniejsze elementy kosmicznych misji.
Kolejna – zahaczająca o ostatnie dwudziestolecie – fala przyniosła próby komercjalizacji tej technologii i wprowadzenia jej na rynek konsumencki. W latach 90. zalały go uroczo retrofuturystyczne hełmy, jak choćby Atari Jaguar VR Headset, Sega VR, VFX1, CyberMaxx czy "stołowa" wersja VR-u w postaci Virtual Boya od Nintendo.
Trzecią, bliską naszej współczesności falę konsumenckiego VR-u zapoczątkował genialny nastolatek (wówczas!), czyli rozczarowany rynkową ofertą Palmer Luckey. Palmer, jak przystało na ikonę branży, samodzielnie zbudował sprzęt, którego mu brakowało. Oculus Rift okazał się kamieniem poruszającym lawinę, na VR (i AR) rzuciły się po raz kolejny największe koncerny technologiczne świata.
Dzięki nim mamy dziś taki sprzęt, jak choćby Meta Oculus Quest 2, HTC Vive Pro 2 czy Valve Index. Sprawca całego zamieszania nie ma już jednak z tym wiele wspólnego – po sprzedaży Oculusa Palmer Luckey założył firmę Anduril i zajął się budową dla Pentagonu dronów i futurystycznej broni.
Ożywione przez niego, wirtualne światy stały się jednak łatwo dostępne, a inicjatywy takie, jak Metawersum – choć ostatnio nieco straciły na atrakcyjności – wydają się wyznaczać kierunek, w którym w najbliższej przyszłości będzie podążać cała, nie tylko gamingowa, związana z VR-em branża.
Zawartość chmury, czyli gry zamiast deszczu
Burzliwy rozwój przeżywa także granie w chmurze. Pokaz rozwiązań, pozwalających na zabawę z grą, uruchamianą gdzieś na odległym serwerze zaprezentowała w 2000 roku podczas targów E3 japońska firma G-Cluster.
Dopracowanie technologii zajęło jej jednak parę lat, bo na komercyjną wersję tej usługi trzeba było poczekać do 2005 roku. W tym samym czasie prace nad własną, gamingową chmurą rozpoczął również Crytek, jednak po serii prób poddał się, tłumacząc niepowodzenie marną jakością dostępnych łącz internetowych.
Szlaki przecierał także OnLive, oferując – poza samą usługą – terminal i dedykowanego pada. Choć oferowane rozwiązania wydawały się dojrzałe i przemyślane, problemem pozostawała m.in. stabilność, co w 2015 roku doprowadziło do zamknięcia usługi.
Na jej miejsce czekała już jednak kolejka następców – NVIDIA ze swoim Shield Portable i obecnym GeForce NOW, czy zamknięte do ekosystemów jednej firmy Xbox Cloud Gaming czy PlayStation Plus. Nie wszystkie odniosły sukces, czego przykładem jest Google z usługa Stadia, której zamknięcie zapowiedziano we wrześniu 2022 roku.
Mimo tego rozwój cloud gamingu, zapoczątkowany jeszcze na początku wieku, trwa w najlepsze, a posiadanie mocnego sprzętu przestało być warunkiem możliwości cieszenia się rozgrywką w najbardziej nawet wymagające tytuły.
Od beżowej skrzynki po arcydzieła wzornictwa
Tradycjonaliści, dla których technologiczny postęp oznacza, że w domowym pececie znajdzie się po prostu mocniejszy procesor i wydajniejsza karta graficzna, także nie mają powodów do narzekania. 20 lat temu byli w podobnej sytuacji, jak klienci Forda w latach 20. XX wieku.
Mogli kupić komputer w każdym kolorze jaki tylko chcieli, pod warunkiem, że chcieli beżowy (z jednolitego frontu wyłamywali się wichrzyciele pokroju Steve’a Jobsa ze swoimi landrynkowymi iMakami), a szczytem finezji była czarna obudowa MiniTower, wepchnięta nieraz dla wygody pod biurko.
Odstępstwa od normy – owszem, bywały – ale o ich powszechności dobitnie świadczy fakt, że regularnie trafiały na publikowane wówczas w różnych serwisach zestawienia, publikowane pod tytułami w stylu "TOP 10 najdziwniejszych obudów komputerowych".
Dzisiaj podobne rankingi nie miałyby większego sensu, bo musiałyby objąć sporą część rynku. W tym przypadku trudno mówić o zataczającej koło historii, bo wraz z czasem całkowicie zmieniły się wymagania, gusta i estetyczne standardy. Przezroczyste obudowy, podświetlane podzespoły czy systemy chłodzenia cieczą, przypominające wyrafinowane instalacje artystyczne – wszystko to jest standardem, łatwo dostępnym dla osób doceniających nie tylko wydajność, ale i estetyczne walory sprzętu.
Trend ten widać także w imponującej miniaturyzacji. Lilipucie pecety z płytami Micro-ATX czy mini-ITX pozwalają nie tylko oszczędzić przestrzeń, ale mogą także cieszyć oko wyglądem, którego nie powstydziłoby się niejedno muzeum sztuki użytkowej.
Publikacja powstała w ramach cyklu z okazji 20-lecia dobrychprogramów. Wszystkie artykuły można znaleźć na stronie poświęconej jubileuszowi.
Łukasz Michalik, dziennikarz dobreprogramy.pl