Wadliwa pamięć, czyli dlaczego wspomnienia o Windows Vista to stek bzdur
13.04.2017 | aktual.: 14.04.2017 06:58
Doprawdy, fascynującym narządem jest ludzki mózg. Natura obdarzyła go w przydatny lub też nie, mechanizm wypierania traumy, przykrych wspomnień czy też innych nieprzyjemnych dla człowieka informacji z życia. O ciekawostce tej przypomniałem sobie w chwili czytania komentarzy wspominkowych o systemie Windows Vista. Nie dość że przykre wspomnienia zostały wyparte to w ich miejsce pojawił się obraz, absolutnie nie mający, z rzeczywistością, nic wspólnego.
Programistyczne niechlujstwo
System Microsoftu w chwili premiery miał sztucznie zaniżone wymagania sprzętowe. Według oficjalnych informacji do poprawnego działania wystarczał komputer z jednordzeniowym procesorem 800 Mhz i 512 Mb pamięci RAM. Jak wyglądała rzeczywistość? Prawda jest taka że na moim ówczesnym Athlonie XP 2.2 Ghz/1Gb RAM/GeForce 7600 GS (czyli na zalecanej konfiguracji) nie było mowy o komfortowym korzystaniu z komputera w przypadku zainstalowanego systemu Windows Vista. Bardzo często w komentarzach pojawia się motyw że to wszystko wina producentów, że jak można było instalować wyżej wspomniany system na konfiguracjach z Core2Duo 1.6 Ghz (dwa rdzenie CPU!) / 1 Gb RAM? Oczywiście że było można. Maszyny te w pełni spełniały minimalne wymagania sprzętowe przez co konsumenci mieli prawo, w oparciu o oficjalne dane Microsoftu, oczekiwać komfortowego działania. Jak to się skończyło, wystarczy poczytać komentarze sprzed dekady. Tony poradników, fiksów czy innych tweaków na ten system mówi samo za siebie. Powtórzę się w tym miejscu i napiszę jeszcze raz: Microsoft świadomie, lub nie zaniżył wymagania sprzętowe swojego systemu operacyjnego. Wydał na rynek system który w poważaniu miał realną sytuację na rynku ( czytaj: specyfikacje przeciętnego komputera w domach i firmach ). Na maszynach które spełniały zalecane/optymalne wymagania, system nie dogorywał. Vista była programistycznym niechlujstwem które miało olbrzymi jak na ówczesne czasy apetyt na zasoby komputera. Potwierdza to obecność funkcji ReadyBoost w systemie oraz fakt że przy projekcie Mojave po wyrzuceniu zbędnego balastu, komfort użytkowania znacznie się poprawił. Masa chłamu zaszyta w systemie skutecznie utrudniała Viście adaptacje do rynku, winnym sytuacji jest tylko i wyłącznie Microsoft. Absolutnym nonsensem jest pisanie że Vista to świetny system na dwurdzeniowym „flagowym” dualcorze z 2Gb RAMu, bo ociera się to o bzdury w stylu: dla anglika, język angielski jest prosty. Dość subiektywnym spostrzeżeniem, z mojej strony, jest fakt że to właśnie system Windows Vista zapoczątkował niechlubny trend programistycznego lenistwa. W późniejszych latach plaga nosząca sztandar: „po co optymalizować skoro sprzęt się wymienia co dwa lata”, przybrała coraz to większe rozmiary. Bo skoro Microsoftowi się tak udało z systemem, który notabene w szczycie popularności miał więcej niż 10% rynku, to dlaczego nie sprzedawać niedorobionych portów gier z konsoli? Na efekty nie trzeba było długo czekać, dla mnie najbardziej pamiętliwym przykładem z tamtych lat było GTA IV na PC które toćka w toćkę powtarzało ten sam manewr co firma z Redmond. Programistyczny potwór z rozdmuchaną kampanią marketingową która ukryje prawdziwą naturę aplikacji.
Sterowniki
System Microsoftu wprowadzał nowy model pisania sterowników. Generalnie rzecz biorąc, sprawa sterowników na Viście wyglądała dość zabawnie. Z jednej strony mieliśmy do czynienia z chronicznym brakiem sterowników od producentów wynikającym z faktu że te z XP nie zawsze chciały podpisać deklaracje współpracy z nowym systemem. Z drugiej zaś, znam kilka przypadków laptopów z naklejką Vista Ready, których downgrade do systemu Windows XP nie powiódł się gdyż producent oferował sterownik tylko i wyłącznie dla ówczesnego, najmłodszego dziecka Microsoftu. Warto w tym miejscu się zastanowić dlaczego problem braku sterowników był tak dotkliwy. Moim zdaniem wynikało to z faktu że Vista prosto z piekła dewelopingu trafiła na rynek przez co producenci nie mieli czas przed premierą systemu na opracowanie sterowników które wymagały stosowania nowego modelu pisania sterowników. Tym razem, również winny był tylko i wyłącznie Microsoft który nie dość dobrze przygotował siebie i swoich partnerów biznesowych do wprowadzenia systemu do sprzedaży.
Graczem być, czyli bujda o DirectX 10
Jako że darzę niespecjalną sympatią środowiska wolnego oprogramowania, do tematu dotyczącego kampanii marketingowej w której to Microsoft zarzekał się o porzuceniu wsparcia dla nowszych OpenGL’a odsyłam do tekstów propagandzistów od GNU. Mnie jako gracza w tamtym czasie bolało coś zupełnie innego: DirectX 10. Niewiele było gier które oferowały tryb renderowania z wykorzystaniem API Microsoftu w wersji dziesiątej. Wśród nich były takie tytuły jak Crysis, Devil May Cry, Call of Juarez lub też Lost Planet. Co oferowała zmiana wersji DirectXa? W dużym uproszczeniu: spadek średniej liczby klatek w granicach 20% przy równoczesnym braku znacznych zmian w grafice. Postępowa opinia całego świata należycie oceniła że nowe API Microsoftu nie jest warte inwestycji przez co, niespełna dwa lata później, obserwowaliśmy dość obszerną migrację z wersji dziewiątej na jedenastą. Teza ta mimo tego że jest dość przerysowana ( część firm postanowiła wesprzeć w tamtym czasie firmę z Redmond, polski Techland wydał specjalnego benchmarka dedykowanemu nowemu API ) w całej swojej groteskowości oddaje to w jaki sposób historia oceniła DirectX 10. Nie jestem wstanie podać źródła aczkolwiek w mojej pamięci zachowało się następujące zdanie: „Wymaganie XYZ, dla systemu Windows Vista – odpowiednio wyższe”. Padało słowo: „odpowiednio” stąd wniosek że sami producenci oprogramowania nie byli wstanie określić jak ich soft będzie się sprawował na Viście.
Na premierze było źle ale po Service Packach - El Dorado
Tak właśnie wydają się myśleć osoby które Windows Vista, widziały jedynie na ekranach swoich osobistych komputerów w sztuce nie większej niż dwie. Tak się złożyło, że okres szkoły średniej przypadł mi na czasy kiedy to w pracowniach szkolnych, niepodzielne rządził Project Longhorn z osławionym, zbawczym Service Pack 2. Jak sytuacja prezentowała się na dwudziestu komputerach w jednym pomieszczeniu? Przypadkowe restarty, spontaniczne wykładanie się sterowników (przeszło 3 lata po premierze!) i zupełnie, niczym nieuzasadnione różnice w działaniu komputerów. Na dwóch identycznych konfiguracjach, Windows Vista potrafił działać skrajnie dobrze lub też w drugą stronę: korzystanie z niego mogło być wyrafinowaną torturą na równi z oglądaniem filmu Batman i Robin z 1997 roku. Dodajmy do tego humorystyczne wykładanie się aktualizacji, błędy w nich powodowały śmierć systemu i mamy obraz żywcem wyciągnięty z koszmarów administratora. Warto w tym miejscu podkreślić że były to maszyny które według internetowych ekspertów, miały być rajem dla Windows Vista. Czytaj: dwurdzeniowy procesor Core2Duo z taktowaniem 2Ghz, 2Gb pamięci operacyjnej i do tego GeForce 9600. Otóż smutna prawda brzmi: nie były.
Słowem podsumowania
Z tekstu wyłania się jasny obraz produktu z zakłamanymi minimalnymi wymaganiami sprzętowymi, przesadnie dopakowany od strony producenta masą zbędnych komponentów zaszytych w system, którego premiera została przygotowana na pręt ce i którego wsparcie w początkowych fazach było na poziomie niedostatecznym. Wszystko to okraszone kampanią marketingową niczym nie odbiegającą w narracji od propagandy sukcesu i dobrobytu. Czy możliwe że było z Vistą tak źle jak sugeruje to w tekście? Jak najbardziej tak. Zadziwiające jest to że wielki John Carmack nie powiedział o Viście, że równie dobrze by było gdyby jej nie było. Miano: Windows Me 2.0 jest jak najbardziej uzasadnione.