20 lat ewolucji internetu. Od MySpace'a po przetwarzanie w chmurze
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Gdy serwis dobreprogramy.pl debiutował w internecie, strony WWW były odmienne od tych dzisiejszych. Portale wyglądały skromniej i nikt nie mówił o "wersjach mobilnych" ani jakichś "chmurach". Czy dzisiejsza postać internetu to nieunikniony etap jego ewolucji?
Walcząc z pokusą cofania się w przeszłość zbyt mocno, rozważania rozpoczynamy od przełomu lat 2002/2003. Strony internetowe kompletnie nie przypominały tych dzisiejszych. Wygląd strony głównej Wirtualnej Polski z tamtego czasu dobrze zilustruje nam zbiór ówczesnych internetowych cech szczególnych. Scharakteryzujmy je, najpierw bez porównań z dniem dzisiejszym.
Strona jest malutka. Pod każdym względem. Najpierw w oczy rzuca się rozdzielczość. Dokumenty HTML nie były wtedy optymalizowane pod ekrany panoramiczne ani tym bardziej obrotowe. Zakładano monitor w proporcji 5:4 i rozdzielczości gdzieś w okolicach 1024x768. Głębia kolorów przestała już mieć znaczenie (to nie 1997 rok!), ale z rozbudowanej palety nie korzystano z innego powodu - był nim transfer.
Drugą "małością" strony jest niski rozmiar samego dokumentu. Na stronie przeważał tekst, a nie grafika. Czcionki były domyślne, bezszeryfowe i małe. W rezultacie strona ładowała się z akceptowalną prędkością nawet przy połączeniu przez modem telefoniczny. Obrazki były opcjonalne, a te lądujące jako assety stron głównych miały obniżoną jakość. Modem nie jest bowiem wyrozumiały.
Zobacz także
Liczba stron internetowych rosła i pojawiały się pierwsze przejawy ich centralizacji. Coraz częściej strony budowano nie od podstaw na darmowym/własnym hostingu, a za pomocą gotowców. Blogi i osobiste "strony domowe" zaczynały się agregować na portalach jak Blog.pl i MySpace. Ale proces ten nie mógł się rozpędzić, dopóki...
Niech żyje IE!
...nie zniknęły ograniczenia techniczne. A te były dwojakie. Po pierwsze - ten nieszczęsny transfer. Potrzebne były lata rozbudowy dostępności szerokopasmowego internetu. Im bardziej był popularny, tym mniej trzeba było oszczędzać na ciężarze stron. Po drugie - Internet Explorer.
Program ten, wygrawszy wojnę przeglądarek, popadł w letarg. Doprowadziło to do zahamowania rozwoju JavaScriptu. W rezultacie możliwości wzbogacania stron były ograniczone, a IE był makabrycznie niewydajny w parsowaniu JS.
Na szczęście pojawił się Firefox (2004). Przystępna i bardzo lekka przeglądarka pokazała, do jakiego stopnia internet stoi w miejscu przez IE. Jest to zresztą całkiem zabawne. Aplikacje przeglądarkowe i dzisiejsze super-rozbudowane strony istnieją tylko dlatego, że to właśnie Internet Explorer zaimplementował XMLHttpRequest, metodę komunikacji asynchronicznej. Popadając jednak w stagnację, zmuszał programistów do omijania braków IE i wyprowadzania bardziej złożonej logiki do apletów Javy i formantów ActiveX.
Firefox także zaimplementował XMLHttpRequest, a w dodatku znacząco usprawnił obsługę JS. Umożliwiło to pisanie aplikacji webowych, które były naprawdę webowe. Internet Explorer opracował zatem technologię, w której następnie prześcignęła go konkurencja. W IE lepiej było uciec do własnego kodu, do Javy, Flasha itp. Co prawda na przykład pierwsze Google Docs (2006) działało w IE6, ale jego obsługę porzucono, gdy tylko stało się to biznesowo osiągalne.
Nowa platforma
Powoli dostępne zaczynało być wszystko, co potrzebne do stworzenia nowoczesnych stron. Wysokie rozdzielczości, szerokopasmowe łącza i zaawansowana platforma programistyczna. Strony przytyły. Rozpoczęło się stosowanie gotowych bibliotek i zaawansowanych mechanizmów rysujących. Firefox porzucił obsługę Windows 98 (2008), nowy Google Chrome (też 2008) nigdy jej nie miał. Komputer "do internetu" przestał oznaczać stare pecety o mocy maszyny do pisania.
Transfer na stronach wzrósł na tyle, że stosowanie sieci CDN stało się powszechne. Złożoność aplikacji webowych, która wzrosła nie tylko po stronie klienta, ale i na serwerach, uzasadniła ekonomicznie początek migracji do chmury. Strony internetowe powoli traciły swój styl, choć dalej często było po nich widać, że są "mądrym dokumentem", a nie aplikacją.
Centralizacja
Motywacja do prowadzenia własnej strony internetowej spadała. Facebook (2006) i LinkedIn zaczęły wypełniać większość potrzeb osobistych i zawodowych (mordując przy okazji klasyczne komunikatory internetowe). Punktem centralizacji stron przestawał być hosting, a zaczynał - portal. Podobnie zaczynało się dziać z pocztą. Wszystkich ściągał GMail.
JavaScript pewnie tyłby jeszcze szybciej, gdyby nie iPhone (2007). Apple zapragnęło wzbogacić swój smartfon o świat aplikacji, czyli stron internetowych obudowanych w interfejs dotykowy. Będąc mało jeszcze podobnym do dzisiejszego PWA, pomysł Apple'a zakładał, że strony internetowe mają mieć wariant mobilny (a najlepiej jeden - adaptujący się, responsive) i nie stosować żadnych wtyczek. Applety i Flash miały umrzeć.
Internet w czasach pierwszych iPadów (2010) to świat pełen stron z dużymi, dostosowanymi do palców elementami nawigacyjnymi. Stron poprawnie wyświetlających się na całej gamie rozdzielczości i rezygnujących gdzie tylko się da z Flasha. Moc zaawansowanych silników JS otrzymała wsparcie w postaci standardu HTML5 (2008). Strony internetowe stawały się gotowe do świadczenia wszystkich możliwych usług cyfrowych. Spełniała się obietnica Web 2.0 (2004)
To wzmocniło zapotrzebowanie na chmurę. Hosting chmurowy sam w sobie stał się na tyle rozbudowany, że wymagał specyficznej wiedzy do interakcji z usługodawcą, jak Azure (2010). Takich usługodawców (głównych) jest tylko kilku: Amazon, Microsoft, Google. Firmy te z biegiem lat stały się nośnikami większości ogólnoświatowego ruchu internetowego.
Na co nam to było?
Można zaryzykować stwierdzenie, że za obecny kształt internetu odpowiada Firefox i iPhone. Naturalną ewolucją i konsekwencją ich powstania są takie rzeczy jak format AMP i platforma PWA (paradoksalnie, nieobsługiwane przez iPhone'a i Firefoksa w pełni, tutaj pierwsze skrzypce gra Chrome). Firmy sprzedające swoje usługi w internecie promują swoje "aplikacje", choć często są one tylko opakowaniem na stronę/aplikację internetową. Dotyczy to także tych całkiem sporych aplikacji, jak Discord lub Teams.
Dzisiejsze portale to także dedykowane aplikacje, a tworzenie stron internetowych to już zdecydowanie praca programistyczna, a nie skład dokumentu. Używane technologie są z kolei w pełni przenośne. Acz co nam po tej przenośności, gdy infrastrukturę trzyma w garści kilka firm? Trudno dziś (choć nie jest to niemożliwe), ominąć chmurę Azure, pocztę Google i komunikację którymś z programów Facebooka. Ta zależność będzie się stawać coraz droższa.
Publikacja powstała w ramach cyklu z okazji 20-lecia dobrychprogramów. Wszystkie artykuły można znaleźć na stronie poświęconej jubileuszowi.
Kamil J. Dudek, współpracownik redakcji dobreprogramy.pl