Internet się nie sprawdził, chyba czas zacząć od nowa
Niedawno minęło trzydzieści lat od powstania usługi WWW. Jest to obecnie usługa na tyle rozpowszechniona, że „zjadła” swoją wszechstronnością wiele innych. Nasze życie toczy się w przeglądarkach internetowych lub aplikacjach w niejawny sposób i tak realizujących komunikację przez HTTPS. Dla wielu osób rozróżnienie między WWW a internetem jest niejasne i nieznane. Dla konsumenta mogłoby bowiem nie istnieć nic innego – wszelkie pozostałe wynalazki są zbyt skomplikowane.
Być może przestało być oczywiste również to, że obecnie najpopularniejsza usługa internetowa (a dziś wręcz platforma dla innych usług) jest kompletnym zaprzeczeniem założeń projektowych internetu. Z perspektywy dostarczanych treści ani trochę się nie skaluje i sprzyja centralizacji, a więc czymś uznawanym za wadę sieci. Jak to się stało, że zwyciężyło coś, co postawiło ją na głowie? Czyżby internet był źle zaprojektowany?
Oryginalne założenia internetu
Nazwa „internet” dosłownie tłumaczy się na „między-sieć”. Opisuje ona projekt stworzony na potrzeby wojska. Był to projekt z założenia odporny na duże uszkodzenia. Cechę tę osiągnięto przez coś, co można określić jako niejawna nadmiarowość: nie powstają w niej rezerwowe węzły, zaprojektowane do przejęcia roli tych uszkodzonych, a zamiast tego realizowany model trasowania (routing) wytyczający ścieżkę komunikacji po trasach, które sprawne, omijając wyrwy w sieci.
No dobrze, ale dotyczy to jedynie komunikacji. Co z usługami? Możliwość dotarcia do serwera na szesnaście sposobów jest mało przydatna, gdy sama usługa „leży”, czyż nie? Z tego powodu same usługi również były projektowane w sposób niejawnie nadmiarowy. Dobrym przykładem będą tu usługi Usenet i IRC. Pocztą e-mail zajmiemy się w drugiej kolejności, ponieważ jej kwestia jest nieco bardziej skomplikowana z uwagi na uwarunkowania historyczne.
Usługa IRC jest zarządzana przez (oczywiście) serwery IRC, ale należą one do sieci IRC, w ramach której dbają one nawzajem o to, by przechowywać wspólny stan. W efekcie użytkownik może się połączyć z dowolnym, najlepiej najbliższym serwerem i otrzymać dostęp do tych samych zasobów. Gdy któryś z serwerów zaczyna mieć ze sobą problemy, generując opóźnienia lub zatruwając sieć jakimiś śmieciami, może tymczasowo wypaść z sieci, aż wydobrzeje.
Przez długi czas, główna sieć IRC była jedna. Naturalnie, możliwe było (i stanowiło to powszechną praktykę) stawianie wewnętrznych serwerów na własne potrzeby, ale jedność sieci stanowiła zaletę. Konkurencyjne sieci uchodziły za pretensjonalne, zbędne konkurowanie z poprawnym projektem i niepotrzebną alienację. Jeżeli ktoś tworzył oddzielny serwer, zazwyczaj miał dobry powód. Ludzie oczywiście zdążyli się przez lata ze sobą mocno pokłócić i obecnie sieci IRC są tysiące, ale nie wpłynęło to żadną miarą na działanie protokołu. Od początku można go było używać na wiele sposobów: zarówno jako jedną wielką skalującą się sieć, albo jeden firmowy serwer.
Do góry nogami: sieć WWW
Aby rozwiać wątpliwości, dzisiejszy Facebook nie jest jednym wielkim serwerem. Składa się z całych centrów danych, a ekran logowania widoczny w jednym mieście, choć identyczny, jest zapewne serwowany przez zupełnie inny serwer, niż w drugim. Load-balancing zapewnia także przekierowanie ruchu na te serwery, które reagują szybciej, zupełnie jak w przypadku sieci IRC.
Czy różnica jest zatem wyłącznie terminologiczna i konceptualna, skoro finalna odporność również jest zapewniona? Nie, jest po prostu dość subtelna w odbiorze użytkownika końcowego. Pod spodem jest odmienna w sposób fundamentalny i by lepiej to zrozumieć, przyjrzyjmy się modelowi Facebooka. Jest to niewątpliwie jedna z najbardziej gigantycznych usług WWW, więc jej słabości będą bardzo pouczające. Gdy wiadomo, gdzie ich szukać.
Centralizacja
Przede wszystkim, skalowalność (w przypadku Facebooka olbrzymia) nie jest przeciwieństwem centralizacji. Dostępność usługi giganta social mediów jest powszechna, adres jest pingowalny nawet w sieciach IPv6 i TOR, a posiadacze słabszych łącz mogą używać zaskakująco elastycznej wersji mobilnej. Mimo podłączania dosłownie miliardów ludzi, dostępność osi czasu i udostępnianych treści pozostaje bardzo wysoka. Facebook zatem doskonale się skaluje.
Nie zmienia to jednak faktu, że usługa jest ściśle zcentralizowana. „Administratorzy” stron nie są w stanie dokonać schizmy: odchodząc, nie są w stanie założyć mniejszego Facebooka, zgodnego z poprzednim, ale funkcjonującego odrębnie. Są też uzależnieni od woli dostawcy – jeżeli jeden podmiot, w postaci administracji portalu, zadecyduje o niestosowności danych treści, ma prawo je usunąć bez pytania i w dodatku jest tą samą stroną, która rozpatruje ewentualne odwołania od owej decyzji.
Z punktu widzenia projektu oryginalnych usług internetowych, powyższe podejście jest niemal nieetyczne. Tymczasem właśnie w ten sposób rosną wszystkie usługi dostarczane w ramach sieci WWW. Komunikator Discord, pozornie wymagający dedykowanego „klienta”, w praktyce będącego aplikacją PWA lub Electron, stosuje wręcz dosłowne metafory. Użytkownicy tworzą tam swój „serwer”, podobnie jak niegdyś tworzono nową instancję IRC podpinaną do IRCNetu. Ale każdy taki serwer to bujda: w praktyce jest to jakaś logiczna jednostka organizacyjna w ramach cudzej, centralnej sieci. Jeżeli nie działa jej rdzeń – całość się zacina.
Najmądrzejsze reklamy świata
Wracając jeszcze na chwilę do Facebooka, warto wspomnieć, że portal ten wcale nie jest agregatorem treści swoich użytkowników. A przynajmniej nie bezpośrednio. Treści te są bowiem filtrowane i sortowane, co odbywa się poza naszą rzeczywistą kontrolą. Ponieważ siła propagacji treści sama w sobie jest informacją („na górze, czyli ważne”), samo zahostowanie czegoś na Facebooku skazuje taką treść na wykrzywienie. Zresztą, poza treściami innych użytkowników, wśród promowanych materiałów znajdują się kontekstowo i behawioralnie dostosowane kampanie reklamowe. To mądrzejsza metoda powiedzenia „Facebook wyświetla reklamy”, ale samo powiedzenie o reklamach tak naprawdę nie wyczerpuje tematu. Reklamy w internecie, również kontekstowe, mamy od lat (acz nie od początku), inteligentne – w zachowaniu, nie treści – adaptujące się kampanie promocyjne, to już wynalazek ostatnich lat.
Tymczasem pierwsze usługi internetowe nie miały reklam. Nie dlatego, że było to niewykonalne. Po prostu nie miało sensu. Dostawca poczty nie wyświetlał reklam, bo na serwer pocztowy w firmie lub uczelni zrzucano się z rachunków. Operator serwera NNTP lub IRC również nie dorzucał reklam do materiałów, które obsługiwał. Podobnie, jak właściciel naszej fizycznej skrzynki pocztowej nie wrzuca tam własnych treści promocyjnych.
Reklamy docierały więc w sposób taki sam, jak ulotki – a więc w postaci spamu. Spam zalał e-mail, rozpanoszył się w Usenecie, floodował IRC botami i podskubywał użytkowników ICQ. Jego zalew w tak groteskowej postaci nastąpił, ponieważ medium było niedostosowane do jego przechowywania. A nie było, bo nikt na to nie wpadł. Nigdy nie zrodziła się taka potrzeba. Dopiero po latach okazało się, że internet musi na siebie zarabiać.
Nieopłacalny z założenia
Uprzednio, koszt utrzymania infrastruktury usługowej był ukryty w ogólnym koszcie utrzymania sieci. Gdy pojawiły się strony internetowe, każda niezależna od innej, kolektywizm utrzymania między-sieci upadł. Uczelnia dbając o swój serwer, dbała przy okazji o skalowalność sieci Usenet. A prywatny właściciel serwera ze stroną internetową? W jaki sposób dba on o skalowalność sieci WWW? W żaden. Musi zarabiać na siebie sam, bo internetowa siła inercji nie będzie miała żadnego interesu w tym, by trzymać go na powierzchni. Z tego powodu, montuje on na swojej stronie billboardy do wynajęcia.
Niniejsze przekształcenie w najtrafniejszy sposób podsumowuje istotność odejścia od założeń projektowych pierwszego internetu. Pozwala to sformułować parę innych, ciekawych wniosków. Na przykład to, jak absurdalnym wynalazkiem są wyszukiwarki internetowe. Nie służą nam one bowiem do wyszukiwania treści na stronach (od tego są oddzielne wyszukiwarki), a nierzadko stron w ogóle, ponieważ ich nie znamy. Bo i skąd mamy je znać?
Usenet nie potrzebował wyszukiwarki grup, ponieważ z definicji dostarczał katalog wszystkich. Każdy użytkownik mógł użyć „usenetowej książki telefonicznej” i znaleźć to, czego potrzebuje. Zdecydowanie w tym celu nie był potrzebny gigantyczny pająk-szperacz, indeksujący wszystkie strony internetowe bez ładu i składu. Oczywiście, odnalezienie samej grupy nie gwarantowało jeszcze odnalezienia treści (tu indeksujące wyszukiwarki faktycznie mogłyby się przydać), ale każdy ich nowy potencjalny dostawca, czyli nowa grupa, był automatycznie rejestrowany w ogólnodostępnym katalogu.
Co dalej?
Dokładnie tego zabrakło podczas powstania sieci WWW: katalogu typu „żółte strony”. Gdyby istniał, strony internetowe mogłyby być usługą bardzo podobną do pozostałych. Pozostaje pytanie, na ile przy całej wszechstronności tego medium, utrzymanie wspólnego katalogu byłoby możliwe. Zapewne zdarzałyby się „schizmy”, jak w przypadku sieci IRC, ale bardzo często wytyczony trend początkowy pozostaje już wieczyście obranym kierunkiem. Poza tym pamiętajmy, że sieć pozostawiona samopas powoli zmierza właśnie do takiego modelu – ale na warunkach dużych dostawców treści. Mamy więc w efekcie to samo, tylko gorzej.
W dalszym ciągu nie rozwiązuje to również kwestii metod finansowania. Reklamy na stronach internetowych są po prostu niemożliwym do utrzymania modelem biznesowym. Zarabiają na siebie o wiele gorzej, niż wielu się wydaje. Utrudnia to tworzenie tzw. „quality content”, bo nie da się za takowy zapłacić twórcom. Docelowo reklamy w sieci na pewno wyginą, to jedynie kwestia czasu. Aczkolwiek gdyby nie miały okazji się pojawić już na początku, moglibyśmy uniknąć bolesnego etapu przejściowego z super-dostosowanymi reklamami i nierównymi, chybotliwie działającymi paywallami.
Poki co nie zanosi się jednak na szczególne rewolucje.