Blog (47)
Komentarze (4.4k)
Recenzje (0)
@wielkipiecPentium 4 – wspomnienie intelowskiej czkawki

Pentium 4 – wspomnienie intelowskiej czkawki

Zanim Intel stał się (na nowo) niekwestionowanym liderem w dziedzinie procesorów dla PC, sytuacja była o wiele bardziej skomplikowana. Dziś nie mamy wątpliwości: kupujemy płytę główną dowolnego producenta, a na niej jest chipset Intela i socket, do którego pasuje tylko procesor Intela. Kupowanie platformy opartej o AMD uchodzi za zbędny, niesłyszany przez nikogo manifest i oczywiście skazywanie się na niekończącą się, nierówną walkę ze sterownikami. Za absolutną niezarządzalność i pasmo problemów z OpenCL będę nienawidzić AMD jeszcze przez wiele lat, zanim dam mu drugą szansę. Bardzo często w technicznej wyobraźni „prawie-fachowców”, AMD jest uznawane wręcz za „podróbę” Intela, niewartą zachodu. Czyli wszystko jest tak, jak przed wiekami.

Heatsink and fan reqd
Heatsink and fan reqd

W latach osiemdziesiątych, AMD było firmą, której zlecano tworzenie tańszych odpowiedników znanych układów. A więc z definicji nie mogło być liderem rynku. Zabawnym jest fakt, że taki dwójpodział jest w istocie zasługą IBM, który, dość staroświecko (co nie znaczy błędnie!) wymuszał istnienie co najmniej dwóch dostawców dla swoich kluczowych komponentów. Dlatego 8088 był produkowany przez Intela i AMD jednocześnie. Rola „drugich skrzypiec” gwarantuje mimo wszystko znaczny napływ pieniędzy, co z kolei pozwala inwestować w kapitał intelektualny. Dlatego też firmie Advanced Micro Devices czasem coś się udawało. Na przykład układ Am386 (znacznie tańszy, niż i80386), lub Am486 (podejrzanie mocniejszy od Intel 486 SX). Gdy na rynek wkroczył przełomowy procesor Pentium, a wraz z nim Socket 7, AMD przez wiele lat produkowało coraz mocniejsze procesory na to stare gniazdo, podczas, gdy Intel usiłował przegonić konkurentów, implementując (przepiękny!) Slot 1. Jednakże AMD zniknie na pewien czas w owej opowieści. Zapomnijmy o nim na chwilę – mnie zawsze przynosi to niewypowiedzianą ulgę.

Potrzeba nam rewolucji

Intelowi jednak nie wystarczyło, że AMD to gracz drugoplanowy i postanowił tupnąć nogą jeszcze mocniej: wprowadzić nową architekturę, wymuszać nowy model pamięci i stosować własne chipsety. Wszystko poszło źle. Co szczególnie zabawne, dziś widzimy, jak rażące były problemy, które do tego doprowadziły. Ale jak to często bywa, trudno być prorokiem w branży IT.

Po co nam źrodła, gdy są memy?
Po co nam źrodła, gdy są memy?

Procesor Pentium III, mimo bycia ewolucyjną zmianą względem poprzednika (P6), to całkiem udana konstrukcja. Przetrwała kilka mikroarchitektur, od przeuroczego „Katmai”, tego na sloty, przez socketowy „Coppermine”, posiadany przez wszystkich skomputerozowanych wtedy członków mojego pokolenia, bo wtedy ceny spadły poniżej 4000 PLN za zestaw; aż po tajemnicze układy „Tualatin”, sprzedawane po dacie formalnego końca życia produktu. Historię rewolucyjnego Pentium 4 należy zacząć opowiadać właśnie od układów Tualatin.

Via Apollo Pro

Intel miał w owym czasie problemy z chipsetami. W przeciwieństwie do lat około 2010, gdy Intel robił płyty główne, chipsety, procesory, a nawet pamięć(!), co dawało ultraplatformę, ponad dekadę wcześniej, przez „platformę” rozumiano po prostu procesor, a producentów płyt i chipsetów było bardzo dużo. Oczywiście robił je również Intel. Problem w tym, że… nie był w tym najlepszy. Chipsety Intela dławiły wydajność układów Coppermine, w konsekwencji czego najpopularniejszym zbiorem chipów dla Pentium III przez kilka lat był wszechmocny VIA VT82C694X, sam również niepozbawiony błędów, ale zdecydowanie tańszy i wydajniejszy. Intelowski problem z chipsetami, początkowo będący zapewne inżynierską nieudolnością, wraz z nastaniem Tualatinów, przeradzał się w teorię spiskową. Dlaczego? Bowiem Intel sprzedawał płyty dla owych procesorów, serwerowe w dodatku, ale… na cudzych chipsetach. Ten piorunująco absurdalny proceder musiał mieć przecież jakieś uzasadnienie – no bo z jakiego powodu sprzedawać płyty pod własny procesor, stosując układy Broadcoma? Ano stało się tak dlatego, bo w Intelu najwyraźniej pracowało kilka niekomunikujących się ze sobą zespołów (jak w Microsofcie!), a strategia rynkowa składała się ze skromnego zbioru marketingowych sloganów. Innymi słowy, sukces Tualatina byłby porażką pewnego innego zespołu. Zespołu, który nie miał prawa ponosić żadnych porażek.

T for Tualatin
T for Tualatin

W ten sposób wracamy do planu wstrząśnięcia rynkiem przez wydanie nowego procesora, chipsetu i pamięci. Intel od lat pracował nad technologicznym następcą swoich układów, opartym o nowe rozwiązania, niekoniecznie będące kolejną iteracją w miarowym rozwoju platformy 86. Trzeba uczciwie przyznać, że w izraelskim oddziale badawczym nie brakowało pomysłów – efektem pracy były architektury Itanium i NetBurst. Obie są przeklęte i uchodzą, z kompletnie odmiennych powodów, za głębokie rozczarowanie. NetBurst ma za sobą jednak znacznie smutniejszą historię, bowiem trafił na rynek użytkowy, a więc niespecjalizowany. Był wszak mikroarchitekturą nowego, cudownego dziecka, czyli Pentium 4.

Nowe nie znaczy lepsze

Gdy procesory Pentium III zaczęły być powoli prześcigane przez konkurencję, Intel potrzebował nowej, „przyszłościowej” platformy, będącej przełomem. NetBurst istotnie był przełomowy technologicznie, obsługa potoku wewnątrz układu uległa poważnej zmianie, co natychmiast odróżniało je od poprzedniego P6, uznanego za platformę niezdolną do awansu w XXI wiek. Skoro AMD przegania Pentium na tej samej architekturze, można próbować ich dogonić, albo skupić się na mocnym skoku wprzód – jak NetBurst.

Należy też przy okazji uciszyć innych konkurentów. VIA zostało ukarane za stworzenie zbyt dobrych chipsetów i wytoczono przeciwko owej firmie proces za nieuprawione przyspieszenie szyny w układzie Apollo Pro (a więc ów VT82C694X!) polepszające wydajność. Rzekomo było to nadużycie względem otrzymanej dokumentacji. W praktyce jednak, Intel powinien gwizdać na wyczyn VIA, a tak naprawdę być im wdzięczny, bo sami nie potrafili stworzyć chipsetu pod własny procesor. Chodziło zatem bezwzględnie o to, by stać się dostawcą zarówno procesora, jak i chipsetów, a najlepiej całych płyt, początkowo cichcem sprzedawanych jako „referencyjne implementacje”. Zajęto się też kwestią pamięci i zastąpiono sprawdzony format SDR układem kości RDRAM, a więc bliżej nieznanego i rzekomo lepszego produktu firmy Rambus. Z którą oczywiście współpracował tylko Intel… Miało to przyspawać klienta do produktów Intela, ponieważ żadnego z elementów nie dało się zastąpić produktem konkurencji, co było w owym czasie nowością. Jednak plan wielkiego skoku, opracowany przez inżynierów z Hajfy, zakładał podejście „wszystko albo nic”. Pierwszą wersję owego „wszystko” rzucono na rynek na przełomie wieków, aby jak najszybciej rozpocząć wdrożenie platformy, mającej zabezpieczyć Intela na wiele najbliższych lat.

611640

Entuzjaści wyczekujący następcy ukochanego Pentium III, otrzymali do testów zestawy oparte o superdrogą pamięć RDRAM, nowy chipset 850 oraz najnowszy procesor z serii Willamette, na idiotycznym i zapomnianym już dziś kompletnie sockecie 423. I rozpoczął się festiwal tańca i humoru, przez nielicznych nazywany również grubą inbą. Najnowszy Pentium 4 okazał się być niewiele szybszy, niż układy AMD, przede wszystkim jednak okazał się wolniejszy od produktu „kolegów z pracy”. Zaczęliśmy tę historię o Tualatina nie bez powodu. Otóż owa ostatnia iteracja procesora Pentium III była wydajniejsza, niż nowy Pentium 4. Był to problem o wiele większy, niż zwykłe numerki w benchmarkach, jakiś mały falstart serii, która się rozkręci. Wychodziło bowiem na jaw, że tańsza platforma, z RAMem i chipami od dowolnego producenta, jest lepsza niż nowy produkt, oparty na zamkniętym, i droższym, ekosystemie. Pentium 4 jawił się jako zwykły skok na kasę, podczas gdy najwyraźniej Tualatin dalej mógł być spokojnie rozwijany. A skoro AMD rozpędza się na starej architekturze, być może uda mu się zwiększyć dystans jeszcze bardziej…

Jak nie sprzedawać procesorów

Jak to się stało, że posłano na rynek produkt gorszy od technologicznego poprzednika? Dział marketingu Intela dał się złapać w pułapkę pieczołowicie (i nieświadomie) zastawioną przez AMD. Już wyjaśniam. Ale najpierw zwróćmy uwagę na to, jak AMD numerował swoje procesory. Układy Athlon początkowo miały numer taki sam, jak swój zegar (na przykład Athlon 900 miał zegar 900 MHz), ale już układy Athlon XP stosowały bezczelny trik: po przyzwyczajeniu klientów do „zegarowej” numeracji, nazwy rozjechały się względem taktowania. Układ „Athlon XP 1500+” miał zegar 1333MHz, a „Athlon XP 2100+” rozpędzał się jedynie do 1733 MHz. A do nazwy modelu nonszalancko dopisywano jeszcze ten plus! A więc za główną istotną cechę procesora uznawano zegar. Procesor miał być, w rozumieniu klienta, workiem na megaherce. Im więcej megaherców ktoś sprzeda w jednym worku, ten będzie lepszy. Nie jest to zaskakujące – dotychczas relatywna prędkość komputera rosła liniowo z prędkością zegara. Powoli jednak krzywa zaczęła się płaszczyć, odbiegając od pędzących coraz szybciej zegarów: na horyzoncie było widać ograniczenia sekwencyjnego przetwarzania danych. Ponadto, korelacja między wydajnością, a zegarem malała: nagle zaczęły się liczyć dodatkowe instrukcje procesora (na przykład wspomaganie multimediów i cyfrowego przetwarzania sygnałów, jak MMX i SSE), rozmiar pamięci podręcznej, liczba rzędów pamięci itd.

Coś takiego było jednak niemożliwe do wytłumaczenia klientowi, który coraz częściej nie miał zielonego pojęcia o mikroprocesorach i potrzebował nowego komputera „do internetu”. Dla kogoś takiego, jednoznaczną miarą jakości procesora był zegar. Dlatego AMD zaczął pędzić z numeracją w nazwach modeli, co było bezsprzecznie nieuczciwe (acz w pełni legalne, istniała w dodatku przekonująca wymówka). Ponieważ motyw z udawaniem megaherców w nazwie był już zajęty, konieczne było autentyczne rozpędzenie zegara. Dlatego wskutek badania potrzeb rynku zadecydowano, że główną przewagą Pentium 4 ma być pęd po megaherce, z rzekomym finiszem na dziesięciu gigahercach(!!!). Wszyscy po cichu wiedzieli, że sam zegar nie wystarczy, ale nie sposób było kłócić się z wynikami finansowymi, mówiącymi, że wyższy zegar lepiej się sprzedaje. Miał to być niepodważalny trend, na bazie którego Intel nabrał czelności, by próbować z jednorodnym meta-produktem procesor-płyta-chipset-pamięć pod parasolem Pentium 4.

611645

Nowy procesor oczywiście zawierał nowości, jak zbiór instrukcji SSE2 czy nowy model przewidywania rozgałęzień (branch prediction – fantastyczne zagadnienie, coś dla bramkarzy na kokainie). Dłuższy potok przy szybszym zegarze to teoretycznie też nie jest taki głupi pomysł, bo skoro układ działa szybciej, to niech w jednym cyklu robi więcej. Rzeczywistość okazała się jednak nieco bardziej skomplikowana, niż broszura reklamowa dla udziałowców. Faktycznie więc główną siłą Pentium 4 miał być coraz szybszy zegar. Problem w tym, że i z tym prędko przestał sobie radzić. W przeciwieństwie do morskich muszli, które przyłożone do ucha szumią, bo jest w nich miniaturowe morze (potwierdzone info), procesory nie tykają same, gdy włoży się je do komputera. Potrzebują prądu. A, generalizując, żeby tykały szybciej, potrzebują go więcej. I teraz jest problem: albo osiągniemy stuprocentową wydajność elektryczną i narażamy się na złamanie praw fizyki, a za to są mandaty (chociaż się da ) albo godzimy się z rzeczywistością i przyjmujemy do wiadomości fakt, że w konsekwencji dostaniemy też sporo ciepła. W tym akurat procesory Pentium 4 były znakomite – były lepszą nagrzewnicą, niż procesorem, a praca z nimi w jednym pomieszczeniu, którego temperaturę zauważalnie zresztą podwyższały, narażała na ubytek słuchu. Komputery desktopowe wzbogacały się o coraz bardziej rozbudowane i ciężkie wiatraki. Dotychczas, otwarcie obudowy pozwalało na łatwe odnalezienie procesora, na którym pracował (w 80% przypadków) mały wiatraczek o przekątnej samego procesora i wysokości pięciu centymetrów. W erze Pentium 4, konieczne było zdjęcie masywnego radiatora o nieprzyzwoitej masie, by móc zobaczyć płytę główną. Desktopy zatem stały się ciepłe i głośne, a w dodatku nie chciały przyspieszać. Jednocześnie, rosła sprzedaż układów Athlon, Duron i Sempron. Ponadto, był jeszcze jeden problem – laptopy.

Simultaneous Multi-Fail

Sprzedawano laptopy z procesorem Pentium 4, ale ów układ, niczym reaktor w Czarnobylu, nie pracował poprawnie pod niską mocą. Nie miał też szczególnie wiele do zaoferowania w kwestii energooszczędności. Laptopów nie wzięto pod uwagę, gdy obmyślano skok na kasę z platformą NetBurst. Gdy okazało się, że zwiększenie prędkości zegara wcale nie generuje więcej ciepła w sposób liniowy, tylko wręcz lawinowy, procesor Pentium 4 stał się układem bez żadnych zalet. Konieczne było znalezienie dla niego nowej tożsamości i nowych zastosowań. To oznaczało nowe wyrzeczenia oraz potrzebę wymyślenia, jak sprzedać typowemu klientowi coś innego, niż megaherce.

611649

Poza pozbyciem się idiotycznych pamięci Rambus, pierwszą innowacją było wprowadzenie legendarnego Hyper-Threadingu. Był to jeden z pierwszych zwiastunów końca przetwarzania sekwencyjnego, ale początkowo nikt nie rozumiał, jak działa. Dotychczas, w przetwarzaniu współbieżnym, stosowano podejście SMP, czyli symultanicznej pracy wielu procesorów, koordynowanych procesem-zarządcą (oraz mechanizmami systemu operacyjnego). Takie podejście wymagało oczywiście samodzielnych jednostek obliczeniowych, co w praktyce oznacza płyty główne z wieloma gniazdami na procesory. Takie płyty były kosmicznie drogie i znajdowały głównie zastosowanie w serwerach. Wrzucenie na przykład dwuprocesorowych płyt głównych do klienta domowego, a następnie nakazanie mu zakupu nie jednego, a dwóch procesorów Pentium 4 byłoby pomysłem jeszcze gorszym, niż NetBurst. Intel wymyślił więc coś innego, czyli podejście SMT. Jeden układ potrafił jednocześnie prowadzić dwa wątki, a więc znajdować się w dwóch różnych stanach, w praktyce przedstawiając się jako dwa rdzenie. Nie jest to jednak układ dwurdzeniowy, a więc droższy w produkcji, ponieważ motor wykonawczy oraz komponenty, jak pamięć podręczna, są wspólne. Pentium 4 z HT widniał w systemie operacyjnym jako dwa procesory. Było to coś niewątpliwie nowego – drugi „procesor” był obsługiwany dopiero w Windows NT, a obsługiwany optymalnie – w Windows XP (oraz systemach z Linuksem 2.4 w środku).

Przewaga Hyper-Threadingu polegała na tym, że procesor potrafił zabierać się za dwa wątki jednocześnie. Nie oznacza to, że dotychczas wielozadaniowość była niemożliwa: po prostu teraz jeden układ mógł prowadzić dwa zadania bez ciągłego „przełączania kontekstu” – dynamicznej szamotaniny celem zmiany stanu. To było już znacznie mądrzejsze podejście ze strony Intela, ponieważ opierało się na mniej zbójnickim marketingu. W dalszym ciągu jednak była to swego rodzaju szarada: podobnie, jak AMD sprzedawało nieistniejące megaherce, tak Intelowi udało się sprzedać przekonanie, że oto otrzymujemy drugi procesor „za darmo”. Do tej pory na wielu aukcjach internetowych, sprzedawcy informują o Hyper-Threadingu poprzez ordynarne mnożenie zegara procesora przez liczbę wątków i rdzeni. Dlatego też bywamy raczeni ofertami zakupu laptopa z procesorem 12 GHz…

Wojny bitowe - wersja PC

Niestety, to nie wystarczyło. AMD znalazło się bowiem na wyraźnym prowadzeniu i przejęło rolę lidera rynku, na co Intel makabrycznie zmarnował szansę kilka lat wcześniej. Na przełomie lat 2003 i 2004 wydano bowiem legendarny procesor AMD64, który – czego wielu już nie pamięta – wyznaczył początek nowej ery. Był to bowiem nie tylko pierwszy procesor „domowy” (powiedzmy), który oferował przystępne i niełamiące zgodności instrukcje 64‑bitowe. To oznaczałoby jedynie przegonienie konkurencji. AMD jednak nie tylko przegonił konkurencję, ale i całkiem mocno jej dokopał. Bowiem Intel miał swoją platformę 64‑bitową, było nią wspomniane już Itanium. Porażka Itanium była mniej spektakularna z racji swojej grupy docelowej, ale nie mniej doniosła. A więc na początku 2004 roku, AMD pokazało Intelowi „jak to się robi”. Pamiętam, że gdy ktoś wtedy kupował nowy komputer, nie było to Pentium 4, a właśnie AMD64. Intelowska platforma uchodziła za „zmęczoną” i przeżytą. Intel musiał więc działać, żeby odzyskać swoją pozycję. Nawet, jeżeli porzucenie platformy NetBurst jeszcze psychologicznie nie wchodziło w grę, trzeba było mieć przynajmniej plan awaryjny, zakonspirowany jako projekt poboczny. Tak zapewne powstało Pentium M.

611654

Dla ścisłości – istniały laptopy z Pentium 4. Pracowałem na takowych, ale potrafiły albo parzyć w nadgarstki albo pracować dziwnie powoli. Jednak przed powstaniem Centrino, tego typu wady były zbywane, bo nikt jeszcze nie wierzył w laptopy. Niestety, główna moc NetBurst, w postaci rzekomo rewelacyjnej skalowalności zegara boleśnie wychodziła na jaw jako oszustwo. Gdy desktopowe P4 nie umiały przekroczyć obiecanych 4 gigaherców, konstrukcje mobilne rzadko przekraczały nawet 3, a w dodatku się grzały. Z tego powodu, dla laptopów przygotowano układy Pentium M, w praktyce rozwiniętego Tualatina, zoptymalizowanego pod oszczędzanie energii. Pierwsze układy Pentium M, o zegarze 1.5 GHz, potrafiły w wielu scenariuszach prześcignąć „mobilne” Pentium 4, o zegarze dwóch gigaherców. Intel nie musiał jeszcze głośno ryknąć „Ludzie! Olejcie wreszcie te megaherce!” – wszak niższe taktowanie tłumaczono linią argumentacyjną „bo laptop”. Dzięki temu możliwa była jednak sprzedaż laptopów z układami Intela, zanim wszyscy ludzie uciekli do mobilnych Sempronów.

Zanim plan B mógł się stać planem A, rzeczywisty plan A musi się najpierw wysypać do reszty. Toteż Intel żwawo pracował nad wdrożeniem jakichś zalet dla swojego nieszczęsnego Pentium 4, przebudowując wewnętrzną architekturę, celem jej poprawy. W dalszym ciągu wierzono dogmatycznie, że wyższy zegar usprawiedliwia dłuższy potok, bo dzięki temu za jednym tyknięciem da się zrobić więcej. Dlatego rozszerzono potok jeszcze mocniej, usiłując dalej rozpędzić zegar. W ten sposób otrzymaliśmy między innymi legendarny Pentium 4 672 HT o zegarze 3.8 GHz. Istniał też, o czym do niedawna nie wiedziałem, Pentium 4 4.00 GHz, ale nie miał nawet numerka. Okazuje się, że anulowanie modelu 4 GHz było wyraźnie ogłoszone, by przy okazji poinformować świat, że Intel pracuje nad układami wielordzeniowymi. Był to kolejny subtelny sygnał mówiący o rychłym końcu wyścigu o megaherce.

Again: po co nam źródła, gdy...
Again: po co nam źródła, gdy...

Powyższe zmiany wdrożono w iteracji NetBursta, zwanej „Prescott”. I chociaż nowe modele pracowały z zegarem dwa razy szybszym, niż oryginalna wilametka, przewaga wydajnościowa względem poprzedniej iteracji wynosiła podobno 10%. Zadano sobie również trud, by zmniejszyć litografię do 90 nanometrów, co jedynie pogorszyło problemy z dyssypacją ciepła i rozkręciło inny wyścig, tym razem o waty w zasilaczu. Nie przejmując się energooszczędną platformą mobilną, Prescott kazał się mocniej karmić i generował jeszcze więcej ciepła. Bo przecież czemu nie, kto by się tym już przejmował. Przy okazji wdrożono całkiem sprytny „antysocket”, czyli zaskakująco długowieczne gniazdo LGA 775. Kojarzona z epickim kompletem Core 2 Quad + GeForce 8800, podstawka LGA 775 zaczęła swoją karierę właśnie w czasach Pentium 4.

Wszystko, tylko nie przełom!

Przebudowa wnętrza NetBursta pozwoliła zwiększyć Intelowi pole manewru, początkowo zorientowane wyłącznie na pęd po megaherce, zakończony przegraną bitwą z fizyką. Prescott, mimo bycia elektronicznym ogrzewaniem domu, dostarczał z biegiem lat kilka bardzo istotnych technologii. Poza wspomnianym anty-gniazdem, kolejne procesory Pentium 4 dostarczały na przykład obsługę bitu NX, pozwalającego wymuszać brak możliwości wykonania kodu, gdy znajdował się on w pewnych obszarach pamięci. Pozwalało to zredukować możliwości pisania po mrocznych obszarach pamięci wskutek przepełnienia bufora, a następnie wykonywania owych zapisków, co było częstą metodą złośliwego oprogramowania. Ciekawe jest jednak to, że „tak po prostu” Intel nagle w kolejnych modelach Pentium 4 włączył obsługę 64‑bitowych adresów, w postaci rozszerzeń AMD64, a nie swojej wersji Itanium (co zresztą byłoby niemożliwe, ze względu na fundamentalne niekompatybilności). Włączenie obsługi x86‑64 z powodzeniem zasługiwałoby na nowy produkt, coś w stylu „Pentium 5” (pentium-cepcja), ale zdecydowano się nie promować go zbyt mocno, co obecnie wygląda nieco dziwacznie. Najwyraźniej jednak Intel nie chciał głośno obwieszczać „patrzcie – nasz nowy produkt, oparty na niesatysfakcjonującej platformie, właśnie dogonił naszego konkurenta, który dwa lata temu stworzył specyfikację, na którą bez słowa sprzeciwu się zgodziliśmy, bo nie mamy innego wyjścia!”. Zamiast tego wybrali strategię, dzięki której rażąco widać, że od momentu premiery AMD64, w Intelu istniał zespół mający jak najszybciej przygotować jego implementację, by mogła być gotowa do natychmiastowego rzucenia na rynek. Stąd też doklejono są w locie do losowego procesora z przełomu 2004/2005 i udawano, że nic się nie stało.

611661

Jeszcze ciekawsze są końcowe lata platformy NetBurst: schyłkowy Prescott (i jego litograficzny następca, czyli Cedar Mill), jawią się obecnie jako laboratorium doświadczalne dla przyszłej, odmiennej technologii. Netburst i tak był spalony, po co więc marnować wkład pracy? W ten sposób powstał procesor Pentium D. Od „dual”, bowiem były to układy dwurdzeniowe. Wysoki zegar i długie potoki były koszmarnym pomysłem, czas więc na niższy zegar i dodatkowe rdzenie. Z jednej strony reklamowano układy dwurdzeniowe jako „naturalną ewolucję”, bowiem w tę właśnie stronę zmierzał rynek. Z drugiej jednak było to przyznanie się do porażki, ponieważ skoki wydajnościowe miały być osiągane przez własności, których nie udało się otrzymać. Zapewne z ulgą przyjęto fakt, że Pentium D staje się ponownie układem kompetytywnym i nie zostaje w końcówce benchmarków, przeganiany przez AMD. Udało się zmniejszyć dystans, ale na pewno nie dało się jechać dalej na płonącej platformie NetBurst. Potrzebny był skok – brzmi to znajomo? Tym razem jednak Intel nie miał już możliwości popełnić błędu takiej samej skali, jak pod koniec roku 2000.

To the Core and beyond!

Ostatnim rozdziałem historii Pentium 4 jest ponowne zmniejszenie procesu produkcyjnego, tym razem do 65 nanometrów. Kolejna iteracja, zwana „Tejas”, została anulowana, ponieważ generowała jeszcze większe zapotrzebowanie na energie i skutkujące problemy z ciepłem i w ogóle z TDP były już niemożliwe do zaakceptowania i naprawienia. Rozwój NetBursta wstrzymano, i wreszcie plan B mógł stać się planem A. Architektura Core, podobnie jak Pentium M, wywodziła się ponownie ze sprawdzonej linii Pentium Pro. Pozostało posprzątać po wielopłaszczyznowej katastrofie – procesory Core 2 Duo sprzedawały się nieźle, a platforma Centrino sprawiła, że można było chwilę odetchnąć. Poświęcono ten czas, by wdrożyć politykę Tick-Tock, wymuszającą tworzenie nowego procesora co rok. Narzucenie wysokiego tempa sprawiło, że AMD dostało zadyszki, a dziś platforma AM3+, Athlon, Radeon bardzo często jest synonimem problemów ze sterownikami i niestabilną wydajnością. W efekcie Intel zrealizował swój plan. Co prawda nie robi płyt głównych, ale chipsety i procesory gwarantują rynkową dominację. A najszybsze procesory Pentium 4 zostały przegonione, oczywiście w kwestii samego zegara, przez Core gdzieś w okolicach późnego Haswella. Taki monopol oczywiście prowadzi do patologii. Intel może nawiązać „współpracę” z Microsoftem, w kwestii rozwoju platformy, a następnie wrzucić do chipsetu takie cuda, że brak sterowników sparaliżuje pracę, wymuszając instalację Windows 10. Brak alternatywy bardzo ułatwia propagację podejrzanych narzędzi typu „Intel Management Engine”, który pod pewnymi warunkami można nazwać ordynarnym sprzętowym backdoorem i bombą z opóźnionym zapłonem. Jak ktoś odkryje, jak to przejąć, zaczną się dziać niezłe rzeczy.

611665

Konkurencja zawsze jest potrzebna. Gdy Apple szło na dno, wyciągał ich sam Microsoft. Intel zaczyna dobiegać do ściany atomowej i nie potrafi wydawać nowych mikroarchitektur z taką samą prędkością. AMD jest im potrzebne z wielu powodów i tym razem Intel to wie. Myślę, że nie czeka nas już polityka zatapiania konkurencji, jak pozwy przeciwko VIA – dobrą poszlaką są pogłoski o współpracy z AMD w kwestii nowego układu graficznego dla nowych procesorów Intel Core. Zobaczymy :)

Addendum

PS – oryginalnym „planem B” na wypadek niepowodzenia strategii Pentium 4 + RDRAM miała być… reorientacja Intela na profil sieciowo-internetowy. Sam Andy Grove to powiedział! Jak ktoś dopadnie wiarygodne źródło, będę wdzięczny ^^

Wybrane dla Ciebie
Komentarze (128)