Śmiałe plany AMD: 25 razy większa wydajność na wat do 2020 roku
Deklaracja ze strony AMD jest śmiała: 25-krotny wzrostwydajności na wat w ciągu najbliższych sześciu lat, tak że do2020 roku otrzymać mamy procesory, w których za dzisiaj osiąganąwydajność zapłacimy 25-krotnie mniejszym zużyciem energii. Takichwyczynów nie spodziewano się nawet w złotych latach technikimikroprocesorowej, kiedy to Prawo Moore'a działało naprawdę, bezwsparcia marketingowymi sztuczkami i wystarczyło zejść o szczebelniżej w miniaturyzacji procesu technologicznego, by uzyskać lepszewyniki pod każdym możliwym względem. Skąd więc ta obietnica25X20, stanowiąca przecież dla producenta spore ryzykoośmieszenia się w razie niepowodzenia?
22.06.2014 | aktual.: 23.06.2014 12:48
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
W 1974 roku pracujący w laboratoriach IBM uczony Robert Dennardopublikował ze swoimi kolegami kluczowy dla miniaturyzacjielektroniki artykuł pt. Design of ion-implanted MOSFET's withVery Small Physical Dimensions. Z artykułu można się byłodowiedzieć, że zmniejszając powierzchniowy rozmiar tranzystora oustaloną krotność, uzyskujemy zwiększenie szybkości tranzystorai zmniejszenie zużycia energii o taką samą krotność.
Czasy obowiązywania założeń Dennarda dobiegły jednak końca.Sam Naffziger, badacz z AMD twierdzi, że zablokowała je samafizyka. Rozmiary tranzystorów zostały zmniejszone tak jak tylko siędało, podczas gdy napięcie zasilające wciąż pozostało napoziomie 1 wolta. Nie ma szans, by powrócić do idealnej skaliDennarda, na której zmniejszenie elementu w trzech wymiarachprzynosi czterokrotny wzrost sprawności energetycznej. Schodząc wdół w procesie miniaturyzacyjnym uzyskuje się dziś w kolejnychkrokach ulepszenia rzędu 30-50%. Jak widać na poniższym wykresie,od mniej więcej 2000 roku realne wyniki były znacznie słabsze odtych, które można byłoby ekstrapolować z pracy Dennarda.
Konsekwencje takiego stanu rzeczy nie ograniczają się tylko doniemożliwości zbudowania laptopa pracującego tydzień na baterii.AMD podkreśla, że chodzi o całą światową gospodarkę. Wedługfirmy, powołującej się na badania prowadzone na StanfordUniversity, obecne trendy konsumpcji mediów i wzrostuzapotrzebowania na moc obliczeniową doprowadzą w 2020 roku do tego,że urządzenia komputerowe będą zużywały ponad 14% globalnejprodukcji energii, co odpowiadać ma za ok. 2% całego śladuwęglowego cywilizacji.
Zielona linia z poprzedniego wykresu to właśnie inicjatywa 25X20,dzięki której nie tylko dogonimy prognozy Dennarda, aleprześcigniemy je. Droga do tego ma prowadzić nie tylko przez dalsząminiaturyzację, ale przede wszystkim poprzez radykalne ulepszeniaarchitektury mikroprocesorowej. W tym momencie jasne się staje, że25X20 oznacza mniej, niż by się wydawało na początku, a zarazemjest bardziej realistycznym celem. AMD zamierza zmniejszyć25-krotnie zużycie energii nie przy maksymalnych obciążeniachroboczych, i nie w jałowym trybie pracy, ale w bliżejniezdefiniowanych typowych warunkach użytkowania.
Te ulepszeniamające zmniejszyć zużycie energii wpisują się w dalszy rozwójarchitektury HSA, w której coraz bardziej niezależne rdzenie owyspecjalizowanych zastosowaniach oszczędzają energię dziękiujednoliconemu dostępowi do pamięci systemowej (hUMA)i optymalizacji wykorzystania poszczególnych rdzeni do najbardziejodpowiadających im obciążeń roboczych (hQ).
Pierwszym krokiemw dalszym ulepszaniu HSA ma być zwiększenie liczby strefniezależnego zasilania. Obecnie APU stosują trzy takie strefy, także np. mostek północy i GPU zasilane są z tego samego źródła.Gdy procesor komunikuje się z pamięcią, a żadnych zadań dla GPUnie ma, rdzenie graficzne i tak zużywają trochę energii.Oczywiście w GPU są zbramkowane wyłączniki zasilania, ale ichwydajność jest niewielka, rzędu 10%. Naffziger mówi, że docelowoAPU miałyby otrzymać niezależne sfery zasilania dla CPU, GPU,mostka północnego, pamięci podręcznej itd. Po takim podziale mapyzasilania, można będzie niezależnie optymalizować każdą z nich,i to w czasie rzeczywistym.
Łatwiejpowiedzieć niż zrobić. Jednym z głównych problemówoptymalizacji zasilania w czasie rzeczywistym są fizyczne opóźnieniadanych z czujników termicznych, nieobecne w danych płynących zczujników napięcia czy poboru mocy. Optymalizacja tylko napodstawie tych ostatnich grozi przegrzaniem układu, pozostaje więcskorzystać z algorytmicznie budowanych modeli temperatury iproaktywnie radzić sobie z przewidywanymi, a nie odnotowanymizmianami w jej rozkładzie wewnątrz czipu.
Drugą ważnądrogą do wzrostu wydajności energetycznej jest wyścig dojałowego biegu. Chodzi tu o zwiększanie zasilania rdzenia, byszybciej wykonał on swoje zadanie, a następnie uśpienie rdzenia.To lepsze rozwiązanie, niż utrzymywanie stałego poziomu zasilania– większość tej energii zostanie zużyta niepotrzebnie. WedługNaffzigera dobrym przykładem jest renderowanie wideo: o wiele lepiejjest szybciej wyrenderować ramkę, wyłączyć renderer, pamięćprzełączyć w oszczędny tryb i czekać na kolejną ramkę, niżutrzymywać stały poziom obciążenia. Oczywiście takieoptymalizacje wymagają bardzo precyzyjnego zestrojenia sprzętu ioprogramowania, ale nie są niemożliwe – już dziś APU mająspecjalizowany 32-bitowy kontroler do dopasowywania częstotliwościpracy rdzeni do potrzeb oprogramowania.
Przy takimpostawieniu założeń projektowych, 25X20 nie jest tak nierealne,jak mogłoby się wydawać to na początku. Wciąż to jednak tylkomęczenie wysłużonych rozwiązań półprzewodnikowych,optymalizacje tego, co dobrze znane od dziesięcioleci. Ile jeszczetakich cykli ulepszeń klasycznej mikroprocesorowej elektroniki dasię przeprowadzić, tego chyba nikt nie wie. Ale jak na razie tylkoHP otwarcie przyznajesię do prac nad czymś radykalnie odmiennym –memrystorowo-fotonicznym komputerem The Machine.