Bo każdemu wystarczy 640 kB...
08.12.2020 | aktual.: 09.12.2020 10:04
Zacznijmy od malutkiego obrazka...
Obrazek pozwoliłem sobie zapożyczyć z recenzji Macbooka Air Late 2020.
Porównajmy sobie zużycie w trybie Off / Standby z kilkoma innymi modelami z tej strony:
1. Dell XPS 15 2017 9560 - 0.36 / 0.55 Watt
2. HP Envy 13 - 0.35 / 0.9 Watt
3. Asus ZenBook Pro 15 UX535 - 0.3 / 0.7 Watt
4. Lenovo Yoga Slim 7 14ARE05 - 0.6 / 0.7 Watt
5. MacBook Pro 13 2020 - 0.05 / 0.32 Watt
6. Dell Precision 5550 - 0.14 / 1.8 Watt
Mógłbym tak wymieniać w nieskończoność, i choć nie wiem, czy standby w przypadku Mac oznacza zapis na dysk i całkowite wyłączenie, ale zauważam, że laptopy z Windows pobierają bardzo dużo prądu w trybie standby (nawet MacBook Pro 13 2020 potrzebuje o rząd więcej energii niż model z M1).
Oczywistym jest, że pamięć DRAM potrzebuje pewnej porcji energii do podtrzymania zawartości.
Czy coś więcej?
Możliwe, że sam wyłącznik nie jest już tylko mechanicznym wyłącznikiem, tylko jest podpięty do układu, który musi być cały czas czas zasilany.
Do tego... dochodzi niestety niesławny Intel ME. Zastanówmy się - układ, który dostajemy "za darmo" i który w praktycznie każdym systemie z Intelem pozwala na takie cuda jak zdalny dostęp (oczywiście teoretycznie z hasłem, i oczywiście teoretycznie tylko po uaktywnieniu odpowiedniej funkcjonalności).
Dla osób nieznających tematu może małe zrozumiałe wprowadzenie w oparciu o Macbooki (od 8:31):
Nie jestem serwisantem i nie szukam teorii spiskowych, ale najwyraźniej kolejne osoby potwierdzają, jakie kwiatki mamy w używanych przez nas laptopach czy desktopach.
A jak wygląda to przy Ryzenach? Kilka pierwszych lepszych recenzji:
- Lenovo ThinkPad E15 Gen.2 - 0.41 / 0.62 Watt
- Lenovo IdeaPad S540 - 0.29 / 0.4 Watt
- HP EliteBook 845 G7 Ryzen 7 - 0.21 / 0.49 Watt
- Surface Laptop 3 15 Ryzen 5 - 0.2 / 0.51 Watt
Można w tym momencie oczywiście przerzucać się liczbami i mówić, że to wina zasilacza, itp. itp., ale bardziej zasadne będą trzy pytania:
1. co tam działa?
2. ile energii się marnuje? Przyjmijmy średnio (skromnie), że rocznie sprzedaje się 70 milionów systemów. Część z nich zastępuje te stare, więc roboczo podzielę sobie to przez dwa. Przyjmijmy, że w trybie off marnujemy 0.2 Wat, a w standby jakieś 0.5 Watt. 35 milionów razy 0.2 albo 0.5 to w dalszym ciągu pewna konkretna wartość.
3. czy jest to wina tego, że x86 obecnie przypomina słynnego Czarnego Kota "Gargamela" z Warszawy sprzed rozbiórki dodatkowych pięter?
Oryginalny IBM PC to dosyć prosta konstrukcja - kontroler klawiatury, przerwań, pamięć, procesor i kilka innych układów, natomiast cała reszta (porty równoległe i szeregowe, kontroler dysków, dyskietek, karta graficzna) były oddzielne.
Od 1981 przeszliśmy oczywiście bardzo długą drogę - ISA została zastąpiona przez PCI, mamy USB, NVME, Thunderbolt, lepsze pamięci, itp. itd.
Dzisiaj podłączamy klawiatury przez USB 3.x, mamy ogromne (z punktu widzenia wcześniejszych systemów) pamięci i dyski, a często używamy tego do tego co kiedyś - np. pasjansa, pisania tekstów i wyliczania wyniku 2x2 (oczywiście trochę żartuję).
Zastanawia mnie jedno - co by było, gdyby całą płytę x86 sprzed kilku lat (z kilkoma rozsądnymi rozszerzeniami) wytrawić w formie chipa w technologii 7nm?
Czy dajmy na to jakiś stary model z obsługą 64‑bitów byłby przynajmniej równy współczesnym wyrafinowanym konstrukcjom pokroju Ryzen 5xxx?
Naprawdę często nie potrzebujemy 14 portów USB czy 8 SATA.
To, że dałoby się, to pewne:
A gdyby zrobić to w całości?
I ile energii idzie na "zabezpieczenia" w trybie włączenia? (TPM, problemy z prefetchingiem i konieczność wykonywania dodatkowych instrukcji w celu zabezpieczania danych, i inne cuda)
Inną sprawą jest to, że wielu wybierze pewnie wariant 8 GB / 256 GB od Apple - czy to też jest zwiastun wymuszonej rewolucji, w której słowo optymalizacja w końcu odzyska swoje znaczenie? I czy układ 4+4 rdzeni trochę nie przypomina trochę Intela, który też przez lata promował w wielu segmentach 4 rdzenie z HT? (chodzi mi o ilość)
Mam wrażenie, że obecnie Intel i AMD to takie dinozaury jak kiedyś IBM, który w dobie mikrokomputerów produkował systemy mainframe. AMD oczywiście będzie miało jeszcze kilka momentów chwały, ale... w końcówce roku wydaje się, że Apple wyprzedziło ich o lata świetlne.
W mocy pozostają oczywiście moje pytania m.in. o żywotność dysku SSD w M1 (we wcześniejszych wpisach) i obawa o to, kiedy rewolucja pożre swoje dzieci (obecnie zachwycamy się rodziną M, ale prędzej czy później w przyszłości będzie to tak zamknięte rozwiązanie, że będziemy płakać), nie zmienia to faktu, że x86 czas chyba wyrzucić do śmietnika... i o ile Samsung i inni mieli sposobność to zrobić, to jedynie Apple miało jajecznicę (bo nie chcę mówić bardziej dosłownie).
Ludzie kiedyś krzyczeli "Bal-ce-rowicz! Musi odejść!", może czas zmienić to na "x86! Musi odejść!"?
Tak na marginesie co do x86: inną sprawą jest kwestia oprogramowania - zawsze zastanawiało mnie to, ile usług i "niezbędnych" elementów uruchamianie jest w Windows.
Jeśli dodamy do tego jakieś oprogramowanie antywirusowe (bierze jednak swoją część zasobów), to wychodzi mi na to, że tutaj też pewnie dałoby się w skali globalnej zaoszczędzić sporo.
Mac OS jest sprzedawany razem ze sprzętem i reklamowany jako idealnie dopasowany. Nie lubię tego przywiązania, nie zmienia to jednak faktu, że sprzęt z M1 + ten system są co najmniej interesujące.
A jak nie to, to pozostaje nieśmiertelne Ubuntu czy jakaś inna potwora... (tak, tak, wiem, że nie ma gier, sterowników do bardzo egzotycznych sprzętów, itd.)