Pecetowe zwierzę nieznane
O zasilaczu przy kupowaniu komputera myśli się na końcu. Jakiś przecież trzeba mieć, a że i energia, i zasoby finansowe znacznie mniejsze niż na początku szukania podzespołów do zestawu, to i ten element dopieszczany nie jest. A być powinien.
To stwierdzenie naprawdę nie jest na wyrost. Najlepsza płyta główna nie pokaże pełni swoich możliwości, jeśli zasilające ją napięcia będą marnej jakości. Za sprawą kiepskiego zasilacza możemy sobie zafundować niestabilną pracę peceta, utratę danych, obniżenie żywotności podzespołów, a niekiedy także ich trwałe uszkodzenie. Poza tym raczej nie będziemy mogli cieszyć się podkręcaniem, a i uszy mogą cierpieć z powodu hałasu wentylatora chłodzącego „elektrownię”.
Gdzie się podział transformator
Zasilacze współpracujące z dzisiejszą elektroniką to urządzenia impulsowe (wyjątkiem jest sprzęt audio z wyższej półki), których „sercem” jest układ kluczujący (tranzystory MOSFET) wytwarzający impulsy o częstotliwości sięgającej dziesiątek kiloherców. Do ich najistotniejszych zalet należą szeroki zakres dopuszczalnych napięć wejściowych, wysoka sprawność, obecność układów zabezpieczających, niewielka masa przy możliwościach zapewnienia dużych mocy, odporność na zakłócenia i krótkotrwałe (rzędu 40 ms) zaniki zasilania. W klasycznej konstrukcji – zwanej liniową – zawsze najpierw obniża się napięcie za pomocą transformatora. Element ten działający przy 50-hercowym napięciu sieciowym jest dość duży i ciężki, więc to jego brak dostrzeżemy przede wszystkim – każdy wie, jak wygląda ładowarka do smartfona. Przybliżmy więc w kilku zdaniach budowę zasilacza impulsowego.
Napięcie zasilające przechodzi najpierw przez sekcję filtrowania i zabezpieczeń, a następnie jest prostowane (zamieniane z przemiennego na stałe) za pomocą tzw. mostka Graetza. Następnie do akcji przystępują kolejno układy wygładzający tętnienia, PFC (więcej w ramce) i kluczujący. Pracą wspomnianych już tranzystorów MOSFET steruje układ PWM (Pulse Width Modulation), czyli modulujący szerokość impulsów. Tak spreparowany przebieg zmienny trafia do transformatora, który z racji częstotliwości przekształcanych napięć ma już bardzo niewielkie rozmiary i masę.
Teraz ponownie trzeba przeprowadzić proces prostowania: przy mniejszych mocach odpowiadają za to diody Schottky’ego, przy większych natomiast stosuje się specjalne tranzystory MOSFET. Całość kształtowania napięcia kończy się na dławikach (cewkach) i kondensatorach elektrolitycznych, choć w lepszych – i oczywiście droższych – modelach stosuje się przetwornice DC-DC (z prądu stałego o napięciu 12 V na prąd stały 5 V i 3,3 V) z dodatkowymi układami PWM. W zasilaczu jest jeszcze pętla sprzężenia zwrotnego, dzięki której układ PWM sterujący tranzystorami kluczującymi otrzymuje informacje o wartości napięcia wyjściowego, co pozwala na dostosowanie szerokości impulsów do aktualnego obciążenia.
Zakulisowy władca
Panująca kiedyś zasada, że cięższy zasilacz jest lepszy, nie do końca jest dziś prawdziwa. Nie ma bowiem przeszkód, żeby skonstruować jednostkę wydajną a niewymagającą rozbudowanych radiatorów. Na pewno jednak należy unikać urządzeń, w których obudowach może hulać wiatr: niewiele elementów oznacza niewielkie możliwości. Podstawową kwestią przy wyborze jest ustalenie niezbędnej mocy – szerzej piszemy o tym w ramce na 2 76. Jeśli tę kwestię mamy za sobą, to możemy zacząć się przyglądać konkretnym modelom, analizując najpierw ich tabliczkę znamionową (coraz częściej jej nie ma i trzeba posiłkować się dokumentacją), która informuje nas o maksymalnych natężeniach prądu dla poszczególnych linii zasilających.
Trzeba tu zwrócić uwagę na kilka rzeczy. Pierwsza to fakt, że dane odnoszą się do rezultatów w temperaturze pokojowej. Druga dotyczy tego, że nieuczciwi producenci mogą umieszczać jedynie moc szczytową zamiast ciągłej. Kolejna kwestia dotyczy podziału mocy. Sumaryczne 500 W może dzielić się między poszczególne napięcia tak, że moc na najważniejszym obecnie napięciu +12 V (zasilane nim są i procesor, i karta graficzna) będzie znacząco odbiegała od tego maksimum. Można jeszcze kupić zasilacze, które mają więcej niż jedną linię +12 V (jest to pokłosiem pomysłu Intela sprzed parunastu lat), ale jeśli się na to decydujemy, musimy starannie policzyć, czy – mówiąc kolokwialnie – sprzęt da radę. Znacznie prościej jest więc wybrać model z pojedynczą linią +12 V (ang. single rail).
A może by tak pasywnie?
Parametry związane z mocą zasilacza są oczywiście najważniejsze, ale nie można przy tym pominąć kwestii chłodzenia. Dla fachowców to oczywistość, przywołajmy jednak pewien fakt: poprawna praca urządzeń elektronicznych jest warunkowana m.in. utrzymywaniem właściwych tzw. punktów pracy. Konstruktorzy podczas projektowania muszą uwzględniać tolerancję wykonania podzespołów oraz zmienność ich własności przede wszystkim w zależności od temperatury (gdy producent daje dłuższą gwarancję, to na pewno nie zapomniano też o kwestii starzenia się elementów).
W przypadku zasilacza jest to o tyle istotne, że jego niewłaściwa praca nie spowoduje np. spowolnienia działania komputera, lecz całkowicie ją uniemożliwi. Jeśli więc zajrzymy do środka pierwszego z brzegu modelu, to chyba nikt nie będzie zaskoczony widokiem wentylatora. Tak zbudowane są wersje aktywne oraz półpasywne (chłodzenie do pewnej granicy odbywa się pasywnie – praca biurowa czy przeglądanie internetu nie spowodują włączenia się „śmigła”). Są też odmiany całkowicie pasywne, w których cała obudowa jest radiatorem.
Wraz ze wzrostem temperatury może spadać zarówno sprawność, jak i wydajność zasilacza. Przy dużym obciążeniu w warunkach rzeczywistych zapewnienie odpowiedniego chłodzenia może być wyzwaniem – w jakiś sposób trzeba pozbyć się kilkudziesięciu watów w postaci ciepła. Dlatego też problemów może nastręczać montaż jednostki całkowicie pasywnej o większej mocy. Skoro bowiem zasilacz nie wymusza ruchu powietrza, to trzeba sobie poradzić inaczej.
Położenia urządzenia nie zmienimy, bo miejsce na zasilacz jest jedno i co najwyżej przy montażu można go obrócić o 180 stopni. W obudowie o jednolitej przestrzeni można osiągnąć właściwy efekt, ale w dzisiejszych dwukomorowych konstrukcjach trzeba mieć na względzie to, że nawet jeśli w drugiej części „piwnicy” nie ma zainstalowanych dysków twardych, to jest przegroda i są wyprowadzone kable. Konieczne jest też umieszczenie wentylatora z przodu obudowy, który wytworzy strumień powietrza – czyli w sumie zamienimy jedno „śmigło” na drugie. Możemy więc powiedzieć, że najlepsze są zasilacze półpasywne. Wybierać trzeba te, które mają pojedynczy duży wentylator, przy czym lepiej omijać konstrukcje korzystające z łożysk ślizgowych, gdyż mają one niewielką trwałość.
Jakość, sprawność, certyfikat
Trudniej jest ustalić detale dotyczące jakości zasilania. Urządzenia muszą spełniać normę ATX, ale nie jest ona zbyt restrykcyjna. Wartości napięć mogą się wahać w granicach ±5 proc. (tylko dla -12 V jest to ±10 proc.), a tętnienia nie mogą przekraczać 120 mV dla ±12 V oraz 50 mV dla wszystkich innych napięć. Wyróżniający się producenci osiągają wyraźnie lepsze parametry, ale w praktyce można to sprawdzić jedynie z użyciem oscyloskopu, więc albo znajdziemy test konkretnego modelu, albo wierzymy w dane prezentowane w specyfikacji technicznej.
Lepiej ma się sprawa z określaniem sprawności. Dzięki rozpowszechnieniu się certyfikatów 80 PLUS (patrz ramka na 2 76) mamy w miarę dobre informacje. Pamiętajmy przy tym, że zasilacze impulsowe pracują najlepiej, gdy są obciążone w granicach między 40 a 70 proc. Z kierowaniem się informacjami z etykiety nie popadajmy w przesadę: inwestycja w model ze znaczkiem Platinum raczej nigdy nie zwróci się w oszczędnościach na prądzie. Podkreślmy tu, że jeśli zasilacz ma moc nominalną np. 650 W, to znaczy, że jest ją w stanie oddać po stronie zasilanych urządzeń, z gniazdka zaś pobierze odpowiednio więcej (gdyby sprawność przy stuprocentowym obciążeniu wynosiła 90 proc., to byłyby to 722 W).
Czy w zasilaczu są LED-y?
Fizyczne rozmiary komputerowych „elektrowni” są zunifikowane tylko w kwestii szerokości i wysokości (także położenie otworów montażowych jest skodyfikowane). Długość – czy też raczej głębokość – jest sprawą indywidualną, przy czym będzie to co najmniej 140 mm. Trzeba to koniecznie wziąć pod uwagę, gdyż sporo obudów ma raczej skromną przestrzeń na montaż zasilacza. Bo trzeba przy tym pamiętać, że do tej długości trzeba jeszcze doliczyć kable.
Wciąż najpopularniejsze są urządzenia ze stałym okablowaniem. Ich wadą jest to, że i tak niewykorzystane przewody trzeba gdzieś schować. Problem ten został rozwiązany w konstrukcjach całkowicie lub częściowo modularnych, bo po prostu część z wiązek nie jest podłączona. Minusem takiego podejścia są wyższe ceny tak zbudowanych modeli oraz niekiedy konflikt z innym wyposażeniem (stała wiązka byłaby skupiona w jednym miejscu, tu zaś zajęta jest cała ścianka). Standardem stał się oplot ułatwiający prowadzenie kabli, coraz częściej też spotykane są wiązki płaskie.
Kable mogą być różnej długości, w różnej liczbie i z odmiennie usytuowanymi wtyczkami. Bezwzględnie trzeba sprawdzić to w dokumentacji, żeby mieć pewność, że wszystkie elementy peceta da się poprawnie zasilić. Dobrze by było, gdyby np. każda wtyczka PCI Express miała osobne przewody; podobnie ma się sprawa z wtyczkami w układzie 6+2: niech ta dwójka też ma swoje kable. Warto przy tym mieć na uwadze, że niekiedy w zestawie w zasilaczu modularnym jest więcej kabli niż można jednorazowo podłączyć – bez spojrzenia na gniazda w samym urządzeniu się nie obejdzie.
Osoby szukające efektownego wyglądu mogą wybrać zasilacz, którego producent umożliwia zakup wiązek w innym kolorze, z podświetlonymi gniazdami do podłączania okablowania czy diodami LED na wentylatorze. Niektórzy wytwórcy dostarczają oprogramowanie, które nie tylko informuje o parametrach pracy urządzenia, ale umożliwia np. sterowanie obrotami wentylatora. Ostatni krzyk mody w tej dziedzinie to sterowanie głosem.
Wybór dobrego zasilacza nie oznacza konieczności zakupu najdroższego czy najwydajniejszego modelu. Już za niespełna 200 zł można zostać właścicielem urządzenia, które nie będzie zagrożeniem dla komputera, a wręcz przeciwnie. Wybierajmy zatem tak, żeby sprzęt przetrwał więcej niż jedną generację peceta, tym bardziej że często można spotkać wydłużony okres gwarancyjny (rekordziści oferują aż 12 lat). Godni polecenia producenci to alfabetycznie: be quiet!, Chieftec, Cooler Master, Corsair, Delta Electronics, Enermax, EVGA, FSP Technology, Seasonic, SilentiumPC, SilverStone, Super Flower, Thermaltake, XFX.
Zabezpieczenia w zasilaczach
OVP (Over Voltage Protection) – zabezpieczenie przed zbyt wysokim napięciem na liniach wyjściowych; jest wymagane przez normę ATX, aktywuje się, gdy napięcie jest wyższe o 15 proc. w stosunku do wartości nominalnej.
UVP (Under Voltage Protection) – zabezpieczenie przed zbyt niskim napięciem na liniach wyjściowych; może być pominięte.
OCP (Over Current Protection) – zabezpieczenie nadmiarowo-prądowe; jest wymagane przez normę ATX, powoduje wyłączenie zasilacza.
OLP lub OPP (Over Load Protection lub Over Power Protection) – zabezpieczenie przeciążeniowe; wyłącza zasilacz po przekroczeniu sumarycznych limitów obciążenia całego urządzenia.
OTP (Over Temperature Protection) – zabezpieczenie termiczne przed przegraniem zasilacza; jest wymagane przez normę ATX, aktywuje się, gdy temperatura wewnątrz urządzenia przekroczy zadaną wartość progową (może się to zdarzyć podczas przeciążenia czy nieprawidłowej cyrkulacji powietrza).
SCP (Short Circuit Protection) – zabezpieczenie przeciwzwarciowe; nie jest wymagane normą, ale znajdziemy je we wszystkich zasilaczach.
IOVP (Input Over Voltage Protection) i IUVP (Input Under Voltage Protection) – zabezpieczenie przed zbyt wysokim lub zbyt niskim napięciem wejściowym; jest stosowane przede wszystkim w zasilaczach z przełącznikiem napięcia wejściowego 115/230 V.
SIP (Surge and Inrush Protection) – zabezpieczenie przed prądami udarowymi z sieci zasilającej.
NLO (No Load Operation) – zabezpieczenie przed brakiem obciążenia na wyjściu; nie pozwala na załączenie zasilacza w przypadku braku obciążenia.
BOP (Brown-Out Protection) – zabezpieczenie przed spadkami napięcia z sieci zasilającej; ma uchronić przed szkodliwym wpływem na zasilane elementy.
Certyfikaty 80 PLUS
Zasilacze – oprócz wymaganych prawem atestów bezpieczeństwa – bardzo często mają certyfikat 80 PLUS (www.80PLUS.org). Inicjatywę oznaczania podjęła organizacja Ecos Consulting, która wraz z ERPI (Electric Power Research Institute, www.epri.com), czyli amerykańską organizację non-profit, która zajmuje się szeroko pojętym wykorzystaniem energii elektrycznej, opracowała normy pomiarowe sprawności (stosunek mocy oddanej w odbiorniku do mocy pobranej ze źródła) przy obciążeniach 20, 50 oraz 100 proc. obciążenia nominalnego (w 2011 roku dołożono pomiar przy 10 proc. dla znaczka Titanium). Pierwsza certyfikacja datuje się na luty 2005 roku i dotyczy modelu wyprodukowanego przez Seasonica, a z aktualnymi wynikami każdy może się zapoznać na stronie www.plugloadsolutions.com/80PlusPowerSupplies.aspx.
Założenie jest takie, że zasilacz musi się wykazać co najmniej 80-procentową sprawnością w każdym z tych punktów pomiarowych, przy czym współczynnik mocy przy maksymalnym obciążeniu musi mieć wartość co najmniej 0,9 – wtedy zasługuje na certyfikat 80 PLUS. Jeśli osiąga lepsze wyniki, to oznaczenie może być wzbogacone o odpowiedni dopisek: Bronze, Silver, Gold, Platinum i Titanium. Testy niestety nie są idealne i to z kilku powodów. Przede wszystkim nie uwzględniają zmian termicznych: są przeprowadzane w temperaturze pokojowej na stole laboratoryjnym, a nie w obudowach. Przy niewielkich mocach i obciążeniach nie ma to większego znaczenia, ale jeśli będziemy rozważać urządzenie o mocy np. 750 W pracujące w pobliżu swych maksimów, to do odprowadzenia będzie kilkadziesiąt watów w postaci ciepła. Prawdopodobnie, gdyby brano to pod uwagę, mniej urządzeń byłoby klasyfikowanych w ogóle, a jeśli już, to w niższej klasie.
Po drugie certyfikacja znakomitej większości modeli odbywa się jedynie przy napięciu zasilającym 115 V, a wyników tych nie da się bezpośrednio odnieść do napięcia 230 V. Nieznane są też używane przyrządy pomiarowe i nie jest kontrolowany pobór mocy w trybie stand-by. Czasem kwestionuje się też wybór środkowych progów obciążeniowych, sugerując, że powinno ich być więcej (choć chwali się sprawdzian przy 10-procentowym obciążeniu). Na koniec zarzut, który trudno odeprzeć: test nie odbywa się poprzez ślepy zakup kilku egzemplarzy w zwykłej sklepowej dystrybucji, ale polega na sprawdzeniu sztuki przysłanej przez producenta, który właściwie może dobrać ją dowolnie. Póki co nie ma jednak – oprócz testów – innej możliwości określenia jakości zasilaczy, więc trzeba korzystać z tego, co jest. Ogólna wskazówka jest taka: im większej mocy zasilacz jest potrzebny, tym wyższym certyfikatem powinien się wykazać.
Zasilacz do laptopa
Zakup zasilacza do laptopa – czasem trzeba zastąpić oryginał (został uszkodzony, zgubiony itp.), a niekiedy potrzebna jest druga jednostka np. na stałe w biurze – to zupełnie inna sprawa niż wybór modelu ATX. Koniecznie trzeba bowiem dostosować się do narzuconych przez producenta notebooka parametrów: pożądanego napięcia, wydajności prądowej, typu wtyczki i jej polaryzacji. Jeśli nie nabywamy urządzenia od wytwórcy urządzenia przenośnego (wtedy wystarczy znać jego model), to musimy dołożyć nieco starań. Jeśli mamy oryginalny zasilacz, rzecz jest prostsza, bo wprost oprócz oddawanych napięcia i natężenia prądu dostajemy informację o polaryzacji: plus na zewnątrz czy wewnątrz wtyczki. Mierzymy wtedy średnicę wtyku i z kompletem informacji udajemy się na zakupy. Gdy w ręce został nam tylko laptop, to oprócz odczytania wartości woltażu i amperażu (czasem te dane są ukryte na naklejce pod akumulatorem) czeka nas poszukiwanie w internecie informacji o polaryzacji wtyczki (jej odwrócenie może spowodować spalenie gniazda zasilania) i jej średnicy. Kupowany zasilacz powinien mieć dokładnie takie parametry, jakie ustaliliśmy podczas oględzin. Wyjątkiem jest wyższy amperaż: wtedy po prostu nasz dostarczyciel energii będzie pracował z mniejszym obciążeniem, ale bez szkody dla laptopa. Warto jednak wiedzieć, co będzie się działo, jeśli liczby te będą inne. Przy wyższym napięciu i prawidłowym natężeniu prądu niektóre urządzenia mogą pracować poprawnie, niektóre się wyłączą, ale przy odrobinie pecha możemy też mieć do czynienia z takim, w którym uszkodzeniu ulegnie płyta główna. Z kolei jeśli napięcie będzie nieco niższe, to przeważnie notebook będzie pracował, ale może się też wyłączyć. Natężenie prądu poniżej wskazanej wartości (przy prawidłowym napięciu) może spowodować przegrzanie lub uszkodzenie zasilacza, obniżenie napięcia (ze skutkami jak opisane wyżej) lub po prostu wyłączenie laptopa. Wszystkie te uwagi nie dotyczą jednak urządzeń, które są zasilane przez złącze Thunderbolt 3 lub USB-C. W tym przypadku wystarczy jedynie ustalić niezbędną moc, bo w przypadku laptopów napięcie zawsze będzie miało wartość 20 V, a wtyczka to przecież USB-C. Zasilacze spełniające normę USB PD (Power Delivery) 2.0 i 3.0 automatycznie dobierają napięcie spośród wartości 5, 9, 15 i 20 V.
Jak obliczyć potrzebną moc?
Jak wspomnieliśmy w tekście głównym, dla zasilacza optimum oznacza pracę w granicach 40–70 proc. jego mocy nominalnej, choć rzecz jasna urządzenie poradzi sobie i z większym obciążeniem, i z minimalnymi wymaganiami prądowymi. Zanim jednak będziemy zastanawiać się nad wyborem konkretnego modelu, trzeba wiedzieć, ile mocy potrzebuje nasz komputer. Jednocześnie musimy sobie odpowiedzieć na pytania, czy będziemy podkręcać procesor i kartę graficzną oraz czy planujemy w przyszłości rozbudowę zestawu o bardziej prądożerne elementy. Pamiętajmy, że dobry zasilacz bez problemu posłuży wiele lat i będzie to czas dłuższy niż okres eksploatacji przeciętnego zestawu. Poboru mocy nie ma sensu liczyć ręcznie – lepiej skorzystać z którejś z poniższych stron WWW, które zrobią to za nas. Bardzo aktualny jest serwis be quiet! – w chwili powstawania tego tekstu w pierwszych dniach lutego na liście kart graficznych był już AMD Radeon VII – a najbardziej szczegółowy kalkulator ma Enermax.
www.bequiet.com/pl/psucalculator
www.msi.com/calculator
www.evga.com/power-meter
www.enermax.outervision.com
Kosinus fi, czyli po co jest PFC
PFC to skrót od angielskiego terminu Power Factor Correction, czyli korekcji współczynnika mocy. Jeśli ktoś z fizyką nie jest za pan brat, to przypomnimy, w czym rzecz. Napięcie zasilające w sieci energetycznej ma przebieg sinusoidalny o częstotliwości 50 Hz, podobnie też przedstawia się natężenie prądu. W idealnej sytuacji po podłączeniu odbiornika oba te przebiegi przechodzą przez zero w tym samym momencie: mówimy wtedy, że obciążenie ma charakter rezystancyjny, a kąt fazowy między napięciem a prądem (oznaczany grecką literą fi, czyli φ) wynosi zero stopni. W rzeczywistości jednak taka sytuacja praktycznie się nie zdarza i przebiegi są przesunięte względem siebie (kąt fazowy jest różny od zera), a kierunek przesunięcia zależy od tego, czy obciążenie ma charakter indukcyjny, czy pojemnościowy. Zjawiska te (wynikające z fizycznej natury cewek i kondensatorów) wpływają na to, że w celu ustalenia poboru mocy musimy posiłkować się tzw. trójkątem mocy.
Moc wykorzystana przez odbiornik to moc czynna (oznaczana literą P) i jest wyrażana w watach (W). Jest też moc bierna (oznaczana literą Q i mierzona w woltoamperach – VA), która nie służy do wykonania pracy (trafia z powrotem do sieci zasilającej, ale niestety jednocześnie dodatkowo ją obciąża – zakłady przemysłowe są rozliczane także za moc bierną).
Zależność między tymi wielkościami można przedstawić za pomocą wspomnianego trójkąta mocy, w którym trzeci bok reprezentuje moc pozorną (oznaczaną literą S. w woltoamperach).
Jeśli teraz przypomnimy sobie definicje trygonometryczne (możemy to zrobić, bo mamy do czynienia z trójkątem prostokątnym), to zależność między mocą czynną a pozorną przyjmie postać wzoru: S * cos φ = P, przy czym zależność P/S nazywamy współczynnikiem mocy. Doprowadzenie do idealnej sytuacji – obciążenia rezystancyjnego i zrównania się mocy pozornej z czynną – oznacza, że współczynnik mocy ma wartość 1. W rzeczywistości jest to praktycznie niemożliwe, ale im bliżej jedności tym lepiej. Dlatego stosuje się mechanizmy kompensacji mocy biernej i poprawy współczynnika mocy. W zasilaczach od dawna mają one postać układów aktywnych, które zmieniają swoją charakterystykę w zależności od wartości obciążenia i pozwalają osiągać wartości P/S nawet 0,99.