Sprawdzanie płytki zasilacza wodnego. Diagnostyka zasilacza komputerowego. Oznaki wadliwego zasilania

Zdrowie każdego żywego organizmu zależy od tego, jak i co je. To samo można powiedzieć o komputerze – jeśli zasilacz działa dobrze i prawidłowo, urządzenia elektroniczne działają „jak zegar”. I odwrotnie: jeśli podajnik ulegnie awarii, praca przy komputerze staje się torturą lub staje się całkowicie niemożliwa.

Problemy z zasilaczem komputera objawiają się na różne sposoby – od braku reakcji po próbę jego włączenia, po sporadyczne „usterki”. Porozmawiajmy o tym, jakie objawy świadczą o awarii zasilacza komputera oraz jak sprawdzić jego funkcjonalność i przydatność do użytku, nie narażając się na niebezpieczeństwo.

Całkowita awaria i nieprawidłowe działanie zasilacza występują najczęściej z powodu:

  • Skoki napięcia w sieci elektrycznej.
  • Niska jakość samego zasilacza.
  • Niespójności pomiędzy możliwościami zasilania i poborem obciążenia (urządzenia komputerowe).

Konsekwencją nieprawidłowego działania zasilacza, zwłaszcza w połączeniu z niską jakością wykonania, może być nie tylko awaria elektroniki komputera, ale także porażenie prądem użytkownika.

Jak objawiają się problemy z zasilaniem komputera

Objawy niesprawnego podajnika są bardzo zróżnicowane. Pomiędzy nimi:

  • Komputer nie włącza się po naciśnięciu przycisku zasilania lub włącza się po wielokrotnym naciśnięciu.
  • Skrzypienie, trzeszczenie, klikanie, dymienie, zapach spalenizny z zasilacza.
  • Po włączeniu komputera przepala się bezpiecznik sieciowy na tablicy rozdzielczej.
  • Wyładowania elektryczności statycznej z obudowy i złączy jednostki systemowej.
  • Spontaniczne wyłączanie i ponowne uruchamianie komputera w dowolnym momencie, ale częściej przy dużych obciążeniach.
  • Hamulce i zamarzanie (do ponownego uruchomienia).
  • Błędy pamięci, BSoD (niebieskie ekrany śmierci).
  • Utrata urządzeń z systemu (napędy, klawiatury, myszy, inny sprzęt peryferyjny).
  • Zatrzymanie fanów.
  • Przegrzanie urządzeń na skutek nieefektywnej pracy lub zatrzymania wentylatorów.

Zasada działania zasilacza

Aby dowiedzieć się, czy zasilacz działa, czy nie, musisz zrozumieć podstawowe zasady jego działania. W uproszczeniu jego funkcję można opisać następująco: przetwarzanie wejściowego napięcia prądu przemiennego domowej sieci elektrycznej na wyjście prądu stałego o kilku poziomach: 12 V, 5 V, 5 V SB (napięcie czuwania), 3,3 V i -12 V .

Następujące urządzenia są zasilane ze źródła 12 V:

  • dyski podłączone poprzez interfejs SATA;
  • napędy optyczne;
  • wentylatory układu chłodzenia;
  • procesory;
  • karty wideo.

Przewody linii 12 V są żółte.

Zasilany z 5 V i 3,3 V:

  • dźwięk, kontroler sieciowy i większość mikroukładów płyty głównej;
  • BARAN;
  • karty rozszerzeń;
  • urządzenia peryferyjne podłączone do portów USB.

Zgodnie ze standardem ATX linia 5 V jest oznaczona przewodami czerwonymi, 5 V SB fioletowym, a 3,3 V pomarańczowym.

Obwód rozruchowy komputera na płycie głównej jest zasilany ze źródła SB 5 V (tryb gotowości). Źródło -12 V przeznaczone jest do zasilania portów COM, które dziś można spotkać jedynie na bardzo starych płytach głównych i specjalistycznych urządzeniach (np. kasach fiskalnych).

Powyższe napięcia wytwarzają wszystkie zasilacze w standardzie ATX, niezależnie od mocy. Jedyne różnice dotyczą poziomu prądów w każdej linii: im mocniejszy zasilacz, tym więcej prądu dostarcza do urządzeń konsumenckich.

Informacje o prądach i napięciach poszczególnych linii można uzyskać z paszportu zasilacza, który jest wklejony w formie etykiety na jedną ze stron urządzenia. Jednak wskaźniki nominalne prawie zawsze różnią się od rzeczywistych. Nie oznacza to nic złego: wahania wartości w granicach 5% są uważane za normalne. Takie drobne odchylenia nie mają wpływu na działanie urządzeń komputerowych.

Między innymi działający zasilacz wytwarza sygnał Power Good lub Power OK, który powiadamia płytę główną, że działa tak, jak powinna i płyta może uruchamiać inne urządzenia. Zwykle sygnał ten ma poziom 3-5,5 V i wzrasta dopiero wtedy, gdy wszystkie napięcia zasilania osiągną określone wartości. Jeśli zasilacz nie zapewnia dobrej mocy, komputer nie uruchomi się. Jeśli uruchomi się zbyt wcześnie, co również nie jest dobre, urządzenie może się włączyć i natychmiast wyłączyć, zawiesić się podczas uruchamiania lub wyrzucić błąd krytyczny - niebieski ekran śmierci.

Sygnał Power Good jest przesyłany do płyty głównej szarym przewodem.

Styki głównego złącza zasilania ATX

Ustaliliśmy kodowanie kolorami przewodów 12 V, 5 V, 5 V SB, 3,3 V i 3-5,5 V Moc Dobra. Pozostałe styki mają następujące napięcia:

  • Biały:-5 V. Po lewej stronie dla kompatybilności ze starszymi urządzeniami.
  • Niebieski:-12 V.
  • Czarny: 0 V. Wspólny przewód lub masa.
  • Zielony: 3-5 V. Zasilanie włączone. Zamknięcie tego styku do masy jest równoznaczne z naciśnięciem przycisku zasilania na obudowie komputera. Uruchamia zasilacz. W momencie naciśnięcia napięcie na stykach przycisku powinno spaść do 0 V.

Te same napięcia występują na pozostałych złączach kończących przewody zasilające, czyli w rzucie przewodu żółtego zawsze powinno być 12 V, w rzucie przewodu czerwonego 5 V, w rzucie przewodu pomarańczowego 3,3 V itd.

Jak przetestować zasilacz za pomocą multimetru

Zgodność wszystkich napięć wytwarzanych przez zasilacz z określonymi poziomami i zachowanie ich wartości pod dowolnym obciążeniem (o ile nie przekraczają one możliwości zasilacza) wskazują, że urządzenie jest sprawne i najprawdopodobniej w dobrym stanie porządek pracy. Aby je określić, będziesz potrzebować multimetru - niedrogiego kompaktowego urządzenia, które można kupić w prawie każdym sklepie z artykułami elektrycznymi.

Multimetry (testery) są oczywiście inne. Wśród nich są drogie, precyzyjne modele z wieloma dodatkowymi funkcjami, ale dla naszych celów wystarczy prosty. Aby sprawdzić zasilanie, nie potrzebujemy pomiarów do tysięcznych części wolta, wystarczą dziesiąte, a czasem setne.

Warunki dokonywania pomiarów

Pomiary napięć na wyjściach zasilacza należy wykonywać w warunkach wystąpienia awarii. Jeżeli problem pojawia się w pierwszych sekundach i minutach pracy komputera, odczyty urządzenia należy wykonać natychmiast po włączeniu. Jeśli pracujesz intensywnie, aby uzyskać wiarygodne wyniki, na komputerze należy wgrać np. ciężką grę lub przeznaczony do tego program (np. narzędzie OCCT, test zasilacza).

Aby śledzić zmiany napięć zasilania podczas pracy komputera, najlepiej wykonywać pomiary w sposób ciągły przez kilka lub kilkadziesiąt minut. Jeżeli z jakichś powodów jest to utrudnione, można dokonać jednorazowych pomiarów w określonych odstępach czasu.

Wynik pojedynczego pomiaru podczas zwarcia pływającego często nie jest wskaźnikiem, ponieważ w przypadku niestabilnej pracy podajnika wartości napięcia (lub jednej z nich) mogą się stale zmieniać.

Procedura wykonywania pomiarów

  • Włącz komputer i doprowadź go do stanu, w którym występuje problem.
  • Przełącz multimetr w tryb pomiaru napięcia stałego (ikona na tablicy przyrządów jest otoczona żółtą ramką). Ustaw górną granicę skali na 20 V.
  • Podłącz czarną sondę do dowolnej metalowej podkładki na płycie głównej, gdzie napięcie wynosi 0 V (na przykład w pobliżu otworu montażowego) lub do styku w złączu, do którego idzie czarny przewód.
  • Umieść czerwoną sondę w obszarze pomiarowym (w złączu naprzeciwko odpowiedniego przewodu). Liczba widoczna na wyświetlaczu testera to wskaźnik napięcia w woltach.

Jak sprawdzić funkcjonalność podajnika, jeśli komputer się nie włącza

Jednym z częstych powodów, dla których komputer nie reaguje na naciśnięcie przycisku zasilania, jest właśnie awaria zasilacza. Aby potwierdzić lub obalić tę wersję, wystarczy metalowy klips lub pęseta, za pomocą których możemy symulować naciśnięcie przycisku. Pamiętacie, nieco wcześniej dowiedzieliśmy się, że w tym celu trzeba zewrzeć zielony i czarny przewód na 24-pinowym złączu zasilacza, który jest podłączony do płyty głównej? Tuż przed tym należy go od niego odłączyć.

  • Podłącz określone obciążenie - odbiornik energii - do zasilacza, który jest odłączony od płyty głównej i urządzeń komputerowych. Na przykład nieużywany napęd optyczny lub żarówka. Należy pamiętać, że w przypadku awarii zasilania podłączone urządzenie może ulec uszkodzeniu. Dlatego używaj tego, co Ci nie przeszkadza.
  • Podłącz zasilacz.
  • Użyj spinacza do papieru, aby połączyć 2 styki naprzeciwko zielonego i czarnego przewodu. Jeśli podajnik wykazuje oznaki życia - uruchamia wentylator znajdujący się w środku i włącza podłączone obciążenie, to jest sprawny. Wydajność nie oznacza jednak przydatności do użytku, to znaczy ta metoda diagnostyczna pozwala jedynie na odróżnienie działającego urządzenia od całkowicie niedziałającego.

Jakie metody diagnostyczne zasilaczy komputerowych nadal istnieją?

Sprawdzenie zasilacza za pomocą multimetru i spinacza biurowego wystarczy w około 70-80% przypadków, aby zidentyfikować jego awarię. Jeśli nie planujesz naprawy w przyszłości, możesz ograniczyć się do tego. W profesjonalnej diagnostyce zasilaczy do lokalizacji uszkodzenia wykorzystuje się nie tylko te, ale i inne metody. W tym:

  • Sprawdzanie tętnienia napięcia wyjściowego za pomocą oscyloskopu. Jest to dość drogie urządzenie, więc jest mało prawdopodobne, aby ktokolwiek zdecydował się na jego zakup do jednorazowej pracy.
  • Demontaż, przegląd, sprawdzenie napięć i rezystancji elementów płytek drukowanych pod kątem zgodności z normami. Robienie tego bez specjalnego przeszkolenia jest niebezpieczne, ponieważ w niektórych częściach zasilacze gromadzą napięcie w gospodarstwie domowym. Przypadkowe dotknięcie jakiejkolwiek części pod napięciem może spowodować porażenie prądem.
  • Pomiar prądu. Dokonuje się tego za pomocą amperomierza wbudowanego w tester, który podłącza się do przerwy w badanej linii. Aby utworzyć szczelinę, elementy płytki są zwykle wylutowywane.
  • Testowanie na stanowiskach ze specjalnie dobranym sprzętem w różnych trybach pracy.

Krótko mówiąc, metod diagnozowania zasilaczy jest sporo, jednak nie wszystkie mają zastosowanie lub są wskazane w domu. Z wyjątkiem celów badawczych, jeśli oczywiście właściciel jest tym zainteresowany.

Obecnie wiele urządzeń zasilanych jest z zewnętrznych zasilaczy – adapterów. Kiedy urządzenie przestało dawać oznaki życia, należy najpierw ustalić, która część jest uszkodzona w samym urządzeniu, czy też uszkodzony jest zasilacz.
Przede wszystkim badanie zewnętrzne. Powinieneś zainteresować się śladami upadku, zerwaną linką...

Po zewnętrznej kontroli naprawianego urządzenia, pierwszą rzeczą do zrobienia jest sprawdzenie zasilacza i jego mocy wyjściowej. Nie ma znaczenia, czy jest to zasilacz wbudowany, czy adapter. Nie wystarczy po prostu zmierzyć napięcie zasilania na wyjściu zasilacza. Potrzebuje małego obciążenia A. Bez obciążenia może pokazywać 5 woltów, pod lekkim obciążeniem będzie to 2 wolty.

Żarówka o odpowiednim napięciu dobrze spełnia rolę obciążenia.. Napięcie jest zwykle zapisane na adapterach. Weźmy na przykład zasilacz z routera. 5,2 V, 1 A. Podłączamy żarówkę 6,3 V i 0,3 A i mierzymy napięcie. Do szybkiego sprawdzenia wystarczy żarówka. Świeci się - zasilacz działa. Rzadko zdarza się, aby napięcie znacznie odbiegało od normy.

Lampa o wyższym prądzie może uniemożliwić uruchomienie zasilacza, dlatego wystarczające jest obciążenie niskoprądowe. Mam do przetestowania komplet różnych lamp wiszących na ścianie.

1 i 2 do testowania zasilaczy komputerowych, odpowiednio o większej i mniejszej mocy.
3 . Małe lampki 3,5 V, 6,3 V do sprawdzania zasilaczy.
4 . Lampa samochodowa 12 V do testowania stosunkowo mocnych zasilaczy 12 V.
5 . Lampa 220 V do testowania zasilaczy telewizorów.
6 . Na zdjęciu brakuje dwóch girland lamp. Dwa o napięciu 6,3 V do testowania zasilaczy 12 V i 3 o napięciu 6,3 V do testowania zasilaczy do laptopów o napięciu 19 V.

Jeśli masz urządzenie, lepiej sprawdzić napięcie pod obciążeniem.

Jeśli kontrolka się nie świeci, lepiej najpierw sprawdzić urządzenie ze znanym, dobrym zasilaczem, jeśli taki jest dostępny. Ponieważ zasilacze są zwykle wykonane w sposób nierozłączny i aby je naprawić, trzeba je rozebrać. Nie można tego nazwać demontażem.
Dodatkowym sygnałem nieprawidłowego działania zasilacza może być gwizdek zasilacza lub samego zasilanego urządzenia, który zwykle wskazuje na suche kondensatory elektrolityczne. Przyczyniają się do tego szczelnie zamknięte obudowy.

Zasilacze wewnątrz urządzeń sprawdzane są tą samą metodą. W starych telewizorach zamiast skanu liniowego lutowana jest lampa 220 V, a po blasku można ocenić jej działanie. Częściowo lampka obciążenia jest podłączona ze względu na to, że niektóre zasilacze (wbudowane) mogą bez obciążenia generować znacznie wyższe napięcie niż jest to wymagane.

— w życiu każdego radioamatora prędzej czy później przychodzi moment, w którym musi on opanować drobne naprawy sprzętu. Mogą to być głośniki komputera stacjonarnego, tablet, telefon komórkowy i inne gadżety. Nie pomylę się, jeśli powiem, że prawie każdy radioamator próbował naprawić swój komputer. Niektórym się to udało, ale inni nadal zabrali go do centrum serwisowego.

Diagnozowanie usterek w zasilaniu komputera

W tym artykule przeprowadzimy Cię przez podstawy autodiagnostyki usterek w zasilaczu komputera PC.

Załóżmy, że w nasze ręce wpadł zasilacz (PSU) z komputera. Teraz musisz dowiedzieć się, jak to zrobić sprawdź zasilanie komputera— najpierw musimy się upewnić, czy to działa? Nawiasem mówiąc, należy wziąć pod uwagę, że napięcie w trybie gotowości +5 woltów jest obecne natychmiast po podłączeniu kabla sieciowego do zasilacza.

Jeśli go tam nie ma, dobrym pomysłem byłoby przetestowanie przewodu zasilającego pod kątem integralności za pomocą multimetru w trybie testowania dźwięku. Nie zapomnij także nacisnąć przycisku i bezpiecznika. Jeżeli z kablem zasilającym wszystko jest w porządku to włączamy zasilanie PC do sieci i uruchamiamy go bez płyty głównej zwierając dwa styki: PS-ON i COM. PS-ON jest skrótem z języka angielskiego. — Zasilanie włączone — dosłownie oznacza „włącz zasilanie”. COM jest skrótem od angielskiego. Powszechne - ogólne. Zielony przewód idzie do styku PS-ON, a „wspólny”, zwany także minusem, to czarny przewód.

Nowoczesne zasilacze mają złącze 24-pinowe. Na starszych - 20 Pinów.

Najprostszym sposobem zamknięcia tych dwóch styków jest wyprostowany spinacz do papieru

Chociaż teoretycznie do tego celu wystarczy dowolny metalowy przedmiot lub drut. Możesz nawet użyć tej samej pęsety.

Metoda sprawdzania zasilacza

Jak sprawdzić zasilanie komputera? Jeżeli zasilacz działa, powinien natychmiast się włączyć, wentylator zacznie się obracać, a na wszystkich złączach zasilacza pojawi się napięcie.

Jeśli nasz komputer działa nieprawidłowo, warto sprawdzić na jego złączach, czy napięcie na jego stykach odpowiada. I ogólnie, gdy komputer szwankuje i często pojawia się niebieski ekran, dobrze byłoby sprawdzić napięcie w samym układzie, pobierając mały program diagnostyczny do komputera. Polecam program AIDA. Można na nim od razu sprawdzić, czy napięcie w układzie jest w normie, czy winny jest zasilacz, czy płyta główna „wymaga”, czy może jeszcze coś innego.

Oto zrzut ekranu z programu AIDA na moim komputerze. Jak widzimy, wszystkie napięcia są w normie:

Jeśli występuje jakiekolwiek przyzwoite odchylenie napięcia, nie jest to już normalne. Swoją drogą kupując używany komputer ZAWSZE pobierz do niego ten program i dokładnie sprawdź wszystkie napięcia i inne parametry systemu. Sprawdzone przez gorzkie doświadczenie:-(.

Jeśli jednak wartość napięcia na samym złączu zasilacza jest bardzo różna, należy spróbować naprawić urządzenie, ale w tym celu trzeba wiedzieć jak sprawdzić zasilanie komputera. Jeśli ogólnie bardzo źle radzisz sobie ze sprzętem komputerowym i naprawami, to przy braku doświadczenia lepiej go wymienić. Często zdarza się, że wadliwy zasilacz, gdy ulegnie awarii, „ciągnie” za sobą część komputera. Najczęściej powoduje to awarię płyty głównej. Jak tego uniknąć i jak sprawdzić zasilanie komputera?

Na zasilaczu nigdy nie można oszczędzać i zawsze należy mieć przy sobie niewielką rezerwę mocy. Odradza się kupowanie tanich zasilaczy NONAME.

Co zrobić, jeśli nie znasz marek i modeli zasilaczy, a mama nie da ci pieniędzy na nowy, wysokiej jakości))? Wskazane jest, aby miał wentylator 12 cm, a nie 8 cm.

Zasilacz z wentylatorem 12 cm

Takie wentylatory zapewniają lepsze chłodzenie elementów radiowych zasilacza. Trzeba też pamiętać o jeszcze jednej zasadzie: dobry zasilacz nie może być lekki. Jeśli zasilacz jest lekki, oznacza to, że zastosowano w nim radiatory o małych przekrojach i taki zasilacz będzie się przegrzewał podczas pracy przy obciążeniach znamionowych. Co się stanie, gdy się przegrzeje? Po przegrzaniu niektóre elementy radiowe, zwłaszcza półprzewodniki i kondensatory, zmieniają swoje wartości, a cały obwód jako całość nie działa poprawnie, co oczywiście wpłynie na działanie zasilacza.

Nie zapomnij także oczyścić zasilacza z kurzu przynajmniej raz w roku i dobrze o niego dbać jak sprawdzić zasilanie komputera. Pył działa jak „koc” dla pierwiastków promieniotwórczych, pod którym mogą one działać nieprawidłowo lub nawet „umrzeć” w wyniku przegrzania.

Najczęstszą awarią zasilacza są półprzewodniki mocy i kondensatory. Jeśli czuć zapach spalonego krzemu, musisz sprawdzić, co wypaliło się z diod lub tranzystorów. Wadliwe kondensatory można rozpoznać na podstawie oględzin. Otwarte, spuchnięte, z wyciekającym elektrolitem – to pierwszy znak, że należy je pilnie wymienić.

Przy wymianie należy wziąć pod uwagę, że zasilacze zawierają kondensatory o niskiej zastępczej rezystancji szeregowej (ESR). Zatem w tym przypadku powinieneś zaopatrzyć się w miernik ESR i wybrać kondensatory o możliwie najniższym ESR. Oto mała tabliczka rezystancji dla kondensatorów o różnych pojemnościach i napięciach:

Tutaj należy dobrać kondensatory w taki sposób, aby wartość rezystancji nie była większa niż wskazana w tabeli.

Przy wymianie kondensatorów ważne są również dwa kolejne parametry: pojemność i napięcie robocze. Są one wskazane na korpusie kondensatora:

A co jeśli w sklepie znajdują się kondensatory o wymaganej wartości znamionowej, ale zaprojektowane na wyższe napięcie robocze? Można je również montować w obwodach podczas napraw, jednak należy wziąć pod uwagę, że kondensatory przeznaczone na wyższe napięcia robocze mają zwykle większe wymiary.

Jeśli nasz zasilacz się uruchomi, to za pomocą multimetru mierzymy napięcie na jego złączu wyjściowym lub złączach. W większości przypadków podczas pomiaru napięcia zasilaczy ATX wystarczy wybrać granicę DCV wynoszącą 20 woltów.

Istnieją dwie metody diagnostyczne:

— wykonywanie pomiarów „na gorąco” przy włączonym urządzeniu

— przeprowadzanie pomiarów w urządzeniu pozbawionym napięcia

Co możemy mierzyć i jak przeprowadza się te pomiary? Nas interesuje pomiar napięcia w określonych punktach zasilacza, pomiar rezystancji pomiędzy określonymi punktami, badanie dźwiękowe pod kątem braku lub obecności zwarcia, a także pomiar natężenia prądu. Przyjrzyjmy się bliżej.

Pomiar napięcia.

Jeśli naprawiasz urządzenie i masz do niego schemat, często będzie on wskazywał, jakie napięcie powinno być w punktach testowych na schemacie. Oczywiście nie ograniczasz się tylko do tych punktów testowych i możesz zmierzyć różnicę potencjałów lub napięcie w dowolnym punkcie zasilacza lub dowolnego innego naprawianego urządzenia. Ale aby to zrobić, musisz umieć czytać diagramy i umieć je analizować. Więcej na temat pomiaru napięcia za pomocą multimetru przeczytasz w tym artykule.

Pomiar rezystancji.

Każda część obwodu ma pewien rodzaj oporu. Jeżeli podczas pomiaru rezystancji na ekranie multimetru pojawi się taka informacja, oznacza to, że w naszym przypadku rezystancja jest wyższa niż wybrana przez nas granica pomiaru rezystancji. Podam przykład: na przykład mierzymy rezystancję części obwodu składającego się umownie z rezystora o znanej nam wartości i dławika. Jak wiemy dławik to w przybliżeniu kawałek drutu o małym oporze i znamy wartość rezystora. Na ekranie multimetru widzimy rezystancję nieco większą niż wartość naszego rezystora. Po przeanalizowaniu obwodu dochodzimy do wniosku, że te elementy radiowe są sprawne i zapewniony jest z nimi dobry kontakt na płytce. Chociaż na początku, jeśli brakuje Ci doświadczenia, wskazane jest, aby zadzwonić do wszystkich szczegółów osobno. Podczas pomiaru rezystancji należy również wziąć pod uwagę, że połączone równolegle komponenty radiowe wpływają na siebie nawzajem. Pamiętaj o równoległym połączeniu rezystorów, a wszystko zrozumiesz. Więcej o pomiarze rezystancji możesz przeczytać tutaj.

Weryfikacja dźwiękowa.

Jeżeli słychać sygnał dźwiękowy, oznacza to, że rezystancja pomiędzy sondami, a co za tym idzie, w odcinku obwodu podłączonym do jego końców, wynosi wczesne zero lub jest blisko niego. Za jego pomocą możemy zweryfikować obecność lub brak zwarcia na płytce. Możesz także wykryć, czy w obwodzie jest styk, czy nie, na przykład w przypadku przerwania ścieżki lub zerwanego połączenia lub podobnej awarii.

Pomiar przepływu prądu w obwodzie

Podczas pomiaru prądu w obwodzie wymagana jest ingerencja w konstrukcję płytki, na przykład poprzez lutowanie jednego z zacisków elementu radiowego. Ponieważ, jak pamiętamy, nasz amperomierz jest podłączony do obwodu otwartego. Jak zmierzyć prąd w obwodzie można przeczytać w tym artykule.

Stosując te cztery metody pomiarowe za pomocą tylko jednego multimetru, można zdiagnozować bardzo dużą liczbę usterek w obwodach niemal każdego urządzenia elektronicznego.

Jak mówią, w elektryce są dwie główne wady: jest styk tam, gdzie go nie powinno być, i nie ma styku tam, gdzie powinien. Co to powiedzenie oznacza w praktyce? Przykładowo, gdy przepali się jakikolwiek element radiowy, dochodzi do zwarcia, które jest stanem awaryjnym dla naszego obwodu. Może to być na przykład awaria tranzystora. W obwodach może również wystąpić przerwa, w wyniku której prąd w naszym obwodzie nie może płynąć. Na przykład przerwa w torze lub stykach, przez które przepływa prąd. Może to być również uszkodzony przewód lub tym podobne. W tym przypadku nasz opór staje się, mówiąc relatywnie, nieskończonością.

Oczywiście istnieje trzecia opcja: zmiana parametrów komponentu radiowego. Np. jak ma to miejsce w przypadku tego samego kondensatora elektrolitycznego, czyli przepalenia styków przełącznika i w rezultacie silnego wzrostu ich rezystancji. Znając te trzy możliwości awarii oraz potrafiąc analizować obwody i płytki drukowane, dowiesz się, jak łatwo naprawić swoje urządzenia elektroniczne. Więcej na temat naprawy urządzeń radioelektronicznych przeczytasz w artykule „Podstawy naprawy”.

Zapewne, jak większość użytkowników komputerów osobistych, spotkałeś się już z różnymi problemami związanymi z awarią jakichkolwiek istotnych elementów konfiguracyjnych. Zasilacz komputera PC bezpośrednio odnosi się do takich szczegółów, które mają tendencję do psucia się, jeśli poziom ostrożności ze strony właściciela jest niewystarczający.

W tym artykule przyjrzymy się wszystkim obecnie odpowiednim metodom testowania zasilaczy komputerowych pod kątem funkcjonalności. Co więcej, częściowo poruszymy również podobny problem, z jakim borykają się użytkownicy laptopów.

Jak powiedzieliśmy powyżej, zasilacz komputera, niezależnie od innych elementów zestawu, jest ważną częścią. W rezultacie awaria tego elementu może doprowadzić do całkowitej awarii całej jednostki systemowej, co znacznie utrudnia diagnostykę.

Jeśli Twój komputer się nie włącza, być może nie jest to wina zasilacza – pamiętaj o tym!

Cała trudność w diagnozowaniu tego rodzaju podzespołów polega na tym, że brak zasilania w komputerze może być spowodowany nie tylko zasilaczem, ale także innymi podzespołami. Dotyczy to szczególnie centralnego procesora, którego awaria objawia się ogromną różnorodnością konsekwencji.

Tak czy inaczej, diagnozowanie problemów w działaniu urządzenia zasilającego jest znacznie łatwiejsze niż w przypadku awarii innych elementów. Wniosek ten wynika z faktu, że rozpatrywany komponent jest jedynym możliwym źródłem energii w komputerze.

Metoda 1: Sprawdź zasilanie

Jeśli w dowolnym momencie działania komputera okaże się, że nie działa, należy natychmiast sprawdzić dostępność prądu. Upewnij się, że sieć jest w pełni sprawna i spełnia wymagania zasilacza.

Czasami mogą wystąpić przerwy w dostawie prądu, ale w tym przypadku konsekwencje ograniczają się do samoczynnego wyłączenia komputera.

Nie będzie zbędne ponowne sprawdzanie przewodu łączącego zasilacz z siecią pod kątem widocznych uszkodzeń. Najlepszą metodą testową byłoby podłączenie używanego przewodu zasilającego do innego, w pełni działającego komputera.

Jeśli używasz laptopa, kroki mające na celu wyeliminowanie problemów z zasilaniem są całkowicie podobne do opisanych powyżej. Jedyna różnica polega na tym, że jeśli wystąpi problem z kablem laptopa, jego wymiana będzie kosztować o rząd wielkości więcej niż w przypadku problemów z pełnoprawnym komputerem.

Ważne jest, aby dokładnie sprawdzić i przetestować źródło zasilania, niezależnie od tego, czy jest to gniazdko, czy zabezpieczenie przeciwprzepięciowe. Wszystkie kolejne sekcje artykułu będą poświęcone konkretnie zasilaczowi, dlatego niezwykle ważne jest wcześniejsze rozwiązanie wszelkich problemów z zasilaniem elektrycznym.

Metoda 2: Używanie zworki

Ta metoda jest idealna do wstępnego testowania zasilacza w celu określenia jego wydajności. Warto jednak z wyprzedzeniem zastrzec, że jeśli nigdy wcześniej nie ingerowałeś w działanie urządzeń elektrycznych i nie do końca rozumiesz zasadę działania komputera PC, najlepszym rozwiązaniem będzie skontaktowanie się ze specjalistami technicznymi.

Jeśli wystąpią jakiekolwiek komplikacje, możesz narazić swoje życie i stan swojego PD na poważne niebezpieczeństwo!

Cały sens tej części artykułu polega na zastosowaniu własnoręcznie wykonanej zworki w celu późniejszego zwarcia styków zasilacza. Należy zauważyć, że metoda ta cieszy się dużą popularnością wśród użytkowników, co z kolei może bardzo pomóc w przypadku jakichkolwiek niezgodności z instrukcją.

Przed przejściem bezpośrednio do opisu metody należy wcześniej zdemontować komputer.


Nieco więcej o wyłączaniu zasilania dowiesz się z dedykowanego artykułu.

Po zapoznaniu się ze wstępem można przystąpić do diagnostyki za pomocą zworki. I od razu warto zaznaczyć, że tak naprawdę tę metodę omówiliśmy już wcześniej, gdyż została ona stworzona przede wszystkim po to, aby móc uruchomić zasilacz bez użycia płyty głównej.

Po zapoznaniu się z podanym przez nas sposobem uruchamiania zasilacza, po podłączeniu prądu należy zwrócić uwagę na wentylator. Jeśli główna chłodnica urządzenia nie wykazuje oznak życia, można śmiało stwierdzić, że nie nadaje się do użytku.

Najlepiej wymienić uszkodzony zasilacz lub wysłać go do centrum serwisowego w celu naprawy.

Jeżeli po uruchomieniu chłodnica działa prawidłowo, a sam zasilacz wydaje charakterystyczne dźwięki, to z dużym prawdopodobieństwem można powiedzieć, że urządzenie jest sprawne. Jednak nawet w takich okolicznościach gwarancja weryfikacji jest daleka od ideału, dlatego zalecamy bardziej dogłębną analizę.

Metoda 3: Korzystanie z multimetru

Jak widać bezpośrednio z nazwy metody, metoda ta polega na zastosowaniu specjalnego urządzenia inżynierskiego „Multimetr”. Przede wszystkim będziesz musiał zdobyć taki miernik, a także poznać podstawy jego obsługi.

Zazwyczaj wśród doświadczonych użytkowników multimetr nazywany jest testerem.

Po wykonaniu wszystkich instrukcji testowania przejdź do poprzedniej metody. Następnie, upewniając się, że działa i utrzymując otwarty dostęp do głównego kabla zasilającego, możesz przystąpić do aktywnych działań.

  1. Najpierw musisz dowiedzieć się, jaki konkretny typ kabla jest używany w Twoim komputerze. Istnieją dwa ich rodzaje:
  • 20-stykowe;
  • 24-pinowy.
  • Obliczeń możesz dokonać czytając specyfikację techniczną zasilacza lub ręcznie licząc liczbę pinów złącza głównego.
  • W zależności od rodzaju drutu zalecane działania mogą się nieznacznie różnić.
  • Przygotuj mały, ale dość niezawodny drut, który będzie następnie potrzebny do zamknięcia niektórych styków.
  • Jeśli używasz 20-pinowego złącza zasilania, powinieneś połączyć piny 14 i 15 ze sobą za pomocą kabla.
  • Gdy zasilacz wyposażony jest w złącze 24-pinowe, należy zamknąć piny 16 i 17, również przy pomocy wcześniej przygotowanego kawałka drutu.
  • Po wykonaniu wszystkiego dokładnie według instrukcji podłącz zasilacz do sieci.
  • Jednocześnie należy zwrócić uwagę, aby do czasu podłączenia zasilacza do sieci nic nie przecinało przewodu, a raczej jego nieizolowanych końcówek.
  • Nie zapomnij o ochronie dłoni!

    Podobnie jak we wcześniejszym sposobie, po podłączeniu zasilania, zasilacz może się nie uruchomić, co bezpośrednio świadczy o awarii. Jeżeli chłodnica działa, można przystąpić do bardziej szczegółowej diagnostyki za pomocą testera.


    Wszystkie podane wartości są wartościami zaokrąglonymi, ponieważ w pewnych okolicznościach mogą jeszcze wystąpić drobne różnice.

    Po wykonaniu naszej instrukcji upewnij się, że uzyskane dane odpowiadają normie poziomu napięcia. Jeśli zauważysz znaczne różnice, zasilacz można uznać za częściowo uszkodzony.

    Poziom napięcia dostarczanego do płyty głównej jest niezależny od modelu zasilacza.

    Ponieważ sam zasilacz jest dość złożonym elementem komputera osobistego, najlepiej skontaktować się ze specjalistami w celu naprawy. Dotyczy to szczególnie użytkowników, którzy nie mają doświadczenia z obsługą urządzeń elektrycznych.

    Oprócz powyższego multimetr może się przydać przy sprawdzaniu karty sieciowej laptopa. I chociaż awarie tego typu zasilaczy są rzadkie, nadal można znaleźć problemy, szczególnie podczas pracy laptopa w dość trudnych warunkach.


    Model laptopa w ogóle nie wpływa na poziom dostarczanej energii elektrycznej.

    Jeśli brakuje tych wskaźników, należy ponownie dokładnie sprawdzić kabel sieciowy, jak powiedzieliśmy w pierwszej metodzie. Jeżeli nie ma widocznych usterek, pomóc może jedynie całkowita wymiana adaptera.

    Metoda 4: Korzystanie z testera zasilania

    W takim przypadku do analizy potrzebne będzie specjalne urządzenie przeznaczone do testowania zasilacza. Dzięki takiemu urządzeniu można podłączyć piny podzespołów komputera i uzyskać rezultaty.

    Koszt takiego testera jest z reguły nieco niższy niż pełnoprawnego multimetru.

    Należy pamiętać, że samo urządzenie może znacząco różnić się od prezentowanego przez nas. I choć testery zasilaczy występują w różnych modelach różniących się wyglądem, zasada działania jest zawsze taka sama.

    1. Aby uniknąć trudności, przeczytaj specyfikację miernika, którego używasz.
    2. Podłącz odpowiedni przewód zasilacza do 24-pinowego złącza na obudowie.
    3. W zależności od osobistych preferencji, pozostałe styki podłącz do specjalnych złączy na obudowie.
    4. Zaleca się stosowanie złącza Molex.
    5. Wskazane jest również dodanie napięcia z dysku twardego za pomocą interfejsu SATA II.

    6. Użyj przycisku zasilania urządzenia pomiarowego, aby zmierzyć wskaźniki wydajności zasilacza.
    7. Może być konieczne krótkie naciśnięcie przycisku.

    8. Ostateczne wyniki zostaną zaprezentowane na ekranie urządzenia.
    9. Istnieją tylko trzy główne wskaźniki:
    • +5V – od 4,75 do 5,25 V;
    • +12V – od 11,4 do 12,6 V;
    • +3,3 V – od 3,14 do 3,47 V.

    Jeżeli, jak stwierdzono wcześniej, ostateczne pomiary będą niższe lub wyższe od normalnych, zasilacz wymaga natychmiastowej naprawy lub wymiany.

    Metoda 5: Korzystanie z narzędzi systemowych

    Również w przypadkach, gdy zasilacz jest nadal sprawny i pozwala na bezproblemowe uruchomienie komputera, można diagnozować usterki za pomocą narzędzi systemowych. Należy pamiętać, że sprawdzenie jest obowiązkowe tylko wtedy, gdy występują oczywiste problemy w zachowaniu komputera, na przykład spontaniczne włączanie lub wyłączanie.

    Artykuł, na który zwracamy uwagę, opisuje metodykę, którą stosujemy przy testowaniu zasilaczy - do tej pory poszczególne części tego opisu były rozproszone w różnych artykułach z testami zasilaczy, co nie jest zbyt wygodne dla tych, którzy chcą szybko się zapoznać z metodologią opartą na jej obecnym stanie.

    Materiał ten jest aktualizowany w miarę rozwoju i udoskonalania metodologii, dlatego niektóre odzwierciedlone w nim metody mogą nie zostać zastosowane w naszych starych artykułach z testami zasilaczy - oznacza to tylko, że metoda została opracowana po opublikowaniu odpowiedniego artykułu. Na końcu znajdziesz listę zmian wprowadzonych w artykule.

    Artykuł można dość wyraźnie podzielić na trzy części: w pierwszej pokrótce wymienimy sprawdzane przez nas parametry bloku i warunki tych kontroli, a także wyjaśnimy techniczne znaczenie tych parametrów. W części 2 wymienimy i wyjaśnimy szereg terminów często używanych przez producentów bloków w celach marketingowych. Trzecia część zainteresuje tych, którzy chcą bardziej szczegółowo zapoznać się z cechami technicznymi budowy i działania naszego stanowiska do testowania zasilaczy.

    Dokumentem przewodnim i przewodnim przy opracowywaniu opisanej poniżej metodologii był dla nas standard , którego najnowszą wersję można znaleźć na stronie FormFactors.org. W chwili obecnej stanowi on integralną część bardziej ogólnego dokumentu tzw Przewodnik projektowania zasilaczy dla platform komputerów stacjonarnych, który opisuje bloki nie tylko ATX, ale także innych formatów (CFX, TFX, SFX i tak dalej). Chociaż PSDG nie jest formalnie obowiązkowym standardem dla wszystkich producentów zasilaczy, a priori uważamy, że o ile wyraźnie nie określono inaczej w przypadku zasilacza komputerowego (tzn. jest to jednostka znajdująca się w regularnej sprzedaży detalicznej i przeznaczona do użytku ogólnego, a nie dowolny konkretny model komputera danego producenta), musi spełniać wymogi PSDG.

    Wyniki testów dla konkretnych modeli zasilaczy możesz zobaczyć w naszym katalogu: " Katalog testowanych zasilaczy".

    Wizualna kontrola zasilacza

    Oczywiście pierwszym etapem badań jest oględziny wizualne bloku. Oprócz przyjemności estetycznej (lub odwrotnie, rozczarowania) daje nam także szereg całkiem interesujących wskaźników jakości produktu.

    Po pierwsze, oczywiście, jest jakość obudowy. Grubość metalu, sztywność, cechy montażowe (na przykład korpus może być wykonany z cienkiej stali, ale mocowany na siedem lub osiem śrub zamiast zwykłych czterech), jakość malowania bloku...

    Po drugie, jakość instalacji wewnętrznej. Wszystkie zasilacze przechodzące przez nasze laboratorium są koniecznie otwierane, sprawdzane w środku i fotografowane. Nie skupiamy się na drobnych szczegółach i nie wymieniamy wszystkich znajdujących się w bloku części wraz z ich nazwami – to oczywiście nadawałoby artykułom naukowy charakter, jednak w praktyce w większości przypadków jest to zupełnie bez znaczenia. Jeśli jednak blok jest wykonany według jakiegoś ogólnie dość niestandardowego schematu, staramy się go opisać ogólnie, a także wyjaśnić, dlaczego projektanci bloku zdecydowali się na taki schemat. No i oczywiście, jeśli zauważymy jakieś poważne wady w jakości wykonania – np. niechlujne lutowanie – na pewno o nich wspomnimy.

    Po trzecie, parametry paszportowe bloku. W przypadku powiedzmy niedrogich produktów często można na ich podstawie wyciągnąć pewne wnioski co do jakości - np. jeśli łączna moc urządzenia podana na etykiecie okaże się wyraźnie większa od sumy mocy iloczyny wskazanych tam prądów i napięć.


    Oczywiście podajemy także listę kabli i złączy dostępnych w urządzeniu oraz wskazujemy ich długość. Tę ostatnią zapisujemy jako sumę, w której pierwsza liczba jest równa odległości zasilacza od pierwszego złącza, druga liczba jest równa odległości między pierwszym a drugim złączem i tak dalej. Dla kabla pokazanego na powyższym rysunku wpis będzie wyglądał następująco: „kabel wyjmowany z trzema złączami zasilającymi dla dysków twardych SATA, długość 60+15+15 cm”.

    Praca z pełną mocą

    Najbardziej intuicyjną i przez to najpopularniejszą cechą wśród użytkowników jest pełna moc zasilacza. Na etykiecie urządzenia wskazana jest tzw. moc długoterminowa, czyli moc, z jaką urządzenie może pracować przez czas nieokreślony. Czasami obok niego wskazana jest moc szczytowa - z reguły urządzenie może z nią pracować nie dłużej niż minutę. Niektórzy niezbyt sumienni producenci wskazują albo tylko moc szczytową, albo moc długoterminową, ale tylko w temperaturze pokojowej - odpowiednio podczas pracy w prawdziwym komputerze, gdzie temperatura powietrza jest wyższa niż temperatura pokojowa, dopuszczalna moc takiego zasilacza jest niższy. Zgodnie z zaleceniami Przewodnik projektowania zasilaczy ATX 12 V, podstawowy dokument dotyczący działania zasilaczy komputerowych, urządzenie musi pracować ze wskazaną na nim mocą obciążenia przy temperaturze powietrza do 50°C – a niektórzy producenci wprost wspominają o tej temperaturze, aby uniknąć rozbieżności.

    W naszych testach sprawdzana jest natomiast praca urządzenia na pełnej mocy w łagodnych warunkach – w temperaturze pokojowej, około 22...25°C. Urządzenie pracuje z maksymalnym dopuszczalnym obciążeniem przez co najmniej pół godziny, jeżeli w tym czasie nie wystąpią z nim żadne zdarzenia, test uznaje się za pomyślnie zaliczony.

    W chwili obecnej nasza instalacja pozwala na pełne obciążenie jednostek mocą do 1350 W.

    Charakterystyka obciążenia krzyżowego

    Pomimo tego, że zasilacz komputerowy jest źródłem kilku różnych napięć jednocześnie, z których główne to +12 V, +5 V, +3,3 V, w większości modeli dla dwóch pierwszych napięć występuje wspólny stabilizator. W swojej pracy skupia się na średniej arytmetycznej pomiędzy dwoma kontrolowanymi napięciami - schemat ten nazywa się „stabilizacją grupową”.

    Zarówno wady, jak i zalety tej konstrukcji są oczywiste: z jednej strony redukcja kosztów, z drugiej zależność napięć od siebie. Załóżmy, że jeśli zwiększymy obciążenie szyny +12 V, odpowiednie napięcie spadnie, a stabilizator urządzenia spróbuje „podciągnąć” je do poprzedniego poziomu - ale ponieważ jednocześnie stabilizuje +5 V, rosną Zarówno Napięcie. Stabilizator uznaje sytuację za poprawioną, gdy średnie odchylenie obu napięć od nominalnego wynosi zero - ale w tej sytuacji oznacza to, że napięcie +12 V będzie nieco niższe od nominalnego, a +5 V będzie nieco wyższe; jeśli podniesiemy pierwszy, to drugi natychmiast wzrośnie, jeśli obniżymy drugi, pierwszy również się zmniejszy.

    Oczywiście twórcy bloków starają się złagodzić ten problem - najłatwiej ocenić ich skuteczność za pomocą tzw. wykresów charakterystyk obciążenia krzyżowego (w skrócie CLO).

    Przykład harmonogramu KNH


    Oś pozioma wykresu przedstawia obciążenie szyny +12 V testowanego urządzenia (jeżeli ma kilka linii z tym napięciem, to całkowite obciążenie na nich), a oś pionowa pokazuje całkowite obciążenie linii +5 V i magistrale +3,3 V. W związku z tym każdy punkt na wykresie odpowiada pewnemu bilansowi obciążenia blokowego między tymi magistralami. Dla większej przejrzystości nie tylko przedstawiamy na wykresach KNH strefę, w której obciążenia wyjściowe urządzenia nie przekraczają dopuszczalnych granic, ale także wskazujemy ich odchylenia od wartości nominalnej różnymi kolorami - od zielonego (odchylenie mniejsze niż 1%) do czerwony (odchylenie od 4 do 5 %). Odchylenie większe niż 5% uważa się za niedopuszczalne.

    Powiedzmy, że na powyższym wykresie widzimy, że napięcie +12 V (zbudowane specjalnie do tego) testowanej jednostki jest dobrze utrzymane, znaczna część wykresu jest wypełniona kolorem zielonym - i to tylko przy silnej niezrównoważeniu ładuje w kierunku szyn +5 V i +3, 3 V zmienia kolor na czerwony.

    Dodatkowo po lewej, dolnej i prawej stronie wykresu ograniczone jest minimalnym i maksymalnym dopuszczalnym obciążeniem bloku - jednak nierówna górna krawędź wynika z naprężeń przekraczających granicę 5 proc. Zgodnie z normą w tym zakresie obciążenia zasilacz nie może być już używany zgodnie z jego przeznaczeniem.

    Obszar typowych obciążeń na wykresie KNH


    Oczywiście duże znaczenie ma też to, w którym obszarze wykresu napięcie odbiega bardziej od wartości nominalnej. Na powyższym obrazku zacieniony jest obszar poboru mocy typowy dla współczesnych komputerów - wszystkie ich najpotężniejsze podzespoły (karty graficzne, procesory...) są teraz zasilane z szyny +12 V, więc obciążenie na może być bardzo duży. Ale w rzeczywistości na szynach +5 V i +3,3 V pozostają tylko dyski twarde i elementy płyty głównej, więc ich zużycie bardzo rzadko przekracza kilkadziesiąt watów, nawet w komputerach, które są bardzo wydajne według współczesnych standardów.

    Jeśli porównać powyższe wykresy dwóch bloków, wyraźnie widać, że pierwszy z nich zmienia kolor na czerwony w obszarze nieistotnym dla współczesnych komputerów, ale drugi, niestety, jest odwrotnie. Dlatego choć w sumie oba bloki wykazały podobne wyniki w całym zakresie obciążeń, w praktyce preferowany będzie ten pierwszy.

    Ponieważ podczas testu monitorujemy wszystkie trzy główne szyny zasilacza - +12 V, +5 V i +3,3 V - wówczas zasilacze w artykułach są prezentowane w postaci animowanego obrazu składającego się z trzech klatek, każda klatka co odpowiada odchyleniu napięcia na jednej z wymienionych opon

    W ostatnim czasie coraz popularniejsze stają się także zasilacze z niezależną stabilizacją napięć wyjściowych, w których klasyczny obwód uzupełniany jest dodatkowymi stabilizatorami zgodnie z tzw. obwodem rdzenia nasycającego. Takie bloki wykazują znacznie niższą korelację między napięciami wyjściowymi - z reguły wykresy KNH dla nich są przepełnione kolorem zielonym.

    Wzrost prędkości wentylatora i temperatury

    Efektywność układu chłodzenia jednostki można rozpatrywać z dwóch perspektyw – z punktu widzenia hałasu i z punktu widzenia ogrzewania. Oczywiście osiągnięcie dobrej wydajności w obu tych punktach jest bardzo problematyczne: dobre chłodzenie można osiągnąć, instalując mocniejszy wentylator, ale wtedy stracimy na hałasie - i odwrotnie.

    Aby ocenić skuteczność chłodzenia bloku, stopniowo zmieniamy jego obciążenie z 50 W na maksymalnie dopuszczalne, na każdym etapie dając blokowi 20...30 minut na rozgrzanie - w tym czasie jego temperatura osiąga stały poziom. Po nagrzaniu za pomocą tachometru optycznego Velleman DTO2234 mierzona jest prędkość obrotowa wentylatora urządzenia, a za pomocą dwukanałowego termometru cyfrowego Fluke 54 II mierzona jest różnica temperatur pomiędzy zimnym powietrzem wpływającym do urządzenia i ogrzanym powietrzem wychodzącym z niego. wymierzony.
    Oczywiście w idealnym przypadku obie liczby powinny być minimalne. Jeśli zarówno temperatura, jak i prędkość wentylatora są wysokie, oznacza to, że układ chłodzenia jest źle zaprojektowany.

    Oczywiście wszystkie nowoczesne jednostki mają regulowaną prędkość wentylatora - jednak w praktyce prędkość początkowa może się znacznie różnić (to znaczy prędkość przy minimalnym obciążeniu; jest to bardzo ważne, ponieważ określa hałas urządzenia w momentach, gdy komputer nie jest niczym obciążony - dlatego też wentylatory karty graficznej i procesora obracają się z minimalną prędkością), a także wykres prędkości w funkcji obciążenia. Przykładowo w zasilaczach z niższej kategorii cenowej często stosuje się pojedynczy termistor do regulacji prędkości wentylatora bez żadnych dodatkowych obwodów - w tym przypadku prędkość może zmieniać się tylko o 10...15%, co jest trudne do wyrównania dostosowanie połączenia.

    Wielu producentów zasilaczy podaje poziom hałasu w decybelach lub prędkość wentylatora w obr./min. Obydwu często towarzyszy sprytny chwyt marketingowy – hałas i prędkość mierzone są w temperaturze 18°C. Wynikowa liczba jest zwykle bardzo piękna (na przykład poziom hałasu 16 dBA), ale nie ma żadnego znaczenia - w prawdziwym komputerze temperatura powietrza będzie o 10...15 °C wyższa. Kolejną sztuczką, na którą natknęliśmy się, było wskazanie dla jednostki z dwoma różnymi typami wentylatorów charakterystyki tylko wolniejszego.

    Tętnienie napięcia wyjściowego

    Zasada działania zasilacza impulsowego – a wszystkie jednostki komputerowe przełączają – opiera się na pracy transformatora obniżającego napięcie przy częstotliwości znacznie wyższej od częstotliwości prądu przemiennego w sieci zasilającej, co umożliwia aby wielokrotnie zmniejszać wymiary tego transformatora.

    Przemienne napięcie sieciowe (o częstotliwości 50 lub 60 Hz w zależności od kraju) na wejściu urządzenia jest prostowane i wygładzane, po czym podawane jest na przełącznik tranzystorowy, który zamienia napięcie stałe z powrotem na napięcie przemienne, ale z częstotliwością o trzy rzędy wielkości wyższą - od 60 do 120 kHz, w zależności od modelu zasilacza. Napięcie to podawane jest na transformator wysokiej częstotliwości, który obniża je do potrzebnych nam wartości (12 V, 5 V...), po czym jest ponownie prostowane i wygładzane. Idealnie napięcie wyjściowe urządzenia powinno być ściśle stałe - ale w rzeczywistości oczywiście niemożliwe jest całkowite wygładzenie przemiennego prądu o wysokiej częstotliwości. Standard wymaga, aby zakres (odległość od minimum do maksimum) tętnienia szczątkowego napięć wyjściowych zasilaczy przy maksymalnym obciążeniu nie przekraczał 50 mV dla szyn +5 V i +3,3 V oraz 120 mV dla szyny +12 V.

    Podczas testowania urządzenia wykonujemy oscylogramy jego głównych napięć wyjściowych przy maksymalnym obciążeniu za pomocą dwukanałowego oscyloskopu Velleman PCSU1000 i przedstawiamy je w formie ogólnego wykresu:


    Górna linia odpowiada szynie +5 V, środkowa linia – +12 V, dolna – +3,3 V. Na powyższym obrazku dla wygody maksymalne dopuszczalne wartości tętnienia są wyraźnie pokazane po prawej stronie: jak widać w tym zasilaczu szyna +12 V pasuje bez problemu, szyna +5 V jest trudna, a szyna +3,3 V w ogóle nie pasuje. Wysokie, wąskie piki na oscylogramie ostatniego napięcia mówią nam, że urządzenie nie radzi sobie z filtrowaniem szumów o najwyższej częstotliwości - z reguły jest to konsekwencja stosowania niewystarczająco dobrych kondensatorów elektrolitycznych, których wydajność znacznie spada wraz ze wzrostem częstotliwości .

    W praktyce, jeśli zakres tętnień zasilania przekracza dopuszczalne granice, może to negatywnie wpłynąć na stabilność komputera, a także powodować zakłócenia w pracy kart dźwiękowych i podobnego sprzętu.

    Efektywność

    Jeśli powyżej uwzględniliśmy jedynie parametry wyjściowe zasilacza, to przy pomiarze sprawności uwzględniane są już jego parametry wejściowe - jaki procent mocy otrzymanej z sieci zasilającej urządzenie zamienia na moc, którą dostarcza do obciążenia. Różnica polega oczywiście na bezużytecznym nagrzewaniu samego bloku.

    Obecna wersja normy ATX12V 2.2 narzuca ograniczenie sprawności urządzenia od dołu: minimum 72% przy obciążeniu znamionowym, 70% przy maksymalnym i 65% przy lekkim obciążeniu. Do tego dochodzą wartości zalecane przez normę (sprawność 80% przy obciążeniu znamionowym), a także dobrowolny program certyfikacji „80+Plus”, zgodnie z którym zasilacz musi w każdym momencie posiadać sprawność co najmniej 80%. obciążenie od 20% do maksymalnego dopuszczalnego. Te same wymagania co 80+Plus zawarte są w nowym programie certyfikacji Energy Star w wersji 4.0.

    W praktyce wydajność zasilacza zależy od napięcia sieciowego: im jest ono wyższe, tym lepsza jest wydajność; różnica wydajności pomiędzy sieciami 110 V i 220 V wynosi około 2%. Ponadto różnica w wydajności pomiędzy różnymi jednostkami tego samego modelu ze względu na różnice w parametrach komponentów może również wynosić 1...2%.

    Podczas naszych testów zmieniamy małymi krokami obciążenie urządzenia od 50 W do maksymalnego i na każdym kroku, po krótkim rozgrzewaniu, mierzymy moc pobieraną przez urządzenie z sieci - stosunek obciążenia mocy do mocy pobieranej z sieci daje nam wydajność. Wynikiem jest wykres wydajności w zależności od obciążenia urządzenia.


    Z reguły wydajność zasilaczy impulsowych szybko rośnie wraz ze wzrostem obciążenia, osiąga maksimum, a następnie powoli maleje. Ta nieliniowość daje ciekawą konsekwencję: z punktu widzenia wydajności z reguły nieco bardziej opłaca się kupić jednostkę, której moc znamionowa jest adekwatna do mocy obciążenia. Jeśli weźmiesz blok z dużą rezerwą mocy, wówczas niewielkie obciążenie na nim spadnie do obszaru wykresu, w którym wydajność nie jest jeszcze maksymalna (na przykład obciążenie 200 W na wykresie 730- blok watowy pokazany powyżej).

    Współczynnik mocy

    Jak wiadomo, w sieci prądu przemiennego można rozpatrywać dwa rodzaje mocy: czynną i bierną. Moc bierna występuje w dwóch przypadkach - albo jeśli prąd obciążenia w fazie nie pokrywa się z napięciem sieciowym (to znaczy obciążenie ma charakter indukcyjny lub pojemnościowy), albo jeśli obciążenie jest nieliniowe. Oczywistym drugim przypadkiem jest zasilacz komputerowy – jeśli nie zostaną podjęte żadne dodatkowe działania, pobiera prąd z sieci w krótkich, wysokich impulsach, które pokrywają się z maksymalnym napięciem sieciowym.

    Właściwie problem polega na tym, że jeśli moc czynna w bloku zostanie w całości zamieniona na pracę (przez co w tym przypadku mamy na myśli zarówno energię dostarczoną przez blok do obciążenia, jak i jego własne nagrzanie), to moc bierna tak naprawdę nie jest zużywana przez to w ogóle - jest całkowicie zwracany z powrotem do sieci. Można powiedzieć, że chodzi tam i z powrotem pomiędzy elektrownią a blokiem. Ale nagrzewa łączące je przewody nie gorzej niż moc czynna... Dlatego starają się jak najbardziej pozbyć mocy biernej.

    Obwód znany jako aktywny PFC jest najskuteczniejszym sposobem tłumienia mocy biernej. W swej istocie jest to przetwornica impulsów, która została zaprojektowana tak, aby jej chwilowy pobór prądu był wprost proporcjonalny do chwilowego napięcia w sieci – innymi słowy jest specjalnie wykonany liniowo, a zatem pobiera jedynie moc czynną. Z wyjścia A-PFC napięcie podawane jest na przetwornik impulsowy zasilacza, ten sam, który poprzednio swoją nieliniowością tworzył obciążenie bierne - ale ponieważ teraz jest to napięcie stałe, liniowość drugiego przetwornika nie odgrywa już żadnej roli; jest niezawodnie oddzielony od sieci energetycznej i nie może już na nią wpływać.

    Do oszacowania względnej wartości mocy biernej stosuje się pojęcie takie jak współczynnik mocy – jest to stosunek mocy czynnej do sumy mocy czynnej i biernej (suma ta często nazywana jest także mocą całkowitą). W zasilaczu konwencjonalnym jest to około 0,65, a w zasilaczu z A-PFC około 0,97...0,99, czyli zastosowanie A-PFC zmniejsza moc bierną niemal do zera.

    Użytkownicy, a nawet recenzenci często mylą współczynnik mocy z wydajnością – choć oba opisują wydajność zasilacza, jest to bardzo poważny błąd. Różnica polega na tym, że współczynnik mocy opisuje efektywność wykorzystania przez zasilacz sieci prądu przemiennego – jaki procent mocy przepływającej przez niego urządzenie wykorzystuje do swojej pracy, a sprawność to efektywność przetwarzania mocy pobieranej z sieci na energię moc dostarczana do obciążenia. Nie są one w ogóle ze sobą powiązane, ponieważ jak napisano powyżej, moc bierna, która określa wartość współczynnika mocy, po prostu nie jest w urządzeniu przetwarzana na nic, pojęcie „sprawności konwersji” nie może być kojarzone z dlatego nie ma to wpływu na wydajność.

    Ogólnie rzecz biorąc, A-PFC jest korzystne nie dla użytkownika, ale dla przedsiębiorstw energetycznych, ponieważ zmniejsza obciążenie systemu elektroenergetycznego generowane przez zasilacz komputera o ponad jedną trzecią - a gdy na każdym biurku znajduje się komputer, to przekłada się na bardzo zauważalne liczby. Jednocześnie dla przeciętnego domowego użytkownika praktycznie nie ma różnicy, czy jego zasilacz zawiera A-PFC, czy nie, nawet z punktu widzenia płacenia za prąd – przynajmniej na razie domowe liczniki energii elektrycznej uwzględniają jedynie aktywne moc. Mimo to twierdzenia producentów o tym, jak A-PFC pomaga Twojemu komputerowi, to nic innego jak zwykły szum marketingowy.

    Jedną z dodatkowych zalet zasilacza A-PFC jest to, że można go łatwo zaprojektować do pracy w pełnym zakresie napięć od 90 do 260 V, tworząc w ten sposób uniwersalny zasilacz, który działa w dowolnej sieci bez konieczności ręcznego przełączania napięcia. Ponadto, jeśli jednostki z wyłącznikami napięcia sieciowego mogą pracować w dwóch zakresach - 90...130 V i 180...260 V, ale nie mogą pracować w zakresie od 130 do 180 V, to jednostka z A-PFC pokrywa wszystkie te napięcia w całości. W rezultacie, jeśli z jakiegoś powodu będziesz zmuszony pracować w warunkach niestabilnego zasilania, które często spada poniżej 180 V, wówczas jednostka z A-PFC albo pozwoli ci całkowicie obejść się bez UPS, albo znacznie zwiększy usługę żywotność baterii.

    Jednak sam A-PFC nie gwarantuje jeszcze pracy w pełnym zakresie napięć – można go zaprojektować jedynie dla zakresu 180...260 V. Zdarza się to czasami w jednostkach przeznaczonych na Europę, gdyż odrzucenie pełnego Seria A-PFC pozwala nieco obniżyć jego koszt.

    Oprócz aktywnych PFC, w blokach występują także pasywne. Reprezentują najprostszą metodę korekcji współczynnika mocy - są po prostu dużą cewką indukcyjną połączoną szeregowo z zasilaczem. Dzięki swojej indukcyjności nieznacznie wygładza impulsy prądu pobierane przez urządzenie, zmniejszając w ten sposób stopień nieliniowości. Wpływ P-PFC jest bardzo mały - współczynnik mocy wzrasta z 0,65 do 0,7...0,75, ale jeśli instalacja A-PFC wymaga poważnej modyfikacji obwodów wysokiego napięcia urządzenia, wówczas P-PFC można zastosować dodany bez najmniejszych trudności do dowolnego istniejącego źródła zasilania.

    W naszych testach współczynnik mocy urządzenia określamy według tego samego schematu co wydajność - stopniowo zwiększając moc obciążenia od 50 W do maksymalnej dopuszczalnej. Uzyskane dane przedstawiono na tym samym wykresie, co wydajność.

    Praca w tandemie z UPS

    Niestety opisany powyżej A-PFC ma nie tylko zalety, ale i jedną wadę - niektóre jego implementacje nie mogą normalnie współpracować z zasilaczami awaryjnymi. W momencie, gdy UPS przełącza się na akumulatory, takie A-PFC gwałtownie zwiększają swoje zużycie, w wyniku czego uruchamia się zabezpieczenie przed przeciążeniem w UPS i po prostu się wyłącza.

    Aby ocenić adekwatność implementacji A-PFC w każdym konkretnym urządzeniu, podłączamy je do zasilacza UPS APC SmartUPS SC 620VA i sprawdzamy ich pracę w dwóch trybach – najpierw przy zasilaniu z sieci, a następnie przy przełączaniu na akumulatory. W obu przypadkach moc obciążenia urządzenia stopniowo wzrasta, aż do włączenia wskaźnika przeciążenia na UPS.

    Jeśli zasilacz ten współpracuje z UPS-em, to dopuszczalna moc obciążenia urządzenia przy zasilaniu z sieci wynosi zwykle 340...380 W, a przy przejściu na akumulatory - nieco mniej, około 320...340 W. Ponadto, jeśli w momencie przejścia na akumulatory moc była większa, UPS włącza wskaźnik przeciążenia, ale nie wyłącza się.

    Jeżeli w urządzeniu występuje powyższy problem, to maksymalna moc, przy której UPS zgodzi się z nim pracować na bateriach spada zauważalnie poniżej 300 W, a w przypadku jej przekroczenia UPS wyłącza się całkowicie albo już w momencie przełączenia na baterie, lub po pięciu do dziesięciu sekundach. Jeśli planujesz zakup UPS-a, lepiej nie kupować takiego urządzenia.

    Na szczęście ostatnio coraz mniej jest jednostek niekompatybilnych z UPS-ami. Przykładowo, jeśli bloki serii PLN/PFN Grupy FSP miały takie problemy, to w kolejnej serii GLN/HLN zostały one całkowicie poprawione.

    Jeśli posiadasz już jednostkę, która nie jest w stanie normalnie współpracować z UPS-em, istnieją dwie możliwości (oprócz modyfikacji samego urządzenia, co wymaga dobrej znajomości elektroniki) - wymień jednostkę lub UPS. Pierwszy z reguły jest tańszy, ponieważ UPS będzie musiał zostać zakupiony z co najmniej bardzo dużą rezerwą mocy, a nawet typu online, co, delikatnie mówiąc, nie jest tanie i nie jest w żaden sposób uzasadnione w domu.

    Hałas marketingowy

    Oprócz parametrów technicznych, które można i należy sprawdzać podczas testów, producenci często lubią dostarczać zasilacze z mnóstwem pięknych napisów mówiących o zastosowanych w nich technologiach. Jednocześnie ich znaczenie jest czasami zniekształcone, czasem trywialne, czasami technologie te na ogół odnoszą się jedynie do cech wewnętrznych obwodów bloku i nie wpływają na jego „zewnętrzne” parametry, ale są stosowane ze względu na łatwość produkcji lub koszt. Innymi słowy, piękne etykiety to często jedynie szum marketingowy i biały szum, który nie zawiera żadnych wartościowych informacji. Większość z tych stwierdzeń nie ma większego sensu testować eksperymentalnie, ale poniżej postaramy się wymienić główne i najczęstsze, aby nasi czytelnicy mogli lepiej zrozumieć, z czym mają do czynienia. Jeśli uważasz, że pominęliśmy któryś z charakterystycznych punktów, nie wahaj się nam o tym powiedzieć, na pewno uzupełnimy artykuł.

    Podwójne obwody wyjściowe +12V

    Za dawnych czasów zasilacze miały po jednej szynie na każde z napięć wyjściowych - +5 V, +12 V, +3,3 V i kilka napięć ujemnych, a maksymalna moc każdej szyny nie przekraczała 150... 0,200 W i tylko w niektórych szczególnie wydajnych jednostkach serwerowych obciążenie pięciowoltowej magistrali mogło osiągnąć 50 A, czyli 250 W. Z biegiem czasu sytuacja się jednak zmieniła – całkowita moc pobierana przez komputery stale rosła, a jej rozkład pomiędzy magistralami przesunął się w stronę +12 V.

    W standardzie ATX12V 1.3 zalecany prąd magistrali +12 V sięgał 18 A... i tu zaczęły się problemy. Nie, nie ze wzrostem prądu, nie było z tym szczególnych problemów, ale z bezpieczeństwem. Faktem jest, że zgodnie z normą EN-60950 maksymalna moc na złączach swobodnie dostępnych dla użytkownika nie powinna przekraczać 240 VA – uważa się, że duże moce w przypadku zwarć lub awarii sprzętu najprawdopodobniej mogą prowadzić do różnych nieprzyjemne konsekwencje, na przykład pożar. Na magistrali 12 V moc tę osiąga się przy prądzie 20 A, przy czym złącza wyjściowe zasilacza są oczywiście uważane za swobodnie dostępne dla użytkownika.

    W rezultacie, gdy konieczne było dalsze zwiększenie dopuszczalnego prądu obciążenia o +12 V, twórcy standardu ATX12V (czyli Intel) postanowili podzielić tę magistralę na kilka, każdy o prądzie 18 A (różnica 2 A uwzględniono jako niewielki margines). Wyłącznie ze względów bezpieczeństwa nie ma absolutnie żadnych innych powodów dla tej decyzji. Bezpośrednią konsekwencją tego jest to, że zasilacz w rzeczywistości nie musi mieć więcej niż jednej szyny +12 V - wystarczy, że uruchomi zabezpieczenie, jeśli spróbuje obciążyć którekolwiek ze złączy 12 V prądem większym niż 18 A. To wszystko. Najprostszym sposobem realizacji tego jest zainstalowanie kilku boczników wewnątrz zasilacza, z których każdy jest podłączony do własnej grupy złączy. Jeżeli prąd płynący przez jeden z boczników przekroczy 18 A, zadziała zabezpieczenie. W rezultacie z jednej strony moc na żadnym ze złączy indywidualnie nie może przekroczyć 18 A * 12 V = 216 VA, z drugiej strony całkowita moc pobierana z różnych złączy może być większa od tej wartości. I wilki są nakarmione, a owce są bezpieczne.

    Dlatego – tak naprawdę – zasilacze z dwiema, trzema czy czterema szynami +12 V praktycznie nie występują w przyrodzie. Po prostu dlatego, że nie jest to konieczne - po co wkładać kilka dodatkowych części do bloku, gdzie jest już dość ciasno, skoro można obejść się za pomocą kilku boczników i prostego mikroukładu, który będzie kontrolował napięcie na nich (a skoro znamy rezystancja boczników, to czy napięcie bezpośrednio i jednoznacznie implikuje wielkość prądu przepływającego przez bocznik)?

    Jednak działy marketingu producentów zasilaczy nie mogły zignorować takiego prezentu - i teraz na pudełkach zasilaczy widnieją powiedzenia o tym, jak dwie linie +12 V pomagają zwiększyć moc i stabilność. A jeśli są trzy linie...

    Ale nie ma w tym nic złego, jeśli to wszystko. Najnowszym trendem w modzie są zasilacze, w których jest jakby separacja linii, a tak jakby jej nie było. Lubię to? To bardzo proste: gdy tylko prąd na jednej z linii osiągnie cenione 18 A, zabezpieczenie przed przeciążeniem… wyłącza się. W rezultacie z jednej strony święty napis „Potrójne szyny 12 V dla niespotykanej mocy i stabilności” nie znika z pudełka, a z drugiej strony można obok niego dodać jakiś nonsens tą samą czcionką, który w przypadku konieczne, wszystkie trzy linie łączą się w jedną. Nonsens - ponieważ, jak wspomniano powyżej, nigdy ich nie rozdzielano. Ogólnie rzecz biorąc, absolutnie niemożliwe jest zrozumienie całej głębi „nowej technologii” z technicznego punktu widzenia: w rzeczywistości próbują nam przedstawić brak jednej technologii jako obecność drugiej.

    Spośród znanych nam dotychczas przypadków firmy Topower i Seasonic, a także odpowiednio marki sprzedające swoje jednostki pod własną marką, zostały odnotowane w zakresie promowania wśród mas „samoczynnej ochrony”.

    Zabezpieczenie przed zwarciem (SCP)

    Zablokuj zabezpieczenie przed zwarciem wyjścia. Obowiązkowe zgodnie z dokumentem Przewodnik projektowania zasilaczy ATX12V– czyli jest obecny we wszystkich blokach, które twierdzą, że spełniają normę. Nawet takie, gdzie na pudełku nie ma napisu „SCP”.

    Zabezpieczenie przed przepięciem (OPP)

    Ochrona przed przeciążeniem urządzenia w oparciu o całkowitą moc na wszystkich wyjściach. Jest obowiązkowe.

    Zabezpieczenie nadprądowe (OCP)

    Ochrona przed przeciążeniem (ale jeszcze nie zwarciem) każdego z wyjść urządzenia indywidualnie. Występuje w wielu, ale nie wszystkich blokach i nie na wszystkich wyjściach. Nie obowiązkowe.

    Zabezpieczenie przed przegrzaniem (OTP)

    Zabezpieczenie przed przegrzaniem bloku. Nie jest to zbyt powszechne i nie jest obowiązkowe.

    Ochrona przeciwprzepięciowa (OVP)

    Zabezpieczenie przed przekroczeniem napięć wyjściowych. Jest to obowiązkowe, ale tak naprawdę jest zaprojektowane na wypadek poważnej awarii urządzenia - zabezpieczenie zostaje uruchomione dopiero wtedy, gdy którekolwiek z napięć wyjściowych przekroczy wartość nominalną o 20...25%. Innymi słowy, jeśli Twój agregat produkuje 13 V zamiast 12 V, wskazana jest jego jak najszybsza wymiana, ale jego zabezpieczenie nie musi działać, ponieważ jest przeznaczone na bardziej krytyczne sytuacje, które grożą natychmiastową awarią sprzętu podłączony do urządzenia.

    Ochrona podnapięciowa (UVP)

    Zabezpieczenie przed niedoszacowaniem napięć wyjściowych. Oczywiście zbyt niskie napięcie, w przeciwieństwie do zbyt wysokiego, nie prowadzi do fatalnych konsekwencji dla komputera, ale może spowodować awarie, powiedzmy, w działaniu dysku twardego. Ponownie zabezpieczenie zadziała, gdy napięcie spadnie o 20...25%.

    Nylonowy rękaw

    Miękkie nylonowe rurki w oplocie, w których schowane są przewody wyjściowe zasilacza - ułatwiają nieco ułożenie przewodów wewnątrz jednostki systemowej, zapobiegając ich splątaniu.

    Niestety wielu producentów odeszło od niewątpliwie dobrego pomysłu stosowania rurek nylonowych na rzecz grubych rurek plastikowych, często uzupełnionych osłonami i warstwą farby świecącej w świetle ultrafioletowym. Świecąca farba to oczywiście kwestia gustu, ale przewody zasilające nie potrzebują ekranowania bardziej niż ryba parasola. Grube tuby powodują jednak, że kable są elastyczne i nieelastyczne, co nie tylko uniemożliwia umieszczenie ich w obudowie, ale po prostu stwarza zagrożenie dla złącz zasilających, które wytrzymują znaczną siłę od odpornych na zginanie kabli.

    Często robi się to rzekomo w celu poprawy chłodzenia jednostki systemowej - ale zapewniam, że pakowanie przewodów zasilających w tuby ma bardzo niewielki wpływ na przepływ powietrza wewnątrz obudowy.

    Obsługa dwurdzeniowego procesora

    W rzeczywistości nic więcej niż piękna etykieta. Procesory dwurdzeniowe nie wymagają specjalnego wsparcia ze strony zasilacza.

    Obsługa SLI i CrossFire

    Kolejna piękna etykieta, wskazująca na obecność wystarczającej liczby złączy zasilania karty graficznej i możliwość wytworzenia mocy uważanej za wystarczającą do zasilania systemu SLI. Nic więcej.

    Czasem producent bloku otrzymuje swego rodzaju odpowiedni certyfikat od producenta karty graficznej, nie oznacza to jednak nic innego, jak wspomnianą wcześniej dostępność złączy i dużą moc - a często ta ostatnia znacznie przekracza potrzeby typowego układu SLI czy CrossFire. Przecież producent musi jakoś uzasadnić kupującym potrzebę zakupu bloku o szalenie dużej mocy, więc dlaczego by tego nie zrobić, naklejając tylko na nim etykietę „SLI Certified”?..

    Komponenty klasy przemysłowej

    Po raz kolejny piękna etykieta! Podzespoły klasy przemysłowej to z reguły części pracujące w szerokim zakresie temperatur - ale szczerze mówiąc, po co umieszczać w zasilaczu mikroukład, który może pracować w temperaturach od -45°C, skoro urządzenie i tak nie będzie narażone na działanie zimno? .

    Czasami komponenty przemysłowe oznaczają kondensatory przeznaczone do pracy w temperaturach do 105°C, ale tutaj w sumie wszystko też jest banalne: kondensatory w obwodach wyjściowych zasilacza, które same się nagrzewają, a nawet znajdują się obok gorących dławików , są zawsze projektowane na maksymalną temperaturę 105°C. W przeciwnym razie ich żywotność okaże się zbyt krótka (oczywiście temperatura w zasilaczu jest znacznie niższa niż 105°C, ale problem w tym, że każdy Wzrost temperatury skróci żywotność kondensatorów - ale im wyższa maksymalna dopuszczalna temperatura pracy kondensatora, tym mniejszy będzie wpływ nagrzewania na jego żywotność).

    Wejściowe kondensatory wysokonapięciowe pracują praktycznie w temperaturze otoczenia, zatem zastosowanie nieco tańszych kondensatorów 85-stopniowych nie wpływa w żaden sposób na żywotność zasilacza.

    Zaawansowana konstrukcja podwójnego przełączania do przodu

    Wabienie kupującego pięknymi, ale zupełnie niezrozumiałymi słowami to ulubione zajęcie działów marketingu.

    W tym przypadku mówimy o topologii zasilacza, czyli ogólnej zasadzie konstruowania jego obwodu. Istnieje dość duża liczba różnych topologii - dlatego oprócz faktycznego dwutranzystorowego jednocyklowego przetwornika do przodu, w jednostkach komputerowych można znaleźć również jednotranzystorowe jednocyklowe przetwornice do przodu, a także półmostkowe przetwornice typu push- konwertery typu pull forward. Wszystkie te terminy interesują tylko specjalistów w dziedzinie elektroniki, dla przeciętnego użytkownika w zasadzie nic nie znaczą.

    O wyborze konkretnej topologii zasilania decyduje wiele powodów - zakres i cena tranzystorów o niezbędnych charakterystykach (a różnią się one znacznie w zależności od topologii), transformatory, mikroukłady sterujące... Na przykład jednotranzystorowy forwarder wersja jest prosta i tania, ale wymaga zastosowania tranzystora wysokiego napięcia i diod wysokiego napięcia na wyjściu bloku, dlatego stosowana jest tylko w niedrogich blokach małej mocy (koszt diod wysokiego napięcia i wysokiej moc tranzystorów jest zbyt duża). Wersja półmostkowa push-pull jest nieco bardziej skomplikowana, ale napięcie na znajdujących się w niej tranzystorach jest o połowę mniejsze... Generalnie chodzi tu głównie o dostępność i koszt niezbędnych podzespołów. Na przykład możemy śmiało przewidzieć, że prędzej czy później w obwodach wtórnych zasilaczy komputerowych zaczną być stosowane prostowniki synchroniczne - nie ma w tej technologii nic szczególnie nowego, jest znana od dawna, jest po prostu zbyt droga i korzyści, jakie zapewnia, nie pokrywają kosztów.

    Konstrukcja z podwójnym transformatorem

    Zastosowanie dwóch transformatorów mocy, które spotyka się w zasilaczach dużej mocy (zwykle od kilowata) - jak w poprzednim akapicie, jest rozwiązaniem czysto inżynieryjnym, które samo w sobie w zasadzie nie wpływa na charakterystykę urządzenia w jakikolwiek zauważalny sposób - po prostu w niektórych przypadkach wygodniej jest rozdzielić znaczną moc nowoczesnych jednostek na dwa transformatory. Na przykład, jeśli nie można wcisnąć jednego transformatora pełnej mocy w wymiary wysokości urządzenia. Jednak niektórzy producenci przedstawiają topologię dwóch transformatorów, która pozwala im osiągnąć większą stabilność, niezawodność itp., Co nie jest do końca prawdą.

    RoHS (redukcja substancji niebezpiecznych)

    Nowa dyrektywa UE ograniczająca stosowanie szeregu substancji niebezpiecznych w sprzęcie elektronicznym od 1 lipca 2006 roku. Zakazano stosowania ołowiu, rtęci, kadmu, sześciowartościowego chromu i dwóch związków bromków – dla zasilaczy oznacza to przede wszystkim przejście na luty bezołowiowe. Z jednej strony oczywiście wszyscy jesteśmy za środowiskiem i przeciw metalom ciężkim - ale z drugiej strony nagłe przejście na stosowanie nowych materiałów może mieć w przyszłości bardzo nieprzyjemne konsekwencje. Dlatego wielu doskonale zna historię z dyskami twardymi Fujitsu MPG, w której masowa awaria kontrolerów Cirrus Logic była spowodowana pakowaniem ich w obudowy wykonane z nowego „ekologicznego” związku Sumitomo Bakelite: zawarte w nim komponenty przyczyniły się do migracji miedzi i srebra oraz powstania zworek pomiędzy ścieżkami wewnątrz korpusu chipa, co doprowadziło do niemal gwarantowanej awarii chipa po roku lub dwóch pracy. Związek został wycofany, uczestnicy tej historii wymienili kilka pozwów, a właściciele danych, które zginęły wraz z dyskami twardymi, mogli tylko obserwować, co się dzieje.

    Użyte wyposażenie

    Oczywiście priorytetem przy testowaniu zasilacza jest sprawdzenie jego działania przy różnych mocach obciążenia, aż do maksymalnej. Przez długi czas autorzy w różnych recenzjach używali do tego celu zwykłych komputerów, w których instalowano badaną jednostkę. Schemat ten miał dwie główne wady: po pierwsze, nie ma możliwości elastycznego kontrolowania mocy pobieranej z bloku, a po drugie, trudno jest odpowiednio doładować bloki, które mają dużą rezerwę mocy. Drugi problem stał się szczególnie wyraźny w ostatnich latach, kiedy producenci zasilaczy rozpoczęli prawdziwy wyścig o maksymalną moc, w efekcie czego możliwości ich produktów znacznie przekraczały potrzeby typowego komputera. Oczywiście można powiedzieć, że skoro komputer nie wymaga mocy większej niż 500 W, to nie ma sensu testować jednostek przy większych obciążeniach – z drugiej strony, skoro w zasadzie zaczęliśmy testować produkty o większej mocy znamionowej, byłoby dziwne, przynajmniej nie można formalnie przetestować ich działania w całym dopuszczalnym zakresie obciążeń.

    Do testowania zasilaczy w naszym laboratorium używamy regulowanego obciążenia sterowanego programowo. System opiera się na dobrze znanej właściwości tranzystorów polowych z izolowaną bramką (MOSFET): ograniczają one przepływ prądu przez obwód dren-źródło w zależności od napięcia bramki.

    Powyżej pokazano najprostszy obwód stabilizatora prądu na tranzystorze polowym: podłączając obwód do zasilacza o napięciu wyjściowym +V i kręcąc pokrętłem rezystora zmiennego R1, zmieniamy napięcie na bramce tranzystora VT1, zmieniając w ten sposób przepływający przez niego prąd I - od zera do maksimum (określonego na podstawie charakterystyki testowanego tranzystora i/lub testowanego zasilacza).

    Jednak taki schemat nie jest zbyt doskonały: gdy tranzystor się nagrzeje, jego charakterystyka „unosi się”, co oznacza, że ​​\u200b\u200bprąd również się zmieni, chociaż napięcie sterujące na bramce pozostanie stałe. Aby zaradzić temu problemowi, należy dodać do obwodu drugi rezystor R2 i wzmacniacz operacyjny DA1:

    Gdy tranzystor jest włączony, prąd I przepływa przez jego obwód dren-źródło i rezystor R2. Napięcie na tym ostatnim jest równe, zgodnie z prawem Ohma, U=R2*I. Z rezystora napięcie to jest podawane na wejście odwracające wzmacniacza operacyjnego DA1; wejście nieodwracające tego samego wzmacniacza operacyjnego otrzymuje napięcie sterujące U1 z rezystora zmiennego R1. Właściwości dowolnego wzmacniacza operacyjnego są takie, że po włączeniu w ten sposób stara się on utrzymać takie samo napięcie na swoich wejściach; robi to poprzez zmianę napięcia wyjściowego, które w naszym obwodzie trafia do bramki tranzystora polowego i odpowiednio reguluje przepływający przez niego prąd.

    Powiedzmy, że rezystancja R2 = 1 om i ustawiamy napięcie na rezystorze R1 na 1 V: wtedy wzmacniacz operacyjny zmieni napięcie wyjściowe tak, że rezystor R2 również spadnie o 1 wolt - odpowiednio prąd I zostanie ustawiony na 1 V / 1 Ohm = 1 A. Jeśli ustawimy R1 na napięcie 2 V, wzmacniacz operacyjny zareaguje ustawieniem prądu I = 2 A i tak dalej. Jeśli prąd I i odpowiednio napięcie na rezystorze R2 ulegną zmianie w wyniku nagrzania tranzystora, wzmacniacz operacyjny natychmiast dostosuje swoje napięcie wyjściowe, aby je przywrócić.

    Jak widać otrzymaliśmy doskonale kontrolowane obciążenie, które pozwala płynnie, kręcąc jednym pokrętłem, zmieniać prąd w zakresie od zera do maksimum, a raz ustawiona jego wartość automatycznie utrzymuje się tak długo, jak chcemy, a jednocześnie jest bardzo kompaktowy. Taki schemat jest oczywiście o rząd wielkości wygodniejszy niż nieporęczny zestaw rezystorów o niskiej rezystancji połączonych grupami z testowanym zasilaczem.

    O maksymalnej mocy wydzielanej przez tranzystor decyduje jego opór cieplny, maksymalna dopuszczalna temperatura kryształu oraz temperatura grzejnika, na którym jest on zainstalowany. W naszej instalacji zastosowano tranzystory International Rectifier IRFP264N (PDF, 168 kB) o dopuszczalnej temperaturze kryształu 175°C i oporze cieplnym kryształ-radiator 0,63°C/W, a system chłodzenia instalacji pozwala na utrzymanie temperatura radiatora pod tranzystorem w granicach 80°C (tak, potrzebne do tego wentylatory są dość głośne...). Zatem maksymalna moc wydzielana przez jeden tranzystor wynosi (175-80)/0,63 = 150 W. Aby uzyskać wymaganą moc, stosuje się równoległe połączenie kilku opisanych powyżej obciążeń, do których sygnał sterujący jest dostarczany z tego samego przetwornika DAC; Można także zastosować połączenie równoległe dwóch tranzystorów z jednym wzmacniaczem operacyjnym, w takim przypadku maksymalne rozpraszanie mocy wzrasta półtorakrotnie w porównaniu z jednym tranzystorem.

    Do w pełni zautomatyzowanego stanowiska probierczego pozostał już tylko jeden krok: wymienić rezystor zmienny na sterowany komputerowo przetwornik cyfrowo-analogowy - i będziemy mogli programowo regulować obciążenie. Podłączając kilka takich obciążeń do wielokanałowego przetwornika cyfrowo-analogowego i od razu instalując wielokanałowy przetwornik ADC, który w czasie rzeczywistym mierzy napięcia wyjściowe testowanej jednostki, otrzymamy pełnoprawny system testowy do testowania zasilaczy komputerowych przez cały okres zakres dopuszczalnych obciążeń i dowolne ich kombinacje:

    Zdjęcie powyżej przedstawia nasz system testowy w jego obecnej formie. Na dwóch górnych blokach grzejników, chłodzonych mocnymi wentylatorami o standardowych wymiarach 120 x 120 x 38 mm, znajdują się tranzystory obciążenia dla kanałów 12 V; skromniejszy radiator chłodzi tranzystory obciążenia kanałów +5 V i +3,3 V, a w szarym bloku, podłączonym kablem do portu LPT komputera sterującego, umieszczono wspomniany DAC, ADC i związaną z nim elektronikę . Dzięki wymiarom 290x270x200 mm umożliwia testowanie zasilaczy o mocy do 1350 W (do 1100 W na szynie +12 V i do 250 W na szynach +5 V i +3,3 V).


    Do sterowania stanowiskiem i automatyzacji niektórych testów napisano specjalny program, którego zrzut ekranu przedstawiono powyżej. To pozwala:

    ręcznie ustaw obciążenie na każdym z czterech dostępnych kanałów:

    pierwszy kanał +12 V, od 0 do 44 A;
    drugi kanał +12 V, od 0 do 48 A;
    kanał +5 V, od 0 do 35 A;
    kanał +3,3 V, od 0 do 25 A;

    monitorować w czasie rzeczywistym napięcie badanego zasilacza na określonych magistralach;
    automatycznie mierzy i wykreśla charakterystykę obciążenia krzyżowego (CLC) dla określonego zasilacza;
    automatycznie mierzy i sporządza wykresy sprawności i współczynnika mocy urządzenia w zależności od obciążenia;
    w trybie półautomatycznym zbuduj wykresy zależności prędkości wentylatorów centrali od obciążenia;
    skalibrować instalację w trybie półautomatycznym w celu uzyskania jak najdokładniejszych wyników.

    Szczególną wartość ma oczywiście automatyczna konstrukcja wykresów KNH: wymagają one pomiaru napięć wyjściowych urządzenia dla wszystkich dopuszczalnych dla niego kombinacji obciążeń, co oznacza bardzo dużą liczbę pomiarów – ręczne wykonanie takiego testu oznaczałoby wymagają sporej wytrwałości i nadmiaru wolnego czasu. Program na podstawie charakterystyki paszportowej wprowadzonego do niego bloku buduje dla niego mapę dopuszczalnych obciążeń, a następnie przechodzi przez nią w zadanych odstępach czasu, na każdym kroku mierząc napięcia generowane przez blok i nanosząc je na wykres ; cały proces trwa od 15 do 30 minut, w zależności od mocy urządzenia i etapu pomiaru – i co najważniejsze, nie wymaga interwencji człowieka.



    Pomiary sprawności i współczynnika mocy


    Do pomiaru sprawności urządzenia i jego współczynnika mocy wykorzystuje się dodatkowy sprzęt: badaną jednostkę podłącza się poprzez bocznik do sieci 220 V, a do bocznika podłącza się oscyloskop Velleman PCSU1000. Odpowiednio na jego ekranie widzimy oscylogram prądu pobieranego przez urządzenie, co oznacza, że ​​możemy obliczyć, jaką moc pobiera z sieci, a znając moc obciążenia, którą zainstalowaliśmy na urządzeniu, jego wydajność. Pomiary przeprowadzane są w trybie w pełni automatycznym: opisany powyżej program PSUCheck może pobrać wszystkie niezbędne dane bezpośrednio z oprogramowania oscyloskopu, które podłączone jest do komputera poprzez interfejs USB.

    Aby zapewnić maksymalną dokładność wyniku, moc wyjściową urządzenia mierzy się, biorąc pod uwagę wahania jego napięć: powiedzmy, jeśli pod obciążeniem 10 A napięcie wyjściowe szyny +12 V spadnie do 11,7 V, wówczas odpowiedni termin przy obliczaniu wydajności będzie równy 10 A * 11,7 V = 117 W.


    Oscyloskop Velleman PCSU1000


    Ten sam oscyloskop służy również do pomiaru zakresu tętnienia napięć wyjściowych zasilacza. Pomiarów dokonuje się na szynach +5 V, +12 V i +3,3 V przy maksymalnym dopuszczalnym obciążeniu urządzenia, oscyloskop podłącza się za pomocą obwodu różnicowego z dwoma kondensatorami bocznikowymi (jest to połączenie zalecane w Przewodnik projektowania zasilaczy ATX):



    Pomiar międzyszczytowy


    Zastosowany oscyloskop jest dwukanałowy, dlatego też amplitudę tętnienia można mierzyć tylko na jednej szynie w danym momencie. Aby uzyskać pełny obraz, powtarzamy pomiary trzykrotnie, a powstałe trzy oscylogramy – po jednym dla każdej z trzech monitorowanych autobusów – łączymy w jeden obraz:


    Ustawienia oscyloskopu pokazane są w lewym dolnym rogu obrazu: w tym przypadku skala pionowa wynosi 50 mV/dz, a skala pozioma wynosi 10 μs/dz. Z reguły skala pionowa jest niezmienna we wszystkich naszych pomiarach, natomiast skala pozioma może się zmieniać – niektóre bloki mają na wyjściu tętnienia o niskiej częstotliwości, dla czego przedstawiamy kolejny oscylogram, ze skalą poziomą 2 ms/dz.

    Prędkość wentylatorów centrali – w zależności od ich obciążenia – mierzona jest w trybie półautomatycznym: stosowany przez nas tachometr optyczny Velleman DTO2234 nie posiada interfejsu z komputerem, dlatego jego odczyty trzeba wprowadzać ręcznie. Podczas tego procesu moc obciążenia urządzenia zmienia się stopniowo od 50 W do maksymalnej dopuszczalnej, przy czym na każdym etapie urządzenie utrzymuje się przez co najmniej 20 minut, po czym mierzona jest prędkość obrotowa wentylatora.


    Jednocześnie mierzymy wzrost temperatury powietrza przechodzącego przez blok. Pomiary wykonujemy za pomocą dwukanałowego termometru termoparowego Fluke 54 II, którego jeden z czujników określa temperaturę powietrza w pomieszczeniu, a drugi temperaturę powietrza opuszczającego zasilacz. Dla większej powtarzalności wyników drugi czujnik mocujemy do specjalnego stojaka o stałej wysokości i odległości od urządzenia - dzięki temu we wszystkich testach czujnik znajduje się w tej samej pozycji względem zasilacza, co zapewnia wszystkim jednakowe warunki uczestnicy testów.

    Ostateczny wykres pokazuje jednocześnie prędkości wentylatorów i różnicę temperatur powietrza - pozwala to w niektórych przypadkach lepiej ocenić niuanse działania układu chłodzenia urządzenia.

    W razie potrzeby do kontroli dokładności pomiarów i kalibracji instalacji służy multimetr cyfrowy Uni-Trend UT70D. Kalibrację instalacji przeprowadza się poprzez dowolną liczbę punktów pomiarowych zlokalizowanych w dowolnych odcinkach dostępnego zakresu - innymi słowy do kalibracji napięcia podłącza się do niej regulowany zasilacz, którego napięcie wyjściowe zmienia się małymi krokami od 1.. .2 V do maksimum mierzonego przez instalację na danym kanale. Na każdym kroku do programu sterującego instalacją wprowadzana jest dokładna wartość napięcia wskazywana przez multimetr, na podstawie której program oblicza tabelę korekcyjną. Ta metoda kalibracji pozwala na uzyskanie dobrej dokładności pomiaru w całym dostępnym zakresie wartości.

    Lista zmian w metodologii testów


    30.10.2007 – pierwsza wersja artykułu