Komputerowe mity

Pecety zostały na dobre udomowione ponad 20 lat temu, a to więcej niż wystarczający okres, żeby wśród ich użytkowników pojawiły się rozmaite mity i legendy na ich temat. PC Format postanowił rozprawić się z tymi najciekawszymi i raz na zawsze udowodnić, co jest prawdą, a co tylko mitem.

Komputerowe mity

W redakcji PC Formatu wytypowaliśmy 14 najpopularniejszych mitów związanych z komputerami oraz jeden z telefonami komórkowymi i aparatami fotograficznymi. Przyjrzeliśmy się im bardzo dokładnie w naszym redakcyjnym laboratorium i sprawdziliśmy, czy treść tych mitów odpowiada prawdzie czy nie. Okazało się, że nie wszystkie mity to wyssane z palca bzdury. W dodatku kilka, co do których sami byliśmy przekonani, że są fałszywe, okazały się najprawdziwszą prawdą. Przeprowadzone testy dawały jednoznaczne wyniki. Najciekawsze okazały się mity z długą i siwą brodą. Okazały się bowiem, że są po prostu przeterminowane – technologia tak się zmieniła od czasu powstania mitu, że to, co kiedyś było prawdą, teraz już nią nie jest. Trzeba o tym pamiętać, bo niewykluczone, że niektóre z obalonych lub potwierdzonych przez nas mitów okażą się za dwa lata na odwrót – prawdą lub fałszem.

MIT 1. Intel jest lepszy do gier niż AMD? (PRAWDA)

Wśród wielu graczy panuje przekonanie, że procesory Intela są lepsze do gier niż AMD. Na pewno kosztują więcej, poza tym Intel nie ma takich opóźnień we wprowadzaniu nowych produktów na rynek, jak AMD. Czy Intel faktycznie jest lepszy, skoro się tak ceni?

Procesory 2011

Przeświadczenie o wyższości jednego rozwiązania nad innym zapewne nie powstaje natychmiast, lecz buduje się całymi latami. Dlatego w ogóle nie porównujemy produktów najnowszych, bo one nie mogą mieć jeszcze wpływu na wiedzę większości użytkowników.

Gdy cofniemy się w czasie o kilka miesięcy, znajdziemy łatwo rozpoznawalne procesory, np. AMD Phenom II X6 1100T BE (6 rdzeni) oraz Intel Core i5-2400 (4 rdzenie). Oba procesory kosztują około 700 zł, więc nawet mimo różnej liczby rdzeni ich porównanie wydaje się zasadne. Wykorzystaliśmy do tego cztery gry, a testy przeprowadziliśmy na karcie Radeon HD 4850, przy rozdzielczości 1024x768, która uwydatnia różnice między procesorami.

Nie ma wątpliwości, że w tym przypadku Intel wypada lepiej w grach niż procesor AMD. Przy wyższych rozdzielczościach różnice byłyby zapewne mniejsze, ale jednak… Jesteśmy skłonni stwierdzić, że Intel jest lepszy do gier, ale porównanie dwóch procesorów to za mało, by zyskać pewność.

Procesory 2010

Gdy cofniemy się o kolejny rok, do początku roku 2010, trafimy na procesory Intel Core pierwszej generacji, a także konkurujące z nimi układy AMD Athlon II. Porównamy dwa procesory, które są jeszcze w sprzedaży, a my dysponujemy wynikami ich testów. To Athlon II X4 645 oraz Core i3-550. Mają one różną liczbę rdzeni (odpowiednio 4 oraz 2), układ AMD jest o 50 zł droższy.

Porównanie nie daje jednoznacznego wyniku. W dwóch grach procesory wypadają podobnie, w dwóch Intel jest trochę lepszy.

Procesory 2009

Na początku 2009 roku firma AMD zaczęła wprowadzać procesory 3-rdzeniowe. Kosztowały one tyle, co dwurdzeniowe układy konkurencji, zatem oferowały jeden rdzeń gratis. Testowaliśmy wtedy m.in. układy AMD Phenom X3 8750 (najszybszy model z trzema rdzeniami), a także Intel Core 2 Duo E7300. Oba mają zbliżone częstotliwości pracy (odpowiednio 2,4 oraz 2,66 GHz), a najważniejsze jest to, że w momencie ich testowania kosztowały dokładnie tyle samo – około 500 zł. Również w przypadku ich porównania okazało się, że procesor Intela był szybszy w dwóch grach, natomiast w jednej minimalnie wolniejszy.

Statystycznie Intel jest lepszy

Nie udało nam się obalić twierdzenia, że Intel nadaje się do gier lepiej niż AMD. Zazwyczaj ma lepszą wydajność, choć w zbliżonych grupach cenowych różnice nie są wielkie. W wyjątkowych przypadkach zdarzają się testy, które co prawda tego nie potwierdzają, ale również nie zaprzeczają temu w ewidentny sposób.

MIT 2. Pamięć flash jest bezpieczna (FAŁSZ)

Obraz

Tradycyjne dyski twarde są zastępowane przez SSD, a jednym z powodów jest bezpieczeństwo danych. W praktyce z tym bezpieczeństwem bywa różnie. Podczas testów widzieliśmy „pad” dobrego dysku SSD, i źle wykonany inny model, który też „zmarł” w testach. Wielu z nas straciło dane w wyniku mechanicznego uszkodzenia pendrive’a. A może nasze przypadki są odosobnione? Sprawdźmy statystykę.

W sierpniu firma Kroll Ontrack opublikowała dane z badania, w którym wzięło udział 550 respondentów. 90 procent z nich stwierdziło, że pamięć flash (pendrive, SSD) jest bezpieczniejsza niż klasyczne dyski twarde. Jednocześnie ponad połowa respondentów przyznaje się, że straciła dane z tej pamięci. Całkowicie obala to mit związany z bezpieczeństwem flash.

Powstaje jednak pytanie, skąd biorą się tak duże problemy z pamięciami półprzewodnikowymi. Naszym zdaniem popularne pendrive’y są tak tanie, że mało który producent przykłada wagę do solidności ich wykonania. Z kolei dyski SSD we wczesnym stadium rozwoju mogły cechować się podwyższoną awaryjnością.

MIT 3. Zintegrowana grafika nie nadaje się do gier (FAŁSZ)

Obraz

Zintegrowane układy graficzne nie cieszą się uznaniem wśród graczy. Powód jest prosty – to słaba wydajność, zupełnie niewystarczająca do gier. Mit ten krąży od wielu lat, tymczasem zintegrowana grafika „przeniosła się” z chipsetów płyt głównych do wnętrza procesorów, zapewniając jednocześnie lepszą wydajność. Czy poprawiła się na tyle, że można już nie kupować kart graficznych?

Najnowsze osiągnięcia AMD

Pierwszym producentem, który zaproponował integrację CPU i GPU, był Intel. Jednak najwydajniejsze rozwiązania tego typu należą do AMD – z układami A4, A6 oraz A8 zintegrowano układy graficzne Radeon HD 6410D, 6530D i 6550D. Największe możliwości daje ten ostatni, który znalazł się w modelach A8–3800 oraz A8–3850. Sprawdziliśmy, czy da się na nim pograć.

Na pierwszym wykresie widać, że wszystkie gry działają całkiem dobrze. Układ Radeon HD 6550D jest zgodny z bibliotekami DirectX 11, dla gier „wygląda” zupełnie jak współczesna karta graficzna, choć może czasem braknąć mu wydajności. I faktycznie tak się dzieje. Jeśli założyć, że minimalna szybkość wyświetlania grafiki, potrzebna do komfortowego grania, to 30 klatek na sekundę, na procesorze AMD A8–3800 da się zagrać we wszystkie gry. W niektórych grach, np. Metro 2033 i Mafia 2 trzeba będzie obniżyć rozdzielczość do 1280x800 i zredukować wszystkie detale do minimum. Gry Far Cry 2 oraz Dirt 3 będą dobrze działać nawet przy rozdzielczości 1680x1050 i przeciętnych ustawieniach grafiki. Najmniej wymagająca spośród naszych gier okazała się gra Tom Clancy’s HAWX 2, która na Radeonie HD 6550D będzie działać dobrze nawet w rozdzielczości Full HD!

A co może grafika Intela?

Skoro grafika wbudowana w układy AMD wystarcza do wszystkich gier (choć niektóre działają dobrze tylko w niskich trybach), to może również grafika Intela będzie do tego odpowiednia? Sprawdziliśmy, jak to wygląda w przypadku procesora Core i3 2105 z grafiką HD Graphics 3000.

Wyniki testów wyraźnie pokazują, że na grafice Intela nie wszystkie gry będą działać poprawnie. Metro 2033 i Mafia 2 działają bardzo wolno – poniżej granicy 30 kl./s. Far Cry 2, Dirt 3 czy HAWX 2 działają lepiej, choć tylko w rozdzielczości 1280x800. Podobnie będą działać w rozdzielczości 1366x768, a takie właśnie ekrany ma większość laptopów. Ponadto część procesorów do komputerów stacjonarnych ma znacznie wolniejszy układ HD Graphics 2000 – już za słaby do takich zastosowań. Niemniej jednak na nowych laptopach i komputerach stacjonarnych bez dodatkowej grafiki da się pograć w wiele współczesnych gier.

Obraz

MIT 4. Podkręcanie może uszkodzić procesor (FAŁSZ)

Podkręcanie procesora jest dla jednych rodzajem sportu, inni z kolei nie widzą sensu podkręcania, albo wręcz boją się uszkodzić komputer. Panuje przekonanie, że overclocking może się przyczynić do spalenia procesora, bo wyższa częstotliwość powoduje wydzielanie dużej ilości ciepła, które po prostu niszczy procesor. Sprawdzamy, jak to jest w rzeczywistości.

Zestaw testowy

Do eksperymentu wybraliśmy układ AMD Phenom 9850 o współczynniku TDP 125 W, więc teoretycznie wysokim poborze energii. Zainstalowaliśmy go na płycie głównej Abit AX78, a do jego chłodzenia użyliśmy mało efektywnego, aluminiowego zestawu chłodzącego.

Podkręcanie

Do podkręcania użyliśmy dostępnego z poziomu BIOS-u narzędzia Abit SoftMenu. W phenomach (a także wielu innych procesorach) overclocking wiąże się ze zwiększaniem częstotliwości magistrali FSB, którą z powodzeniem można zwiększyć z 200 do 240 MHz (wzrost częstotliwości o 20 proc.).

Zazwyczaj przy podwyższeniu częstotliwości procesora trzeba zmniejszyć częstotliwość pamięci RAM, by pracowała stabilnie. Po zapisaniu zmian BIOS-u uruchamiamy Windows, a w nim dwie instancje programu Orthos (każdy z nich obciąża dwa rdzenie) oraz programy do monitorowania obciążenia i temperatury.

Kilkanaście sekund wytężonej pracy procesora wystarcza, by przy częstotliwości 3,6 GHz (zamiast 3 GHz) odmówił posłuszeństwa.

Jakiekolwiek zmiany obciążenia czy częstotliwości powodują zawsze taki sam efekt. Niestety, nie widać żadnego dymu. Po ponownym uruchomieniu procesor i wszystkie komponenty działają poprawnie. Ponadto podczas eksperymentów okazało się, że nawet procesor bez układu chłodzącego nie ulega uszkodzeniu, uruchamia się na 1–2 sekundy, po czym osiąga temperaturę około 80 stopni i nic więcej się nie dzieje. Jednak po powtórnym założeniu wentylatora wszystko działa jak należy. Zatem spalenie procesora przez zwiększanie jego pracy jest niemożliwe – wewnętrzne zabezpieczenia nie dopuszczą do jego uszkodzenia. A najlepszym potwierdzeniem tej teorii jest to, że w ciągu ostatnich kilku lat w naszym laboratorium nie udało się spalić żadnego procesora.

Czy to oznacza, że procesor nie może się spalić? Owszem, awarie takie się zdarzają, ale wynikają ze słabego zasilacza, przepięcia w sieci, usterki sekcji zasilającej płyty głównej albo zbyt wysokiego napięcia zasilania ustawionego w BIOS-ie. Zabezpieczenia nowoczesnych procesorów są tak dobre, że znacznie szybciej uszkodzimy pamięć RAM czy płytę główną niż CPU.

Obraz

1. Podkręcanie procesora zwykle odbywa się poprzez zmianę częstotliwości magistrali, którą zwiększyliśmy z 200 do 240 MHz. Podnieśliśmy także napięcie w bezpiecznych granicach o 0,1 V.
2. Obciążając 4 rdzenie procesora czterema wątkami programu Orthos, sprawdzaliśmy stabilność działania systemu, a także temperaturę procesora.
3. Obserwowaliśmy zachowanie się procesora, a testy przeprowadzaliśmy nawet bez zestawu chłodzącego. Nic nie uległo uszkodzeniu.

MIT 5. Trzy anteny są Lepsze niż jedna (PRAWDA)

Współczesne routery potrafią przesyłać dane z szybkością większą niż sieci fast ethernet. Najszybsze, jakie mieliśmy w testach, to Pentagram Cerberus P 6341, DrayTek VigorFly 200 czy Intellinet 524681 – szybkość wysyłania i odbierania danych przez Wi-Fi wynosi 11,2–11,3 MB/s. Jednak tylko ten pierwszy router ma trzy anteny – pozostałe mają tylko dwie, a są równie dobre. A może wystarczyłaby jedna?

Zestaw testowy

Do testów wykorzystujemy najszybszy router z trzema antenami: Pentagram Cerberus P 6341. Anteny są odkręcane, co pozwoli nam sprawdzić, jak da sobie radę po usunięciu niektórych z nich. Czy będzie wtedy równie dobry?

W pierwszej kolejności sprawdzimy przepustowość Wi-Fi. Można to robić różnymi narzędziami – my wykorzystujemy darmowy program Iperf z graficzną nakładką Jperf. Program można pobrać spod adresu http://code.google.com/p/xjperf, do działania wymaga środowiska Java.

Jperf działa tak, jak większość programów do mierzenia przepustowości – mierzone urządzenie podłącza się między dwa komputery, które pełnią rolę klienta (wysyłającego dane) i serwera (obierającego dane). Program mierzy, ile danych można przesłać w określonym przedziale czasu, na bieżąco rysuje wykres przepustowości.

Oprócz szybkości przesyłania danych postanowiliśmy zmierzyć także siłę sygnału w różnych punktach laboratorium. Wykorzystamy do tego smartfon z odpowiednią aplikacją.

Testy przepustowości

Program Jperf uruchomiliśmy na pół minuty, rejestrując co sekundę szybkość przesyłania danych. Następnie test powtórzyliśmy z dwiema antenami, a na końcu z jedną anteną. Ku naszemu zdumieniu okazało się, że liczba anten w ogóle nie wpływa na szybkość przesyłu danych. Jednak po bliższym przyjrzeniu się wynikom okazało się, że były wielokrotnie zaniżone, a źródłem problemu okazały się niepoprawne zabezpieczenia – zamiast WPA2 (szyfrowanie AES), karta sieciowa i router połączyły się, wykorzystując jedynie WPA.

Test powtórzyliśmy, wymuszając w ustawieniach routera i karty sieciowej szyfrowanie AES. Wyniki okazały się 4-krotnie lepsze – widać je na pierwszym wykresie z aplikacji Jperf. Większa liczba anten pozwolia na osiągnięcie wyższej przepustowości niż dwie anteny, a tym bardziej jedna.

Testy zasięgu

Za pomocą smartfonu z programem WiGLE WiFi Wardriving sprawdziliśmy również siłę sygnału Wi-Fi w różnych punktach pomieszczenia. Odległości 0 i 3 metrów od routera dotyczą tego samego pomieszczenia, pozostałe punkty były już za drewnianymi drzwiami.

Dwie anteny radzą sobie z zasięgiem niemal tak samo dobrze, jak trzy. Jedna to zdecydowanie za mało. I zapewne dlatego część routerów standardu 802.11n ma dwie anteny, natomiast jedną antenę mają tylko routery 802.11n Lite, o przepustowości 150 Mb/s.

Obraz

MIT 6. Otwarcie obudowy poprawia chłodzenie (PRAWDA)

Warunkiem skutecznego chłodzenia podzespołów komputera jest poprawna cyrkulacja powietrza w obudowie. Panuje jednak przekonanie, że lepsze efekty daje po prostu otwarcie obudowy komputera, bo dzięki temu ciepłe powietrze łatwiej wydostaje się na zewnątrz. Sprawdzimy zatem, czy to prawda.

Konfiguracje testowe

Z obszernej bazy sprzętowej naszego laboratorium testowego wylosowaliśmy cztery komputery o różnej konfiguracji i wydajności. Oto ich podstawowe komponenty najbardziej wpływające na temperaturę we wnętrzu obudowy:

  • komputer 1: procesor AMD Phenom 9850 (4 rdzenie), grafika Radeon HD 4850,
  • komputer 2: procesor AMD Phenom II 940, grafika Radeon HD 4850,
  • komputer 3: procesor Intel Core 2 Duo 6600 (2 rdzenie), grafika GeForce GT 9600,
  • komputer 4: procesor Intel Core i5 650, grafika zintegrowana z CPU.

Ponieważ dwie pierwsze konfiguracje osiągają wyższe temperatury, obieg powietrza w ich obudowach był wymuszony za pomocą dodatkowego wentylatora z tyłu obudowy. Do pomiarów temperatury wybraliśmy program HWiNFO, By uprościć analizy, postanowiliśmy brać pod uwagę tylko temperaturę procesora. Będziemy ją rejestrować przez 2 minuty, po czym zdejmiemy boczną ściankę obudowy i przez dwie kolejne minuty będziemy sprawdzać, co się zmieniło.

Testy w spoczynku

Cztery komputery testowe zostały uruchomione, a kiedy temperatura procesora się ustabilizowała, rozpoczynaliśmy pomiar: przez dwie minuty z zamknięta obudową, przez kolejne dwie – z otwartą. Na wykresie wydać zapis temperatury w czasie. Fakt spadku temperatury po otwarciu obudowy jest nie do podważenia!

Testy w obciążeniu

Wydaje się, że jeszcze lepsze efekty da otwarcie obudowy przy mocno obciążonym komputerze, bo różnica temperatur między jego wnętrzem a otoczeniem jest wtedy jeszcze większa. Procesory obciążyliśmy programem Orthos, a grafikę – benchmarkiem Heaven 2.5. Temperatura przy pełnym obciążeniu była o około 28 stopni wyższa niż w stanie spoczynku. Po otwarciu obudowy znacznie spada, ale niemal o tyle samo, co w stanie spoczynku. Różnica między najwyższą a najniższą wartością wynosi 7 stopni. Dodatkowe pomiary utwierdziły nas w przekonaniu, ze otwarcie obudowy peceta zapewnia podzespołom lepsze warunki do pracy.

Obraz

MIT 7. Magnes kasuje dane z dysku (FAŁSZ)

Obraz

Dyski twarde są nośnikami magnetycznymi, co oznacza, że do zapisu i kasowania danych służy pole magnetyczne, które jest wytwarzane przez ich głowicę. Rodzi to obawę, że inne pole, wytwarzane np. przez magnesy dużego głośnika, może usunąć lub uszkodzić dane na dysku. Stąd wziął się mit, że dysków twardych nie można kłaść na głośnikach, telewizorach kineskopowych i innych urządzeniach, które wytwarzają silne pole magnetyczne lub elektromagnetyczne. Silnym wsparciem dla takiego mitu jest to, że do bezpowrotnego kasowania danych np. w zastosowaniach militarnych też jest używane pole magnetyczne. Zatem czy łatwo o utratę danych?

Głośnik i magnes neodymowy

By sprawdzić nasz mit, dysk twardy położyliśmy na subwooferze wyposażonym w dwa duże głośniki. Po tygodniu zawartość dysku pozostała niezmieniona, również dysk pracował bez najmniejszych problemów.

W drugim podejściu wykorzystaliśmy dwa magnesy neodymowe, których pole magnetyczne jest tak mocne, że ich ręczne rozdzielenie jest prawie niemożliwe. Położenie magnesów na dysku na kolejny tydzień również nie przyniosło rozstrzygających rezultatów. Mit został obalony. Ale dlaczego?

Dlaczego magnes nie kasuje danych?

Zmierzyliśmy wartość indukcji pola magnetycznego magnesu neodymowego – w niewielkiej odległości wynosi ono około 100 mikrotesli. Tymczasem dane na talerzu dysku twardego wymagają pola… około 0,5 tesli. Jak to możliwe, że mała głowica dysku wytwarza aż takie pole? Otóż działa na bardzo mały obszar, a przy tym praktycznie dotyka powierzchni talerza. Do zniszczenia danych potrzebne byłoby gigantyczne pole o indukcji 10 tys. razy większej niż wytwarza magnes neodymowy – wytwarzają je tzw. degaussery służące do szybkiego kasowania danych.

MIT 8. Nieoryginalny tusz może uszkodzić drukarkę (PRAWDA)

Obraz

Głowica drukarki jest mechanizmem wyjątkowo precyzyjnym. Pobiera z zasobników minimalne ilości tuszu, po czym w odpowiednich momentach wyrzuca je na papier poprzez ich podgrzanie (technologia termiczna) lub zwiększenie ich ciśnienia (technologia piezo). Rozmiary kropli atramentu to nawet 1 pikolitr – to jedna miliardowa część mililitra! I tu można dopatrywać się zagrożenia – czy producent zamienników może wyprodukować taki tusz, który na przykład będzie zbyt gęsty lub zbyt rzadki i spowoduje zatkanie lub niekontrolowany wyciek tuszu?

Jakość zamienników

Od wielu lat podczas testów spotykamy się z różnymi materiałami eksploatacyjnymi, szczególnie do drukarek atramentowych – zdarzają się faktycznie bardzo różne. Wiele problemów dotyczy samych zbiorniczków, które nie zapewniają odpowiedniej szczelności, przez co tusz wylewa się z nich podczas pracy, albo nawet jeszcze, zanim zostaną zamontowane w drukarce. Teoretycznie może to spowodować zalanie drukarki, choć mało prawdopodobne, by wyciek był aż tak obfity.

Przyczyną problemów może być również sam tusz – zdarza się tak zanieczyszczony, że jest w stanie zatkać dysze głowicy. Na wydrukach, w miejscu przejścia zatkanych dysz pojawią się jaśniejsze pasy, bo będzie tam występował niedobór lub brak tuszu.

Czy drukarkę z zatkanymi dyszami można uznać za uszkodzoną? To zależy od jej konstrukcji, można tu rozróżnić trzy przypadki:

  • gdy głowica jest wyjmowana razem z kartridżem (np. w przypadku Lexmarka czy starszych modeli HP), łatwo ją wyjąć, wyczyścić, a w razie porażki po prostu wyrzucić i zastąpić nową,
  • gdy głowica jest oddzielona od kartridżów, ale mimo to da się ją łatwo zdemontować, podnosząc jedną dźwignię (np. w drukarkach Canona), również nie można mówić o uszkodzeniu drukarki, nowe głowice są drogie, ale zawsze istnieje możliwość wymiany,
  • gdy głowica znajduje się na stałe w drukarce (Epson) i nie ma możliwości jej dokupienia lub wymiany; zatem zatkanie głowicy przez słabej jakości tusz jest równoważny z awarią drukarki.

Zatem uszkodzenie drukarki przez nieoryginalny tusz jest możliwe. Ale jest to prawda tylko częściowo, bowiem w większości drukarek takie uszkodzenie można łatwo naprawić we własnym zakresie.

Jak sobie radzić

Udrożnienie głowicy jest możliwe za pomocą ciepłej wody lub spirytusu, ale lepszym rozwiązaniem są środki marki OCP służące do płukania głowic, włącznie z rozpuszczaniem resztek zaschniętego atramentu. Na zdjęciach prezentujemy trzy sposoby udrożenienia dysz, ale nie dotyczy to głowic wbudowanych na stałe w drukarkę.

MIT9. Nienadpisane dane skasowane z dysku da się odzyskać (PRAWDA)

Co się dzieje, gdy usuniesz plik z pominięciem Kosza? System wykona dwie operacje: usunie znacznik widoczności pliku w systemie plików oraz ustawi obszar zajmowany przez dany plik jako „wolny do zapisu”. Dopóki w owym obszarze „zwolnionym” przez „usunięty” plik nic nie zostanie zapisane, to wciąż możesz odzyskać 100 proc. „skasowanej” informacji. Chcąc odzyskać dane, musisz użyć odpowiedniego oprogramowania. Masz do dyspozycji bogaty zestaw narzędzi zarówno płatnych, jak i darmowych.

Przygotowania

Spróbowaliśmy odzyskać świeżo skasowany plik za pomocą Pandora Recovery (program jest rozpowszechniany bezpłatnie, najnowszą wersję można pobrać ze strony www.pandorarecovery.com/). Najpierw przygotowaliśmy 100-stronicowy dokument Worda, który zapisaliśmy w binarnym formacie tego edytora (zgodnym z wersjami Word 97–2003; plik z rozszerzeniem .doc) na dysku systemowym komputera testowego pod nazwą ważnyplik.doc. Następnie skasowaliśmy ten plik, wykorzystując do tego celu standardową funkcję systemu – klawisz [Delete]. Aby pominąć użycie Kosza systemowego, wcisnęliśmy klawisz [Delete], przytrzymując jednocześnie klawisz [Shift].

Odzyskujemy dane

Procedura odzyskiwania przebiegała następująco:

Krok 1

Po usunięciu pliku nie wykonywaliśmy żadnych innych działań na komputerze, na którym doszło do „przypadkowego” skasowania „ważnego pliku”. Jest to bardzo ważne, gdyż nawet zamknięcie działającego programu może spowodować np. zapis danych tymczasowych, a tym samym ryzyko, że „wolne miejsce” zajmowane przez usunięty plik zostanie nadpisane.

Krok 2

Na innym komputerze pobraliśmy na flashdysk program Pandora Recovery. Bardzo ważne jest, by programu nie pobierać na komputer, z którego usunięto dane. Ponieważ pobrany plik jest instalatorem, należy program zainstalować i ponownie operację tę najlepiej przeprowadzić na innym komputerze niż ten, z którego utracono dane.

Krok 3

Ponieważ instalator programu Pandora Recovery próbuje oprócz aplikacji głównej zainstalować niepotrzebne dodatki (pasek Ask Toolbar), musieliśmy jeszcze odznaczyć pola wyboru instalujące zbędne nakładki:

Obraz

Krok 4

Flashdysk z zainstalowanym programem Pandora Recovery podłączyliśmy do komputera, z którego został usunięty plik, i uruchomiliśmy aplikację do odzyskiwania danych. Program jest prosty w obsłudze i oferuje wbudowany kreator odzyskiwania, który krok po kroku prowadzi przez procedurę odzyskania utraconych danych.

Krok 5

Program odnalazł usunięty plik we wskazanym przez nas folderze. Po wybraniu z menu kontekstowego polecenia Recover to i wskazaniu w kolejnym oknie dialogowym docelowego miejsca zapisu uruchomiliśmy proces odzyskiwania.

Obraz

Krok 6

Wynik zgodny z oczekiwaniami – utracony plik został w pełni odzyskany.

MIT 10. Wirus może uszkodzić podzespoły komputera (FAŁSZ)

Na wielu forach internetowych można znaleźć informacje o rzekomych uszkodzeniach komputerów przez szczególnie złośliwe wirusy. Jak wygląda prawda?

Złośliwy kod to program

Wirus jest programem komputerowym i nie może uszkodzić żadnego komponentu sprzętowego komputera, choć oczywiście jest zdolny do uszkodzenia danych (np. zniszczenia plików na dysku twardym). Na przykład fakt usunięcia danych z dysku twardego przez złośliwy kod jest przez wielu użytkowników interpretowany jako uszkodzenie dysku. Kiedyś dość duże spustoszenie w portfelach użytkowników spowodował wirus CIH (inne nazwy to Win95.CIH lub Chernobyl), który potrafił nadpisać i tym samym zniszczyć zawartość pamięci Flash BIOS-u, co skutecznie uniemożliwiało korzystanie z komputera do czasu zainstalowania nowego BIOS-u. Niestety, niektórzy producenci płyt głównych zamiast mocować układ pamięci Flash BIOS-u w podstawce (co pozwala na łatwą wymianę układu Flash BIOS), wlutowywali go na stałe, co w wyniku ataku wirusa zmuszało użytkownika do wymiany płyty głównej. W tym kontekście można zatem stwierdzić, że wirus uszkodził sprzęt, choć faktycznie „tylko” zamazał dane w układzie pamięci BIOS-u. Wirus CIH jest już skutecznie likwidowany przez wszystkie aktualnie dostępne rozwiązania zabezpieczające.

Idzie nowe

Niestety 18 października 2011 roku firma Kaspersky Lab poinformowała o wykrytym przez analityków zagrożeń złośliwym kodzie mającym możliwości rootkita zdolnego do przeprowadzenia infekcji BIOS-u. Pełny kod tego szkodnika nie jest jeszcze ukończony, niemniej okazało się, że potrafi on zainfekować BIOS wyprodukowany przez firmę Award. Warto tutaj podkreślić istotną różnicę między zamazywaniem BIOS-u (co robił CIH/Chernobyl), a wstrzyknięciem złośliwego, wykonywalnego kodu do pamięci BIOS-u. W tym drugim wypadku agresor może zyskać kontrolę nad danym komputerem, zanim jeszcze zostanie uruchomiony jakikolwiek system operacyjny. Jednak w dalszym ciągu trudno mówić o rzeczywistym uszkodzeniu sprzętu. Użytkownicy korzystający z aktualnych rozwiązań zabezpieczających powinni być na tego typu infekcje przygotowani.

Między bajki można natomiast włożyć opowieści o tym, że wirus uszkodził np. monitor, klawiaturę, procesor czy inny sprzętowy i niezawierający edytowalnej pamięci (którą można ewentualnie podmienić lub zamazać) komponent komputera.

MIT 11. Telefon robi gorsze zdjęcia niż aparat (FAŁSZ)

Obecnie każda komórka ma funkcję fotografowania. Panuje jednak opinia, że zdjęcia z komórek są słabej jakości. Wątpliwości można łatwo rozwiać, porównując wyniki z przetestowanych przez nas aparatów i telefonów.

Do porównania wybraliśmy niezbyt drogi (nieco ponad 1000 zł) smartfon Sony Ericsson Xperia X10 z systemem Android. Model ten ma aparat 8 Mpix, wypadł w naszych testach bardzo dobrze. Poza tym, jeśli chodzi o jakość zdjęć, Sony Ericsson ogólnie cieszy się dobrą opinią.

Z telefonem zestawiliśmy kilka aparatów, których test został opublikowany w PC Formacie 5/2011. To modele z matrycami 12–14 mpix, po 500–1000 zł, a więc całkiem przyzwoite.

Rozdzielczość telefonu faktycznie jest nie najlepsza – 8 Mpix nie może konkurować z aparatami 12–14 Mpix. Jednak w przypadku odwzorowania barw tylko trzy spośród ośmiu aparatów miały lepszy wynik (zaznaczony na zielono), a jeśli chodzi o poziom szumów przy małej czułości ISO, tylko jeden aparat był lepszy od smartfonu. Pod względem jakości zdjęć telefony nie są jednoznacznie gorsze od aparatów kompaktowych – mit ten z łatwością można obalić. Jeśli chodzi o podstawowe parametry obrazu, ustępują głównie rozdzielczością.

Obraz

MIT 12. Komputer w trybie uśpienia pobiera tyle samo energii co wyłączony (PRAWDA)

Obraz

Jeśli z komputera korzystamy krótko, ale za to często, dużo czasu marnujemy na obserwowanie, jak się włącza. Aby skrócić ten czas, wielu użytkowników nie wyłącza więc wcale komputerów, argumentując to tym, że w trybie uśpienia, do którego komputer przełącza się po pewnym czasie bezczynności, i tak zużywane jest tyle samo prądu co po wyłączeniu. Sprawdziliśmy to w praktyce.

Jak sprawdzić pobór prądu

Aby sprawdzić, ile energii zużywa komputer, posłużyliśmy się watomierzem podłączonym do przerobionego kabla zasilającego. Włączaliśmy go w obwód między badany komputer a gniazdko zasilające, tak że cały prąd płynął przez miernik. Wykorzystywany watomierz charakteryzuje się sporą bezwładnością pomiaru, co pozwala wygodnie uśrednić wynik pomiaru w wypadku urządzeń z zasilaczem impulsowym – jak właśnie pecet.

Pomiar zużycia energii przeprowadziliśmy na kilkunastu różnych komputerach znajdujących się redakcji oraz w posiadaniu redaktorów. W praktyce nie jest istotne, z czego jest zbudowany dany pecet, lecz jak mocny i nowoczesny ma zasilacz. W tabelce poniżej prezentujemy zestawienie najciekawszych wyników. Pomiary wykonywane były po włączeniu komputera i zalogowaniu użytkownika, po maksymalnym obciążeniu procesora programem Prime 95, po wyłączeniu komputera oraz w trybie uśpienia. Komputer usypiano standardowym poleceniem z menu Zamknij.

Nie trzeba wyłączać komputera

Wyniki pomiarów są jednoznaczne. Jeszcze kilka lat temu faktycznie warto było wyłączać komputery, bo choć uśpione zasilacze pobierały o połowę mniej energii niż normalnie, to nadal było to dużo – nawet 70 W. Jednak nowoczesne komputery (nie starsze niż 4 lata i wyposażone w przyzwoite zasilacze) faktycznie można pozostawić w trybie uśpienia, zamiast je wyłączać.

Różnica maks. 2 W między stanem wyłączenia a uśpienia, jaką zaobserwowaliśmy w wypadku niektórych konfiguracji, przekłada się na mniej więcej 10 zł rocznie. Jeśli to dla nas dużo, warto pokusić się o wyciąganie wtyczki z kontaktu po wyłączeniu komputera. Wówczas zaoszczędzimy na samym tylko komputerze ok. 15 zł rocznie.

Obraz

MIT 13. Windows nie potrzebuje antywirusa (FAŁSZ)

W naszym laboratorium podłączyliśmy bezpośrednio do internetu jeden komputer z nowo zainstalowanym systemem operacyjnym. Testy trwały miesiąc. Przez pierwsze dwa tygodnie komputer działał pod kontrolą zaktualizowanego w pełni systemu Windows XP Home Edition SP3, a przez kolejne dwa tygodnie na maszynie testowej działał Windows 7 Home Premium SP1 (oba systemy w wersji polskojęzycznej). W trakcie każdego cyklu staraliśmy się zwyczajnie korzystać z tych komputerów, podłączaliśmy do nich różnego typu pamięci USB, odwiedzaliśmy strony WWW, pobieraliśmy oprogramowanie, filmy, muzykę itp. Po dwutygodniowym cyklu uruchamialiśmy na danym komputerze skaner online.

Co znaleźliśmy

Zarówno w systemie Windows XP, jak i w Windows 7 znaleźliśmy złośliwy kod – i to niejeden. Był to m.in. komponent reklamowy znany pod nazwą AdWare.Win32.Eorezo.heur oraz złośliwy program wykradający hasła do gier online. Część zagrożeń pochodziła z zainfekowanego flashdysku, część ze spakowanego pliku ZIP pobranego z internetu. Wykryte zagrożenia są skutecznie likwidowane praktycznie przez każdy współczesny program antywirusowy.

MIT 14. Antywirus spowalnia komputer (PRAWDA)

Antywirus to program. Każdy program wymaga do działania określonych zasobów: pamięci czy mocy procesora. Ponieważ program antywirusowy z racji swojej specyfiki musi być stale załadowany (i działający), zmniejsza ograniczoną pulę zasobów dla innych programów i wydłuża np. czas uruchamiania systemu o czas potrzebny na załadowanie własnego kodu. Jednak obecnie praktycznie wszyscy producenci bardzo dbają o to, by obciążenie komputera pracą programu zabezpieczającego było jak najmniejsze. W przypadku olbrzymiej większości współczesnych programów antywirusowych jest ono znacznie mniejsze od np. zwykłej przeglądarki internetowej.

Aby sprawdzić, czy faktycznie programy antywirusowe spowalniają komputer, sięgnęliśmy do wiarygodnego źródła – najnowszego raportu „2012 Consumer Security Products Performance Benchmark (Edition 1)” zawierającego wyniki testów wydajności produktów zabezpieczających, które przeprowadzili specjaliści z niezależnego laboratorium PassMark Software. Na wykresie widoczne są wyniki jednego z testów pokazujące różny czas startu systemu z zainstalowanym danym produktem zabezpieczającym. Choć rezultaty są różne w zależności od programu, w żadnym wypadku nie można mówić o całkowitym braku wpływu danej aplikacji na wydajność systemu.

Obraz

MIT 15. Czyszczenie rejestru przyspiesza Windows (FAŁSZ)

Obraz

Rejestr Windows jest rozbudowaną bazą danych, zawierającą praktycznie wszystkie ustawienia systemu i zainstalowanych aplikacji. Ustawienia te przechowywane są w tzw. kluczach i reprezentowane przez tzw. wartości. Pobieżne przejrzenie zawartości rejestru np. za pomocą wbudowanego w Windows Edytora Rejestru może wywołać wrażenie, że jest to olbrzymi twór z setkami tysięcy ustawień.

Na redakcyjnej maszynie, na której rejestr nie był porządkowany od momentu pierwszej instalacji Windows 7, rozmiar wyeksportowanych danych wynosił 300 MB.

Programy czyszczące rejestr potrafią niekiedy odnaleźć jakiś przypadkowy błędny wpis czy nieprawidłowy klucz, jednak wyczyszczenie tego typu informacji to… sztuka dla sztuki w kontekście zwiększania wydajności. Czyszczenie rejestru nie daje we współczesnych systemach Windows żadnego zysku wydajności w pracy systemu operacyjnego. Co więcej: regularne czyszczenie rejestru jest wyłącznie stratą czasu.

Dokonaliśmy pomiaru wydajności komputera pracującego pod kontrolą Windows 7 Ultimate. Najpierw dokonaliśmy kilku pomiarów przed wyczyszczeniem rejestru, a następnie użyliśmy jednego z najpopularniejszych programów do czyszczenia rejestru (RegCleaner 4.3; program jest udostępniany bezpłatnie www.macecraft.com). Po oczyszczeniu rejestru nie zaobserwowaliśmy istotnej statystycznie różnicy w wydajności.

Wybrane dla Ciebie