Od Herculesa do Titana
Karta graficzna, najważniejszy oprócz procesora element współczesnego peceta, ma już niemal czterdzieści lat. Oczywiście nie jest to ciągle ta sama karta. Na przestrzeni czterech dekad uległa wielu zmianom. Oto historia jej ewolucji.
Zadaniem karty graficznej w pierwszym komputerze osobistym, czyli IBM 5100, który pojawił się na rynku w 1975 roku, było wyłącznie wyświetlanie liter na ekranie monitora – po 64 znaki w każdym z 16 wierszy. Nie musiała więc być bardzo wydajna, a 16 KB pamięci operacyjnej w zupełności jej wystarczało. Pierwsza klasyczna, z naszego punktu widzenia, karta pojawiła się w komputerze IBM 5150, który trafił na rynek w roku 1981. Był on wyposażony w otwartą architekturę, która umożliwiała instalowanie kart graficznych w standardzie ISA. Pierwszy producent pecetów – IBM – zdecydował się na implementowanie w swoich komputerach układów graficznych MDA/CDA (Monochrome/Color Display Adapter). MDA mógł wyświetlać tylko dwukolorowy obraz i zaledwie 80 znaków w 16 wierszach. Dodatkowymi funkcjami karty były tylko: zmiana jasności tekstu oraz jego podkreślanie. Dane na temat wyświetlanego obrazu były zapisywane w 4 KB pamięci.
Color Display Adapter był podzespołem na swój sposób rewolucyjnym, gdyż pozwalał na pracę nie tylko w trybie tekstowym, ale również graficznym. W tym drugim miał możliwość wyświetlania obrazu w rozdzielczości: 640 x 400 punktów i dwóch kolorach oraz 320 x 200 punktów i czterech kolorach. Miał 16 KB pamięci.
Kolejną innowacją był wprowadzony na rynek w 1982 roku Hercules Graphics Computer. Karta umożliwiała pracę w rozdzielczości 720 x 348 pikseli w dwóch kolorach. W trybie tekstowym miała takie same możliwości jak MDA. Dwa lata później ukazał się EGA – Enhanced Graphics Adapter – zapewniający 16-kolorowy obraz o rozdzielczości 640 x 350 lub 320 x 200. Ilość pamięci zwiększono do 64 KB z opcją rozbudowy do 256 KB.
Standard VGA
W kwietniu 1987 roku pojawiła się karta Video Graphics Array, dzisiaj znana jako VGA. Karta ta pozwalała na pracę w rozdzielczości 320 x 200 punktów przy 256 kolorach z 18-bitowej palety barw. Możliwa była też praca w rozdzielczości 640 x 480 pikseli w 16 kolorach. Najważniejsze było jednak to, że karta była zgodna z poprzednimi standardami MDA, CGA oraz EGA (z Herculesem już nie) i miała aż 256 KB pamięci.
Do standardu VGA dostosowywało się wielu producentów kart, którzy zobaczyli, że możliwe jest tworzenie lepszych produktów. Niektórzy szybko zaczęli produkować modele obsługujące wyższe rozdzielczości, dochodzące nawet do 1600 x 1200 pikseli. Karty te nazwano Super VGA.
Tworzenie niestandardowych rozwiązań prowadziło jednak do braku zgodności między produktami różnych firm. Dlatego powołano do życia organizację VESA (Video Electronics Standards Association). Miała ona sprawić, że wszystkie karty graficzne dostępne na rynku będą ze sobą zgodne. Skrót VGA używany jest do dzisiaj, ale ma już inne rozwinięcie – Video Graphic Adapter.
Początki akceleracji
Pod koniec lat 80. ubiegłego wieku rynek gier komputerowych już się prężnie rozwijał, podobnie jak programy typu CAD. Ponieważ były to aplikacje wykorzystujące grafikę dwuwymiarową, zaczęły pojawiać się karty coraz lepiej radzące sobie z takimi zadaniami. S3 w połowie 1990 r. zaprezentowało pierwszy taki akcelerator, S3 911, wyposażony w 1 MB pamięci RAM i obsługę 16-bitowego koloru (co dało możliwość wyświetlenia 65 536 odcieni barw). Bardzo szybko doczekał się następców zapewniających kolor 32-bitowy (16 milionów odcieni barw), co jest standardem do dzisiaj. Inne kultowe karty grafiki z tamtych czasów pochodziły od firm: Cirrus Logic i Tseng Labs (ET 6200).
Epokę 3D otworzyła w 1996 roku firma 3Dfx i jej działający w systemie DOS akcelerator Voodoo. Była to rewolucyjna, jak na tamte czasy, karta, która przeniosła jakość obrazu w grach w zupełnie inny wymiar. Voodoo wspierał tylko grafikę trójwymiarową i tym samym w komputerze musiała być zainstalowana także tradycyjna karta graficzna. Dzięki Voodoo możliwe stało się granie w rozdzielczości 640 x 480 punktów, a nie 320 x 200 pikseli, jak do tej pory.
Duże znaczenie miało pojawienie się w 1992 roku pierwszego interfejsu programowania aplikacji – Open GL, który standaryzował obsługę grafiki przez karty. Innym znanym API był Glide wprowadzony właśnie przez 3Dfx.
Początek rewolucji
Prawdziwy przełom nastąpił w połowie lat 90. Po pierwsze – w 1995 roku został zaprezentowany Windows 95, który dzięki interfejsowi DirectX wprowadzonemu w 1996 roku okazał się doskonałą, zunifikowaną platformą do gier. Gry nie musiały być już zgodne ze standardem promowanym przez producenta kart graficznych, lecz z DirectX, do którego musieli się dopasować twórcy sprzętu.
Po drugie – na początku 1997 roku rozpoczęła się wojna producentów kart graficznych, która trwa do dziś. Monopolistę rynku akceleratorów 3Dfx zaatakowała Nvidia ze swoim modelem Riva 128, który był samodzielnym akceleratorem 2D/3D. Choć karta ta niekiedy była nawet szybsza od Voodoo, to dawała gorszą jakość obrazu. Odpowiedzią na Rivę był akcelerator 3Dfx Voodoo 2, który umożliwiał grę w rozdzielczości 800 x 600. Dodatkowo możliwe było łączenie dwóch takich kart w tryb SLI (Scan Line Interleave) w celu uzyskania większej wydajności i rozdzielczości nawet 1024 x 768. „Wadą” tej karty była 16-bitowa głębia koloru, z czego skwapliwie skorzystała Nvidia, produkując modele Riva TNT i TNT2, dostosowane do koloru 32-bitowego. Kolejny model, 3Dfx Voodoo 3, był już akceleratorem 2D/3D, ale Nvidia nadal deptała liderowi po piętach. W międzyczasie pojawiły się też karty S3 Savage3D oraz Savage 4, ale nie zdobyły nigdy większego udziału w rynku. Taki sam los spotkał wydajną, ale wyposażoną w bardzo wadliwe sterowniki jednostkę Savage 2000.
Pod koniec ostatniej dekady XX wieku producenci walczyli o to, czyj produkt będzie miał moduł T&L Engine (Transform & Lighting Engine). Umożliwiał on, dzięki przerzuceniu obliczeń z procesora na układ graficzny, znaczące przyspieszenie wykonywania skomplikowanych obliczeń zmiennoprzecinkowych, niezbędnych w generowaniu sceny 3D i jej oświetlenia. W moduł ten były wyposażone modele GeForce 256, Savage 2000, ATI Radeon 256, który został potem przemianowany na Radeona DDR. Następnie T&L stał się praktycznie standardem. W 2000 roku Nvidia wydała bardzo udaną serię GeForce 2, składającą się z modeli GeForce 2 MX, GTS oraz Ultra. Był to cios dobijający 3Dfx, które zostało wykupione przez Nvidię.
Epoka shaderów
W 2001 roku Nvidia wyprodukowała GeForce 3 – pierwszą kartę wyposażoną w programowalne jednostki cieniowania pikseli (Pixel Shader) oraz przetwarzania geometrii i oświetlenia (Vertex Shader). Shadery zastąpiły stosowane wcześniej moduły T&L, gdyż umożliwiały uzyskiwanie znacznie bardziej realistycznie wyglądających obrazów. Pierwszą kartą z programowalnymi shaderami ze strony ATI był Radeon 8500.
Cieniowanie pozwalało na bardziej skomplikowane odwzorowanie oświetlenia i faktury materiału obiektu niż do tej pory używane modele oświetlenia i teksturowanie.
W 2002 roku do sklepów trafiła seria GeForce 4 obejmująca modele Ti 4x00 oraz bardzo popularne tanie układy z serii MX 4x0, które bardziej przypominały GeForce 2, gdyż nie były wyposażone w układy Pixel i Vertex Shader. Ze względu na cenę te modele na długo zadomowiły się w naszych komputerach.
Karty Nvidii kolejnej generacji (2004 rok) – GeForce 6000 – były wyposażone w jednostki Pixel Shader i Vertex Shader w wersji 3.0, zgodnej z DirectX 9.0c. Analogiczna seria ATi – X1000 została zaprezentowana rok później.
Moda na łączenie
W serii GeForce 6000 Nvidia zastosowała po raz pierwszy technologię SLI (Scalable Link Interface), która umożliwiła łączenie kart graficznych w celu uzyskania większej wydajności. Została ona przejęta przez Nvidię przy okazji wykupienia 3Dfx.
Jeszcze pod koniec 2004 roku na rynku pojawił się Radeon X850 XT Platinum Edition, ulepszona wersja Radeona X800 XT, która okazała się wydajniejsza od GeForce’a 6800 Ultra. Była to pierwsza karta ATI, którą można było łączyć w pary dzięki technice CrossFire, odpowiedzi na SLI Nvidii. O ile SLI wymagało mostka łączącego obie karty wewnątrz peceta, o tyle CrossFire wykorzystywało specjalny zewnętrzny kabel. W wypadku SLI obie karty mogły być identyczne, CrossFire wymagał karty w specjalnej wersji zarządzającej podziałem obrazu. W nastepnych latach usunięto te niedogodności i CrossFire stało się równie funkcjonalne co SLI.
Historia najnowsza
Pod koniec 2006 roku Nvidia wprowadziła GeForce 8800 GTX, GTS oraz inne karty z serii 8000. Były to pierwsze karty graficzne wyposażone w zunifikowane jednostki cieniujące, mogące pełnić funkcję zarówno Pixel i Vertex Shaderów oraz zgodne z Shader Model 4.0 i DirectX 10. ATI wydało swoją odpowiedź na tę kartę dopiero w 2007 roku. Radeon HD 2900 XT niestety był mniej wydajny od GeForce 8800 GTX i cechował się wyjątkowo wysoką temperaturą pracy. Właśnie dlatego nie podbił rynku.
W przypadku następnej generacji Radeonów HD 3870 i HD 3850 oraz GeForce’ów 9800 GTX sytuacja wyglądała już lepiej dla ATI. Było tak, gdyż obie karty były w stanie ze sobą konkurować, a Radeony HD 3000 były wyprodukowane w niższym wymiarze technologicznym niż poprzednik i zużywały przez to mniej energii, nie przegrzewały się i były znacznie cichsze
W 2008 roku ATI zostało wykupione przez AMD, które chciało z wielkim impetem wejść na rynek. Właśnie dlatego przy okazji premiery Radeonów HD 4000 AMD ustaliło wyjątkowo niskie ceny swoich sztandarowych modeli. Wyjątkowo korzystna dla graczy polityka AMD zbiegła się w Polsce z wyjątkowo niską ceną dolara oscylującą w granicach 2 zł, dzięki czemu najgorzej wyposażone modele Radeona HD 4850 można było kupić za około 400 zł. Karta ta przez długi czas była rynkowym hitem. AMD w ten sposób wymusiło na Nvidii walkę cenową i ceny kart graficznych zaczęły maleć.
Twórcy GeForce’ów zdecydowali się jednak w inny sposób zdobywać rynek. Krótki czas po premierze nowych Radeonów na rynku pojawił się GeForce GTX 280, który był znacznie wydajniejszy od kart AMD. W ten sposób rynek podzielił się na część ze sprzętem dla graczy (karty ATI o najlepszym stosunku wydajności do ceny) oraz dla entuzjastów (karty Nvidii o największej wydajności).
Teraźniejszość
W 2010 roku premierę miały Radeony HD 5000 oraz GeForce’y GTX 400, czyli pierwsze karty obsługujące DirectX 11. Najnowsze API przyniosło funkcję teselacji oraz kompresję tekstur HDR. Szczególnie ciekawa jest pierwsza wymieniona funkcja, która sprawia, że elementy w grafice trójwymiarowej wyglądają, jakby składały się z większej liczby elementów niż w rzeczywistości. Doskonałym przykładem teselacji jest benchmark Unigine Heaven. W starciu obu rodzin kart lepsze okazały się GeForce’y, ale zużywały ogromne ilości energii i rozgrzewały się do bardzo wysokich temperatur, przez co ich system chłodzenia był wyjątkowo głośny.
Rok później na rynku pojawiły się Radeony HD 6000 oraz GeForce’y GTX 500. Obie karty były poprawionymi wersjami poprzednich rozwiązań. Najnowsza generacja kart graficznych to Radeony HD 7000 (chłodniejsze i bardziej energooszczędne od serii 6000) oraz GeForce’y GTX 600. Tak jak w przypadku poprzedniej generacji, tak i teraz GeForce’y GTX 680 są najlepsze, a Radeony HD 7970 mogą konkurować z GeForce’ami GTX 670.
Nvidia w tym roku zaprezentowała też kartę GeForce Titan, która została stworzona na bazie serwerowych kart obliczeniowych i jest obecnie najlepszą propozycją na rynku. Nie należy ona do żadnej serii i jest preludium do możliwości, które mają mieć karty z serii GeForce GTX 700.
Najwięksi i najważniejsi producenci kart graficznych
- 3Dfx Powstała w 1994 roku, dwa lata później wydała swój pierwszy akcelerator graficzny Voodoo. Upadła na skutek strategicznych błędów w zarządzaniu, a także problemów w tworzeniu nowych układów. Wykorzystała to konkurencyjna Nvidia, która ostatecznie w 2000 roku wykupiła 3Dfx.
- ATI Założona w 1985 roku, początkowo zajmowała się produkcją zintegrowanych kart graficznych dla IBM i Commodore. Wykupienie Tseng Labs umożliwiło stworzenie kart ATI Radeon. Przejęcie firmy przez AMD w 2008 roku umożliwiło stworzenie układów APU, czyli procesorów z wbudowaną kartą graficzną.
- Intel To właśnie Intel, założony w 1968 roku, statystycznie produkuje najwięcej kart graficznych – ponad połowę wszystkich działających na świecie. Popularność zawdzięcza rynkowi laptopów, w których od lat umieszczane były tanie, ale wystarczające do grafiki 2D, karty zintegrowane.
- Matrox Firma założona w 1976 roku słynęła przede wszystkim z tworzenia kart dla profesjonalistów. Ostatnim jej głośnym produktem była wydana w 2002 roku karta Matrox Parhelia. W późniejszym czasie firma zrezygnowała z produkcji kart graficznych i zajęła się innymi rozwiązaniami graficznymi dla przedsiębiorstw. Jej najnowszy produkt to kontrolery Matrox Mura SPX pozwalające na podłączenie do komputera nawet 32 ekranów.
- Nvidia Założona w 1993 roku. Zaistniała na rynku dzięki układom z serii Riva, a następnie GeForce. Obecnie tworzy też układy ARM z serii Tegra, które konsekwentnie zdobywają coraz większy udział w rynku urządzeń mobilnych.
- S3 Firma powstała w 1989 roku, a jej najważniejsze produkty to Trio, Virge, Savage oraz Unichrome. Próbowała konkurować z Nvidią i 3Dfx, a potem Nvidią i ATI, ale nie wyszła zwycięsko z tej rywalizacji ze względu na kłopoty ze sprzętem oraz ze sterownikami.
- Tseng Labs Korporacja założona w 1983 roku. Karta ET2000 jeszcze przed wprowadzeniem standardu VGA wspierała rozdzielczość 640 x 480. W 1998 roku firma została sprzedana ATI, a jej zapowiadany pierwszy akcelerator 3D – ET6300 – został przemianowany na ATI Rage 128.