futurebeat.pl News Tech Mobile Gaming Nauka Moto Rozrywka Promocje

Technologie

Technologie 23 marca 2015, 16:00

autor: Filip Grabski

Dwóch wielkich graczy. Wielka wojna kart graficznych

Spis treści

Dwóch wielkich graczy

Od początku XXI wieku na rynku chipsetów do kart graficznych liczyli się już tylko dwaj zawodnicy – ATI i Nvidia. Intel radził sobie bardzo dobrze pod względem biznesowym, ale jego produkty z tej dziedziny nigdy nie były w stanie zagrozić wydajności kart GeForce i Radeon, zaś pozostałe – niegdyś potężne i dobrze prosperujące – firmy zeszły na margines (np. S3 tworzyła nowe wersje GPU jeszcze przez 5 lat, a obecnie skupia się głównie na grafikach do urządzeń mobilnych).

Chcąc skutecznie rywalizować z ATI, „zieloni” wykupili upadającą firmę 3dfx i wprowadzili na rynek całe stadko nowych kart bazujących na następcy pierwszego GF. Pojawiły się modele Ultra (identyczny chip ze zwiększonymi szybkościami procesora i pamięci) i MX (obcięta liczba potoków renderujących i mniejsza przepustowość pamięci), wypełniając nisze dla bardziej i mniej wymagających klientów. W tym samym czasie twórcy Radeona cierpliwie pracowali nad usprawnianiem nowej rodziny mikroprocesorów, a jedyną nowością była „budżetowa” wersja oryginalnego Radeona z dodatkowym „VE” w nazwie. Ta karta posiadała tylko jeden potok renderujący i była pozbawiona sprzętowego T&L, co sprawiło, że nie dawała sobie rady w bezpośrednim starciu z GF 2 MX, ale w przyszłości posłużyła jako baza dla mobilnych wersji chipsetów firmy.

Rywalizacja między ATI a Nvidią przeniosła się także do świata konsol. W roku 2000 ATI przejęło firmę ArtX, która była w trakcie opracowywania chipu graficznego do Nintendo GameCube – efektem był procesor „Flipper”, który oficjalnie wyszedł już pod szyldem ATI. Z kolei Nvidia zaimponowała Microsoftowi swoimi pracami przy GeForsie i zdobyła kontrakt na dostarczenie serca do planowanej konsoli Xbox. NV2A to stadium pośrednie między trzecią a czwartą generacją kart GeForce o mocy porównywalnej z mocą GF4 Ti 4200.

Nvidia beztrosko podążała raz obraną ścieżką i już w lutym 2001 roku ujawniła światu trzecie wcielenie swego produktu. GeForce 3 z miejsca stał się nowym królem wydajności, pokazującym pazury w ekstremalnych rozdzielczościach rzędu 1600x1200 z pełnoekranowym wygładzaniem krawędzi. Nowe chipsety wprowadziły obsługę bibliotek DirectX 8 i kilka standardowych dziś efektów w rodzaju multisampling anti-aliasingu, ośmiokrotnego filtrowania anizotropowego i programowalnego vertex shadera. Nieco później firma stworzyła wariację na temat GeForce’a 3 o nazwie kodowej NV2A, użytej w pierwszej konsoli Xbox, oraz wprowadziła na rynek słabszą odmianę Ti 200 i podkręconą Ti 500. Te działania się opłaciły – 14 lat temu Nvidia kontrolowała niemal 1/3 rynku, którego tylko ok. 17% należało do ATI.

Magicy z Kanady nie kazali jednak długo na siebie czekać, choć debiut nowego chipsetu o kodowej nazwie R200 nie należał do udanych. Radeon 8500 został zapowiedziany latem 2001 roku, a sam John Carmack zachwalał nowy produkt ATI jako kartę graficzną, która powinna poradzić sobie z Doomem 3 dwukrotnie lepiej niż udany GeForce 3. Tymczasem karta w momencie debiutu posiadała bardzo marne sterowniki, które nie pozwalały dorównać konkurentowi w jego najsłabszej wersji, i dopiero pod koniec roku Radeon 8500 osiągnął swój prawdziwy potencjał, doganiając trzeciego GeForce’a (choć patrząc na suche dane techniczne, GF rzeczywiście powinien zostać w tyle).

Radeon 8500 ostatecznie był zdecydowanie za słaby na Dooma 3. - 2015-03-23
Radeon 8500 ostatecznie był zdecydowanie za słaby na Dooma 3.

Rodzina GeForce w kolejnym roku ulepszyła się do czwartej edycji chipsetu, który ponownie pojawił się w wielu wersjach do wyboru – budżetowy MX to 3 warianty (420, 440 i 460), zaś przeznaczona dla graczy rodzina Ti składała się z aż pięciu modeli (o numerach od 4200 do 4800). Entuzjaści z miejsca zaczęli krytykować modele MX, które według oficjalnych informacji były uboższe jedynie o nfiniteFX II engine (programowalne shadery pod DirectX 8), a w praktyce okazywały się mniej zaawansowane i wydajne niż poprzednia generacja kart z rodziny, bo w ich sercach pracowały rozwiązania jeszcze z czasów GF2. Oczywiście nie przeszkodziło to w osiągnięciu rynkowego sukcesu, który stał się też udziałem silniejszych modeli – wycenione podobnie jak mocny GeForce 3 najpopularniejsze karty z chipsetami Ti 4200 i Ti 4600 okazały się doskonałymi rozwiązaniami dla wymagających klientów.

Filip Grabski

Filip Grabski

Z GRYOnline.pl współpracuje od marca 2008 roku. Zaczynał od pisania newsów, potem przeszedł do publicystyki i przy okazji tworzył treści dla serwisu Gameplay.pl. Obecnie przede wszystkim projektuje grafiki widoczne na stronie głównej (i nie tylko) oraz opiekuje się ciekawostkami filmowymi dla Filmomaniaka. Od 1994 roku z pełną świadomością zaczął użytkować pecety, czemu pozostaje wierny do dzisiaj. Prywatnie ojciec, mąż, podcaster (od 8 lat współtworzy Podcast Hammerzeit) i miłośnik konsumowania popkultury, zarówno tej wizualnej (na dobry film i serial zawsze znajdzie czas), jak i dźwiękowej (szczególnie, gdy brzmi ona jak gitara elektryczna).

więcej

TWOIM ZDANIEM

Który producent kart graficznych ma Twoim zdaniem najlepsze sterowniki?

AMD
16,4%
Nvidia
83,6%
Zobacz inne ankiety
Najlepsze dyski SSD dla graczy – porady dla kupujących w kwietniu 2018
Najlepsze dyski SSD dla graczy – porady dla kupujących w kwietniu 2018

Obok karty graficznej i procesora to dysk SSD jest komponentem, który poprawi wydajność waszych pecetów w najbardziej widoczny sposób. Wybraliśmy dla was najlepszych przedstawicieli tej klasy sprzętu – łącznie z dyskami ze złączem M.2.

Czym jest ray tracing – technologia światła i cieni?
Czym jest ray tracing – technologia światła i cieni?

Producenci kart grafiki wystąpili ostatnio z nowym rozwiązaniem, mającym zaserwować graczom niespotykaną do tej pory jakość światła i cieni. Mowa o ray tracingu – technologii, która ma pozwolić na generowanie fotorealistycznej oprawy wizualnej w grach.