NVIDIA firmą roku w plebiscycie magazynu Forbes
I ja tam dołożyłem jakiś czas temu swoją cegiełkę :D oby tylko nie zmonopolizowali rynku jak kiedyś intel na przykład, wiadomo kto na tym straci a wiec ATI do roboty! :D
spoiler start
4 miliardy dolarów <- ja pier... a jeszcze takie drogie te karty :P, [żarcik, żeby nie było!]
spoiler stop
Nieźle. Normalnie, że ją firmą roku wybrali to naprawdę nieźle, chociaż to było do przewidzenia po wynikach nowych chipów...
I się nie dziwie. Pracując w serwisie komputerowym mam do czynienia z różnym rodzajami kart. Jak na razie w większości przypadków problemy z kompatybilnością były z kartami ATI.
Szkoda że na rynku kart graficznych jest tylko dwóch producentów (Chipów).
Gdyby była większa konkurencja to ceny spadałyby łeb na szyję.
ATI bierz się do roboty!
Można powiedzieć ze NVIDIA nie ma konkurencji więc nie ma co dziwić . Tylko szkoda że ceny tych nowych kart z serii 8 są takie wysokie jeśliby ATI by też produkowałoby jakieś super karty to może i ceny byłyby niższe.
Miałem karty z chipami Nvidii, czemu przeszłem na to ATI <żałuje>
Ale w nadchodzącym kompie już raczej powróci znów NVIDIA :D
AMD/ATI na szczescie przemyslala swoje bledy i wypuscila ostatnio swietne karty: 3850 i 3870. Co daje nadzieje na powrot do ostrej rywalizacji z NVIDIA, a to przeciez dobrze bo monopol NVIDII to nie byloby nic dobrego.
Tez sie nie dziwie po nieudanej serii Geforce 5 to myslalem nawet ze firma ta wpadnie w powazne klopoty ale widac ze wzieli sie do roboty i wykorzystali swoja druga szanse i teraz to Ati jest w opalach.
Mam tylko nadzieje ze Ati tez sie przebudzi i pozadnie sie wezmie do odrabiania strat bo monopol na tym rynku nam nic dobrego nie bedzie wrozyl.
Prawdziwy monopol dopiero najdzie, jak Intel wprowadzi swoje hi-endowe GPU. Obecna sytuacja względem tego co możemy mieć w ciągu nadchodzących paru lat jest względnie bardzo dobra....
AMD już się właściwie nie liczy, więc Intel się nie musi przejmować. Nvidię załatwią bardzo szybko jej własnymi metodami czyli:
1. Zabiorą Nvidii licencję na chipsety pod Core2Duo
2. W nowych kartach graficznych wprowadzą technologie niekompatybiline z tymi od Nvidii, przy czym zapewnią im solidne wsparcie ze strony producentów gier, aby pod nie robili gry.
Obie metody obecnie stosuje Nvidia (masa umów z producentami gier + blokowanie SLI dla chipów Intela).
Niestety na ich nieszczęście intel może zrobić to samo. A że ma ogromną przewagę technologiczną i finansową to może to zrobić znacznie skuteczniej..... I bye bye Nvidia;>
jaka szkole nalezy ukonczyc zeby zostac prezesem (Nvidii) ? :) Kurde 4 mld $, to juz jest niezle kasa oby tylko ATI sie nie poddalo bo monopol nie wyjdzie konsumentom (czyli nam) na dobre ;/
Przypominam jedynie, że przychód to "uzyskany lub należny wpływ wartości, korzyści materialnych w ramach prowadzonej działalności gospodarczej. Najczęściej przychodem jest łączna wartość sprzedaży dóbr, towarów i usług netto (bez podatku VAT) w okresie rozliczeniowym (dzień, miesiąc lub rok obrachunkowy)" (za Wikipedią).
ATi już raczej nie konkuruje z nVidią w segmencie Very High-End, widać to od serii HD2xxx, najmocniejsza karta z tej właśnie serii czyli HD2900XT nie miał konkurować z 8800GTX czy Ultra, tylko z GTS`em 640MB, ja osobiście uważam że 2900 to jedna z najgorszych kart od ATi, strasznie prądożerna, gorąca, głośna i jeszcze na dodatek nie dopracowane sterowniki do niej, które na szczęście teraz się poprawiły. Ale ATi juz wraca do gry szczególnie w segmencie "mainstream"
karty 3870 i 3850 są już bardzo dobre, 3870 tylko trochę przegrywa z 8800GT, ale jest to też kwestia sterowników i tego że większość gier jest optymalizowana pod GeForcy, jest też trochę tańszy, ma lepsze chłodzenie, jest w nowocześniejszym procesie technologicznym niż 8800GT, ma obsługę DX10.1, ale jednak 8800GT uzyskuje te parę klatek więcej. Natomiast 3850 to już jest kompletna przewaga Ati, karta bardzo, bardzo dobra jak na swoją cenę. Do konkurowania z nVidią w segmencie High-end ATi może wróci wypuszczając Radeona HD3870X2. Ja życzę ATi jak najlepiej każdy wie jak kończy się monopolizacja rynku, nVidia nadal życzy sobie za swoje Ultra ponad 2000zł.
Nie zgodzę się z tym że AMD już się nie liczy, AthlonyX2 może nie pokonują C2D w benchmarkach, ale różnica w grach jest prawie nie zauważalna, za to są o wiele tańsze niż C2D.
Na dodatek wypuściło teraz nowy procesor, i nowy chipset. Phenom również jest tańszy niż Quady Intela, a różnica w wydajności też nie jest jakaś przeogromna. AMD/ATi atakują bardziej segement mainstream i mid-end, większość ludzi która nie ma dużo pieniędzy wybiera właśnie tą firmę. Intel będzie produkował High-endowe GPU? Kurde nawet nie wiedziałem.
remekra ---> Intel powinien wejsc na rynek chipsetow graficznych w 2009 roku nie jest to jeszcze potwierdzone oficjalnie ale mozna znalezc informacje jak by ich chipy mialy wygladac otoz maja to byc uklady wykonane w technologii 32 nanometrow, maja byc wielordzeniowe i wspolpracowac z pamieciami GDDR5.
Jezeli okaze sie to prawda ich karty graficzne moga byc nawet kilkanascie razy bardziej wydajne niz obecne a wtedy Nvidia jak i Ati znajda sie w powaznych opalach.
Zobaczymy w 2009, Intel nawet jak wypuści swoje GPU to do 09 ATi i nVidia też pójdzie do przodu, a jeśli układy Intela okażą się wydajniejsze to mogę się założyć, że ATi i nvidia odpowiedzą swoimi układami, a to daje nam jeszcze większą konkurencję, czyli dla nas(konsumentów) same plusy;D.
Ciekawi mnie jak wydajnościowo będzie się prezentowały układy GeForce9 i czy wkońcu będzie można w Crysise włączyć AA16x z detalami na very high, i tym samym nie spowodować eksplozji komputera:D.
remekra --->
3870 tylko trochę przegrywa z 8800GT
Ok 20% czyli niestety - całkiem sporo. Jak byśmy wzięli pod uwagę OC to różnica jest jeszcze większa
ale jest to też kwestia sterowników i tego że większość gier jest optymalizowana pod GeForcy
To nie sterowniki dają tą przewagę wydajności. Architektura G92 jest po prostu znacznie lepsza, bardziej efektywna od RV670.
G92 ma sprawniej działające ROP-y, AA realizowany przez ROP-y, więcej TMU, shadery taktowane >2x wyższym zegarem niż rdzeń (u ATI 1:1) etc.
Zauważ jaki jest tego efekt - G92 przy takiej samej ilości ROP i zegarze NIŻSZYM o prawie 200MHz (600MHz vs 775MHz) jest ok 20% SZYBSZY od RV670!!
jest w nowocześniejszym procesie technologicznym niż 8800GT
Mimo tego nowszego procesu HD38xx pobierają WIĘCEJ energii niż 8800GT, tak więc przewaga procesu wyłącznie na papierze....
ma obsługę DX10.1
Który od DX10 różni się raptem wprowadzeniem JEDNEJ funkcji....
Natomiast 3850 to już jest kompletna przewaga Ati, karta bardzo, bardzo dobra jak na swoją cenę.
Tak było, ale do czasu wypuszczenia 8800GT 256MB....
Do konkurowania z nVidią w segmencie High-end ATi może wróci wypuszczając Radeona HD3870X2.
Niestety Nvidia wypuszcza 9800GX2 z 2xG92, a więc przewaga z pojedynczych kart przeniesie się na przewagę w pojedynku "duali".
Ja życzę ATi jak najlepiej każdy wie jak kończy się monopolizacja rynku, nVidia nadal życzy sobie za swoje Ultra ponad 2000zł.
Też im życzę jak najlepiej, ale ostatnio wyraźnie nie dają rady i raczej czarno to widzę... Notabene gdy mieli konkurencyjny hi-end to także liczyli sobie zań ~2500zł nierzadko więcej niż Nvidia.
AthlonyX2 może nie pokonują C2D w benchmarkach, ale różnica w grach jest prawie nie zauważalna
Zależy w jakich grach. Tam gdzie procesor staje się wąskim gardłem C2D wybija do przodu
za to są o wiele tańsze niż C2D.
Niestety nie są...
Na dodatek wypuściło teraz nowy procesor, i nowy chipset.
Nowy procesor który jest droższy od konkurencji, znacznie wolniejszy, podkręca się beznadziejnie i ma błędy w obłudze pamięci podręcznej. Fabryczne taktowanie także rozczarowuje.
Żeby było śmieszniej to Phenom jest przy okazji DROŻSZY i DUŻO WOLNIEJSZY od swojego poprzednika (Athlon X2 6400+)
No i nowy chipset który zaniża taktowanie NB oraz nie jest w stanie wytrzymać napięcia dla RAM powyżej 2,3V.
Podobnie jak z w kwestii procesora także i tu, nowy chipset jest dużo GORSZY od starych....
Nie wspominając o tym, że AMD łączy go ze starym SB600. Co za tym idzie wydajność USB i SATA jest wprost tragiczna. Do tego szczególnie kiepska wydajność pod VISTĄ.
Niestety rzeczywistość dla AMD okazała się druzgocąca. Sam obiecywałem sobie bardzo bardzo wiele po nowej platformie AMD/ATI, ale fakty są takie, że w obecnym stadium Spider zawodzi.
remekra ---> Geforce 9 zapewne bedzie bardzo wydajny prawdopodobna premiera tego ukladu to wiosna, karta na tym ukladzie powinna sobie bez problemu poradzic z Crysisem w wysokich rozdzielczosciach i wlaczonymi wszystkimi detalami na max, a to prawdopodobna specyfikacja:
- proces technologiczny 65nm
- ponad miliard tranzystorów
- 1024MB pamięci GDDR4
- 512-bitowy interfejs pamięci
- zgodność z DirectX 10.1
- zgodność z OpenGL 3.0
- Unified Shader II
- wsparcie podwójnej precyzji (FP64)
- natywne GPGPU
- ponad TeraFlop mocy obliczeniowej jednostek cieniowania
- MADD+ADD dla jednostek cieniowana (2+1 FLOPS=3 FLOPS na ALU)
- w 100% skalarna konstrukcja
- kość EDRAM dla "darmowego FSAAx4"
- wbudowany układ audio
- układ tesselacji w GPU
Warto dodac jeszcze ze powinien byc zgodny ze specyfikacja PCI-E 2.0.
Chriso25 ---->
A ja mam "prawdopodobną specyfikację R800:
proces technologiczny 22nm
> 2mld transystorów
4096 pamięci GDDR6
2048 bit kontroler pamięci
zgodność z Direct X 12
zgodność z OpenGL 5.0
Unified Shader V
wbudowany układ audio, sieć + mini reaktor atomowy do domowego uzytku
A tak bardziej poważnie to te specyfikacje GF 9 można sobie między bajki włożyć. Zwykła lista pobożnych zyczeń
Zresztą nawet na logikę podana przez Ciebie specyfikacja nie ma szans na realizację.
Przy procesie 65nm układ złożony z 1mld transystorów potrzebowałby gigantycznego chłodzenia i równie mocnego zasilacza. Nie ma możliwości aby Nvidia na coś takiego się zdecydowała.
Dlatego właśnie tendencje idą w kierunku wielordzeniowości. Jeżeli karta na 2xG92 otrzyma nazwę GF 9 to sprawa się wyjaśni.
I ja tak zakładam - Ge-Force 9 NIE BĘDZIE kartą z pojedycznym układem o gigantycznej wydajności, a zbiorem kilku mniejszych chipów.
Najpewniej to właśnie karta na dwóch G92 będzie nowym hi-endem przez następne pół roku, otrzyma nazwę GF9 i ... ot właśnie i "mityczny" G100....
NFSV fan--> GeForce 9600 GT już oficjalnie
O tym, że w 2008 roku NVIDIA zaprezentuje nowy chip graficzny, było wiadomo już od ponad miesiąca. Jednak dopiero teraz D9M (taka jest nazwa kodowa 9600 GT) pojawił się na oficjalnej liście zapowiedzi koncernu. Kość będzie produkowana w procesie technologicznym 65 nm, będzie też obsługiwała API DirectX 10.1.
Standardowo nowe karty będą dysponowały GPU taktowanym zegarem 650 MHz (shadery: 1625 MHz) oraz pamięciami 1800 MHz, komunikującymi się z procesorem graficznym za pośrednictwem 256-bitowej szyny danych. Prędkość wypełniania GeForce 9600 GT ma wynieść 20.8 miliarda pikseli na sekundę, a przepustowość pamięci – 57.6 GB na sekundę.
Do działania karty graficzne z D9M będą wymagały 400W zasilacza, będącego w stanie dostarczyć prądu o natężeniu 26A na szynie 12V. Nie obejdzie się bez podłączenia 6-pinowej złączki zasilania PCI-Express.
NVIDIA zapowiada, że wydajność GeForce 9600 GT będzie blisko dwukrotnie wyższa od dotychczasowych rozwiązań GeForce 8600. Jedyne, co nie jest jeszcze znane, to przewidywana cena nowych kart.
biorac pod uwage ze to bedzie odpowiednik 8600 wersje 9800 GT/GTS/GTX beda napewno mocniejsze )
NFSV fan--> Nie wziąłeś pod uwagę tego, że 3870 również można podkręcać i to lepiej niż 8800GT z 775/2250 można na stockowym coolerze spokojnie polecieć na 850/2750. Nie wiem jak wtedy by wyglądały wyniki bo nie widziałem testu kręconego 3870. Fakt że 3870 ma małe w porównaniu do 8800GT taktowanie shaderów, mogliby to udoskonalić. Owszem sterowniki nie dają 20% wydajności przewagi, ale niedopracowane sterowniki odejmują parę procent np. po wypuszczeniu nowej wersji Catalystów wydajność w Crysise wzrosła o ok. 3%. Niestety ale 8800GT pobiera ok. 5W mocy więcej od 3870, mała różnica ale jednak. Nie jestem pewien czy różnica 200zł pomiędzy 8800GT 256mb
a 3850 to ta sama klasa cenowa, ale zdaje mi się że nie. Co do 9800GX2, to będą to chyba dwa układy 9800, a nie 8800GT a więc cena będzie znacznie większa, 3870X2 to dwa układy 3870 czyli można przypuszczać że cena będzie ok. 2 razy wyższa niż za jednego 3870, nie wiadomo ile będzie kosztował 9800 ale napewno nie będzie to mniej niż 1500zł. Jeśli chodzi o AthlonyX2 i C2D, jeśli się nie podkręca, a na procka chcesz wydać ok. 320zł to lepszy jest AthlonX2, oczywiście jeśli chcesz się bawić w OC, to C2D jest jednak lepszy(chociaż X2 też się nieźle podkręca). Nie jestem pewien czy Phenom jest aż taki zły bo za 639zł masz czterdzeniowy procesor(Phenom 9500), który może i jest wydajnością gorszy od C2Q6600, ale jest o 200zł tańszy, problemy z obsługą pamięci mają być naprawione wraz z wyjściem nowego sterownika, który wyjdzie w tym miesiącu.
Chciałbym jeszcze zauważyć, że spora część osób wymaga aby w ciągu kilku miesięcy AMD prześcignęło Intela, a sami zapominają że ta druga firma potrzebowała wcześniej kilku lat na to aby stworzyć coś co mogło zagrozić tej pierwszej firmie. To samo jest z ATi i jego układem R300, gdzie nVidia również potrzebowała sporo czasu na podniesienie się z dołka.
remekra ---->
Nie wziąłeś pod uwagę tego, że 3870 również można podkręcać i to lepiej niż 8800GT z 775/2250 można na stockowym coolerze spokojnie polecieć na 850/2750.
Wziąłem to pod uwagę. GeForce 8800GT podkręca się zdecydowanie lepiej.
GeForce 8800GT OC z 600MHz na 700MHz - wzrost taktowania o 16%
Radeon 3870 OC z 775 na 850MHz - wzrost taktowania o 9%
Nie wspominając o tym że te dodatkowe MHz zdecydowanie więcej dają Ge-Force'owi z racji bardziej efektywnej architektury.
Niestety ale 8800GT pobiera ok. 5W mocy więcej od 3870, mała różnica ale jednak.
3870 pobiera sporo mniej, ale w idle [ pulpit Windows ], dzięki technologii power play która od razu obniża napięcie zasilające oraz taktowanie.
Tyle, że do oglądania pulpitu Windows nie kupuje się zewnętrznej karty za prawie 1000zł....
Przy obciążeniu [ czyli w grach ], cała magia pryska, taktowanie wzrasta, napięcie również, a za tym i pobór mocy, w tym wypadku niestety WYŻSZY niż GeForce'a 8800GT
Widać to trochę w tym teście:
http://www.anandtech.com/video/showdoc.aspx?i=3151&p=11
A jeszcze lepiej w tym:
http://www.tomshardware.com/2007/11/15/amd_radeon_hd_3800/page18.html
Biorąc pod uwagę, że 8800GT jest przy okazji szybszy, współczynnik performance/Watt wypada wyjątkowo niekorzystnie dla 3870.
Nie jestem pewien czy różnica 200zł pomiędzy 8800GT 256mb
a 3850 to ta sama klasa cenowa, ale zdaje mi się że nie.
Tu istotnie 3850 jest tańszy, tyle że wolniejszy. Różnica wydajności jeszcze większa niż w przypadku 8800GT 512 i 3870 bo Nvidia obcięła tylko ilość pamięci, a ATI przy okazji - obniżyło solidnie taktowanie...
problemy z obsługą pamięci mają być naprawione wraz z wyjściem nowego sterownika, który wyjdzie w tym miesiącu.
Poprawka wyszła - obniża wydajność o ok 10-20%....
Problem zostanie rozwiązany w nowym steppingu B3 czyli najwcześniej w 2 kwartale 2008.
Chciałbym jeszcze zauważyć, że spora część osób wymaga aby w ciągu kilku miesięcy AMD prześcignęło Intela, a sami zapominają że ta druga firma potrzebowała wcześniej kilku lat na to aby stworzyć coś co mogło zagrozić tej pierwszej firmie. To samo jest z ATi i jego układem R300, gdzie nVidia również potrzebowała sporo czasu na podniesienie się z dołka.
Wszystko pięknie tyle, że AMD zanim zdąży opracować coś nowego i wydajnego może zwyczajnie zbankrutować. Bo ja im jako klient chętnie dałbym i 5 lat jeżeli mieliby wrócić do gry z czymś naprawdę mocnym. Ale tu czas leci, a każdy miesiąc w obecnej sytuacji to kolejne straty :(
Ja podziękuję ATI za ich super sterowniki (brak litery z ogonkiem: ć, Ć; da się to rozwiązać - zmieniając w Menadżerze Klawiszy zamiast C dawać wszędzie D - ale jak ktoś nie wie to lipa) oraz za tak długie uruchamianie się ich, nie kupując nowej karty do nowego komputera w tym moze już roku.
***Half-Life*** --->
Nie sterowniki tylko CCC. Spora różnica, bo można zainstalować sterowniki NIE instalując CCC. Jak Ci ten drugi nie pasuje to go po prostu nie instaluj zamiast się rozwodzić jaki to on badziewny.
Notabene Nvidia Control Panel wcale nie jest lepszy. Znalezienie tam połowy funkcji graniczy z cudem, a całość działa i uruchamia się ślamazarnie. Poprzedni panel standardowy był 100x lepszy. Niestety w nowych sterownikach nie ma już mozliwości powrotu do niego....
@NFSV fan
Myślsz, że dlaczego nVidia wprowadziła taki a nie inny panel kontrolny? Otóż tylko dlatego, że poprzedni był... za trudny dla zwyklych wyjadaczy chleba. I w zasadzie muszę się zgodzić, szczególnie dla osoby, która pierwszy raz ma do czynienia z kompem. Piszę to z perspektywy pracownika serwisu komputerowego, którego jestem.
PS.
Nie wprowadzaj ludzi w błąd informując, że nie można powrócić do starego panelu kontrolnego nVidii. Otóż muszę Cię zmartwić, jest taka możliwość. Wchodzisz do regedit'a i znajdujesz klucz:
[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NvCplApi\Policies]
masz tam dwa podklucze:
"ContextUIPolicy"=dword:00000002
"TaskbarUIPolicy"=dword:00000002
zmieniając wartość obu na 1 otrzymasz stary poczciwy panel kontrolny.
NFSV fan -> Architektura Nvidii jest lepsza tylko dlatego, że wszyscy pod nią piszą... Prawda jest taka, że RV670 (choć już nie tak udany jak końcowe chipy z Dx9 :/) mógłby, z odpowiednimi sterownikami i wolą producentów gier, zabić G92. To, co prezentuje Nvidia to taki odpowiednik graficznego cepa. Też nim zmielisz, ale po co, skoro jest młyn? No, a że nikt nie umie go obsługiwać to inna sprawa.
Tak na marginesie - AMD-ATI (pobudka, to teraz 1 korporacja, a obie jej części przynoszą straty) jest na skraju bankructwa, więc nie wiem z czego się tak cieszyć. Już bym wolał otwartą walkę na równych zasadach, a nie karty w cenie konsoli (a o dziwo u nas jest stereotyp, że konsola to droższa zabawka... piractwo, ach piractwo).
Intel, z całym brakiem sympatii do tej firmy (za P4 :P) prawdopodobnie zniszczy Zielonych. Układ w nowym (jak na GPU) procesie technologicznym oparty na szybkich pamięciach, połączony z zapleczem finansowym Intela... Au.
Nawet jak AMD/ATI zbankrutuje, to nie zniknie z rynku tylko zmieni się zarząd firmy do czasu wyjścia z bankructwa, może to i nawet by dobrze zrobiło tej firmie, jakieś nowe pomysły albo coś, a poza tym jak AMD/ATI by bankrutowało to nie planowali by wypuścić nowego procesora pod nową podstawkę AM3 pod koniec tego roku. Szkoda że AMD nie ma takiego marketingu jak Intel, który nawet po strasznie prądożernej grzałce jaką był P4, nadal istnieje. Heh wystarczyło wcale nie tak dawno zobaczyć na pudełka gier, w wymaganiach sprzętowych zawsze najpierw był np.Intel Pentium4 3Ghz a potem albo było napisane "lub równorzędny" albo nie było wcale nic napisane o AMD, dopiero nie dawno dodawane było AMD, albo w niektórych grach słynne logo "Runs Great on Pentium4", ale nie było dopisane "runs greater on Athlon64". A i jeszcze jedno, gdyby AMD nie wykupiło ATi, to już pewnie monopol miała by nVidia, więc trzeba trochę podziękować AMD, bo gdyby nie oni to pewnie za zwykłego 7600GT żądali by 700zł. Pozatym, Phenom nie jest taki zły, jest tani, a będzie jeszcze tańszy, szczególnie jak za niedługo pojawią się wersje 45nm.
TobiAlex ---->
Dzięki za radę, chętnie skorzystam ;) Byłem przekonany, że skoro usunęli przycisk wyboru między starym a nowym, to i stary wywalili. Jak widać - nie :D
fresherty --->
Karta graficzna musi sobie radzić z wieloma rodzajami kodu niekoniecznie optymalizowanego pod dany GPU. Podejście Nvidii z wieloma prostymi jednostkami bardzo wysoko taktowanymi okazało się lepsze, właśnie ze względu na większą elastyczność takiej architektury.
Owszem to trochę "siłowe" rozwiązanie i mnie finezyjne od ATI, ale ma jedną niezaprzeczalną zaletę - działa równie dobrze w każdej sytuacji (grze). Natomiast wydajność poszczególnych gier u ATI jest kompletnie nieprzewidywalna. Jedna może działać świetnie, a inna beznadziejnie, zależnie od wykorzystania specyficznej architektury R600.
Nvidia też miała taką kompleksową architekturę, świetną na papierze. Nazywało się to NV30.... Specyfikacją miażdżyło R300 w każdym punkcie. A jak się takie eksperymenty skończyły wszyscy dobrze wiedzą...
Niestety przy R600 ATI popełniło ten sam błąd co Nvidia przy NV30. Skomplikowana niezoptymalizowana i nieefektywna architektura, wymagająca bardzo wysokich zegarów aby jako tako działać.
Tyle że Nvida uczy się na własnych błędach i już drugi raz takiej wpadki nie miała. Oby i ATI wyciągnęło wnioski z wydajności R600....
A odnośnie Intela, to choć szczerze tej firmy nie znoszę, chętnie zobaczę jak dokopuje Nvidii. A że dokopie i to solidnie to jest pewne....
A odnośnie Intela, to choć szczerze tej firmy nie znoszę, chętnie zobaczę jak dokopuje Nvidii. A że dokopie i to solidnie to jest pewne....
A co Intelowi wcześniej przeszkadzało, żeby dokopać ?
TobiALex- wielkie dzięki, stary panel jest o wiele lepszy:)
1. Co z tego, że Phenom jest "tylko trochę gorszy"? Nikt przy zdrowych zmysłach nie wybierze czegoś, co jest tylko "odrobine gorsze" jeśli może mieć lepszy sprzęt za podobną cenę. Tym bardziej, że marketingowo intel jest i był silniejszy. AMD będzie musiały ostro walczyć ceną, a to w obliczu premiery tańszych Penrynów od intela może być bardzo trudne.
A ATI? Nie zapominajcie, że 3870 jest tańszy od 8800GT, a HD3850 wciąż jest najlepszą kartą jeśli chodzi o współczynnik cena/wydajność, choć Nvidia robi ostnio w tym segmencie cenowym straszne zamieszanie(8600GTS,8800GS, 8800GT 256 MB, 9600GT). Tak więc wcale nie jest z nimi teraz tak źle.
albz74 --->
Nie wiem co im przeszkadzało, bo nie pracuje w Intelu. Prawdopodobnie nic im nie przeszkadzało, po prostu teraz zdecydowali się wejść na nowy rynek - wydajnych GPU.
Powodu takiej decyzji upatrywałbym w reakcji na fuzję AMD i ATI. Skoro AMD oferuje kompletną platformę od CPU przez chipsety aż po wydajne karty graficzne, to i intel nie chciał być gorszy.
Niejako przy okazji wejdzie w drogę Nvidii. Tym samym będzie mógł się odegrać za brak licencji na SLI....
Podobno tak ma wyglądać GeForce 9800GX2--->
nVidia trochę inaczej podeszła do sprawy niż ATI, ponieważ 9800GX2, będzie na dwóch płytkach PCB, a 3800X2 będzie miał dwa chipy, na jednej płytce PCB.
W połowie roku ma wyjść także nowy radeon o kodowej nazwie R700, i tak jak mówił NFSV fan, Ati zresztą chyba jak nVidia pójdzie w stronę wielordzeniowości, czyli np. wersja low-end, jeden rdzeń, Med-end dwa rdzenie, a high-end cztery rdzenie. Plotki głoszą że jeden chip będzie miał 300mln tranzystorów, co w prostych obliczeniach daje 1,2mld tranzystorów w wersji High-end. Układ ma być wykonany w procesie tech. 45nm.
Co do GeForca 9800GX2, ma mieć podobno 256 Stream processors, co by się zgadzało bo 2x128=256, i jeden Gigabajt pamięci.