AMD nie musi się bić z Nvidią o cyferki i wydajność. Powinni zawalczyć o segment mainstreamowy, czyli ten średnio budżetowy w przedziale 300-450 $, który interesuje najwiecej osób. To tu mogą najwiecej ugrać i dać pstryczka w nos Nvidii.
Oni? Nie sprzedawali górnikom, tylko dystrybutorom. Dystrybutorzy sprzedawali natomiast klientom, to czy ten klient był górnikiem, czy graczem różnicy dla nich nie robiło. Górnicy woleli natomiast Radeony, ze względu na lepszą wydajność w kopaniu, oraz przynajmniej początkowo, niższą cenę zakupu karty.
Ludzie zawsze wybierali Geforce, nawet jeśli AMD miało lepszą wydajność za cenę, bo Nvidia ma lepszy marketing, oraz umowy z producentami laptopów. Idę o zakład, że większość posiadaczy kart graficznych, nawet nie wie jaki konkretny model posiada, wiedzą tyle, że w reklamie było "Karta Geforce!".
AMD powinno po prostu wydać kartę o wydajności RTX 3060/4060 za 250$. Taki złoty strzał jak Polarisy 6 lat temu.
Mocno im kibicuję ale z takim złym, dużym korpo trzęsącym rynkiem jak Nvidia ciężko konkurować na równych warunkach.
Zamiast się bić w segmencie ultra premium (z kartami za 1000 dolarów i więcej), powinni zadbać o GPU dla "ludu grającego", takie za max 500 dolców. Przecież koniec końców muszą mieć jakiś rynek zbytu, bo jak nie gracze, to kto będzie od nich kupował? Jasne, są górnicy, profesjonaliści albo uczelnie czy instytuty badawcze, tylko czy to są wystarczająco stabilne i pewne źródła dochodu, by opierać na nich cały swój byt? Zwłaszcza, że z PCtowym gamingiem może być jak z pracą zdalną, tzn. jeżeli ludzie zobaczą, że da się inaczej, to mogą nie chcieć wracać do dawnego porządku. W tym kontekście może być tak, że PCtowcy przerzucą się na konsole i nie będą już chcieli grać na blaszaku, nawet jeżeli ceny kiedyś się unormują. Bo jednak high-endowy PC (ale nawet nie z najwyższej półki) za ponad 10 klocków to "trochę" dużo, w porównaniu do konsoli za 4-5 razy mniej...
Najważniejszy jest wskaźnik fps/cena. Jak na razie RTX 4090 za to ile kosztuje nie oferuje takiej wydajności jak powinien. Jak na razie każde słupki jakie oglądałem to potwierdzają. Niech AMD zaprezentuje się z tej lepszej strony, że rzeczywiście fps/cena będzie na dobrym poziomie oraz lepiej od poprzedniej generacji i więcej nie muszą robić.
Tragiczne macie te tytuły artykułów. AMD nie przyznaje, że nie ma konkurenta dla 4090. Jedyne, co powiedzieli to, że 7900 XTX nie jest konkurentem 4090 tylko 4080. AMD ma jeszcze nieogłoszonego 7950 XT (może XTX?), które już będą konkurencją dla 4090 i może Tytana (XTX)...
Czyli Henry może jednak spokojnie kupić 4090-tkę xD
To jest po prostu sprytny chwyt marketingowy. Ich topowe karty niby nie konkurują z 4090, ale to że będą go bardzo blisko, jednocześnie niszcząc 4080 16GB... Ludziom łatwiej będzie przełknąć, że konkurent 4080 także niebezpieczne zbliża się do 4090 - ba! Będą AMD całować stopy, bo to całe $600 mniej, brak topiących się adapterów, mniej prądożerne i wcale nie gigantyczne karty!
Czerwoni po prostu mają całkiem dobry dział od PRu.
Dla Amd najwazniejsze rynki to:
1. Data Center
2. Mobilny
3. Konsole
4. Desktop Pc
Dlatego nie ma co sie spodziewac cudow. Amd bez problemu mogla zrobic konkurenta dla 4090, GDC w ich kartach to zaledwie 300mm^2, gdy powierzchnia 4090 to ponad 600mm^2. Mogli spokojnie wypusic karte z GDC 500mm^2 + 6xMCD 37mm^2, karta mialaby tdp 500-550W, ale wygralaby zdecydowanie z karta nvidia w rasteryzacji, a w raytracingu bylaby co najmniej na rowni.
Amd woli wafle u TSMC przeznaczyc na procesory EPYC, gdzie gwaltownie odbieraja rynek Data Center Intelowi i gdzie maja bardzo duze marze.
4090 to taki tytan w sumie, a tutaj AMD jeżeli konkurowało to dwurdzeniowymi kartami (6990 na przykład)
No i co z tego, karty za 900 czy 1000 usd to i tak dno i żałosny trend, a tu widzę wszyscy happy, bo amd dało kartę za 900-1000 usd by konkurowała z 4080 za 900...AHA
a ja tam po kilku latach z nividią zmieniłem na RX 6600 i ultra W full HD i nic mi wiecej nie trzeba nie czekam nawet na rtx 5900 czy radeona rx 8800..zadowolony z tego co mam..chodzi nie chaczy sie płynna rozgrywka tyle mnie interesuje a najbardziej odzywają sie ci co mają 1050 ti w komputerze dziekuje
"...ta karta jest zaprojektowana, żeby konkurować z 4080, którego wydajności nadal nie znamy..."
Wydajności tj. osiągów 4080 nie znają, ale konkurencyjne GPU już zaprojektowali. Logiki tu nadmiar. Opierają się na udostępnionych parametrach RTX-a z przecieków?
Może to szansa dla Radeonów, żeby ominęły chwilowy może boom na raytracing.
Ciekawe ile schudł by w wadze i cenie RTX gdyby zamienić go na GTX i zostawić samo DLSS. Ciekaw jestem Ile jest nieużywanych modułów gdy jest RTX/Off. DLSS raczej nie potrzebuje symulacji promieni do działania, to symulacja promieni i szumy wymuszają istnienie DLSS. DLSS przypadkiem wprowadziło efektywną metodę na "level of detail" w zależności od dystansu. Symulacja promieni jeszcze nie doszła do momentu gdy się to opłaci.
Łatwo wybrać RTX/Off gdy się przyjrzy tej sytuacji z Blendera:
Cycles (Raytracing) vs Evee:
https://www.youtube.com/watch?v=tN4yrZZz8po
Ile razy karta musiałaby przyspieszyć aby opłaciła się górna wersja. Przy okazji w przypadku tej sceny finalne obrazy zbytnio się nie różnią. Jeśli obraz jest zbyt odszumiany wygląda blado i niewyraźnie, są też różne "wzorki". Nawet jeśli się wszystko wyrenderuje bez szumów to naturalne odbicia są mniej bajkowe. Bajkowe często oznacza większą epicką atrakcyjność.
No nie wiem różnica w grach szacowana jest na +-10% wydajności, a w RT trochę więcej, a wszystko za 600$, do tego nic się nie zapali :P Jak AMD pójdzie tak cenowo w mid i low end to pozamiata nvidie aż miło :) Wszystko to zasługa chipletów i nie pchanie się w najlepszy proces technologiczny.
W sumie jeśli będą dobrze wycenione to nie ma znaczenia że przegrywają z NVIDIĄ o kilkanaście procent dla większości i tak karta raczej nie do zdobycia.
Radeon ma mniejsze TDP o 100W to też trzeba zaznaczyć NVIDIA pot tym względem trochę się poprawił ale dalej niestety jest daleko w tyle.
Troszkę mi brakuje kart niskobudżetowych które pobierają mniej niz 100 W ale korzystają z nowszych procesów technologicznych. Nvidia uderza tylko w tych co gonią za fps'ami i ilością"K" na ekranie. A AMD ich goni co niby znaczy rywalizacje ale tylko na średniej i wysokiej półce.
Well póty co GT 1030 musi wystarczyć jeszcze z parę lat
Czy oni nie widzą, że większość ludzi ma GF 1050 i 1060 i ta półkę trzeba pieścic i zagospodarować, a nie 1% niszę?
To są jakieś poyeby, a nie producenci mainstreamowego sprzętu.
Najpierw się gospodaruje to co przynosi największą kasę, sprzedaż i sprzedaje ba miliony, a później się robi produkt dla bogaczy maniaków.
Teraz debile robią odwrotnie i przez to jest kryzys, wysoka inflacja i dosłownie nie ma co kupić, bo dziady nie mają ci sprzedawać.
Zamiast GF 4090 dla przedsiębiorców i bogaczy to lepiej by pokazali GF 4050/4060 i 4070 bo na to ludzie czekają, anie jaks nieopłacalny drogi złom.
AMD też debile, mogliby uderzyć od razu już w 2022 z RX 7600/7600XT/7800 I 7800CT I wyruchac Nvidie z klientów i kasy zanim ta by zdążyła wydawać swoje odpowiedniki, ale ci także gowno robią I kryzys plus inflację pompują drogimi modelami, które kupi tylko bogatą wierchuszka.
Ten rynek jest zyebany na mają, ludzie chcą czegoś innego, a producenci robią co innego, nie dziwne, że konsole mają sprzedaż po 130 mln sztuk skoro twórcy hardwaru na PC dwoją się i troją, żeby graczy wypędzić na konsole.
Nie ma oferty na 2022 dla graczy (przeciętnych, normalnych) ani Nvidia ani AMD. Zawyzone cenowo stare trupy seri 3xxx i RX 6xxx to już żadną ofertą, chyba, że minus 50% wtedy byłyby opłacalne.
AMD musi odzyskać zaufanie graczy, bo oni sprzedawali masę kart górnikom i potem nic nie zostawało zwykłym klientom, przez co mało kto posiadał Radeona.
Teraz nawet jak karta oferuje lepszą wydajność za mniejszą cenę, to gracze wybierają geforca.
Statystyki steama są miażdżące.
NVIDIA > AMD i nawet z tym nie dyskutujcie. Lepsza wydajność w RT oraz DLSS, który zamiata ten śmieszny FSR.