AMD mogłoby stworzyć konkurenta dla RTX 4090, ale nie chce
A ja bym już dawno mógł być milionerem, tylko nie chcę. :D
Co to za tłumaczenie, że "mogem, ale nie chcem"? Albo nie potrafią, albo więcej ich by to kosztowało, niż by mieli zysku. To rozumiem, a nie jakieś usprawiedliwienia z 4 liter.
Via Tenor
Rick Bergman przekazał, że produkty Radeon RX z wyższej półki cenowej zostały zaprojektowane z myślą o „zdrowym rozsądku” wobec powszechnie stosowanych zasilaczy i rozmiarów obudów komputerowych wraz z możliwościami utrzymania wewnątrz nich odpowiednich wartości cieplnych. Ponadto cena bazowa układu jakim jest RX 7900 XTX została ukierunkowana na cenę o maksymalnym progu dla przeciętnego konsumenta.
AMD mogłoby przejąć rynek najbardziej opłacalnego GPU na rynku, ale nie chce i to jest zastanawiajace.
Być może nie mogą, bo nie mają na to zgody. Prezesem Nvidii i AMD jest jedna i ta sama koreańska rodzina zamiast biznes biały z USA. Dziwne?
AMD ma nie wchodzić w drogę Nvidii, taki ma plan ww. rodzina.
Na pewno mogliby stworzyc konkurencje dla RTX 4090 pytanie po co, skoro takie karty mało kto kupuje od Nvidii a co dopiero od AMD
Na pewno więcej ludzi kupiło 4090 niż 7900 XTX i XT razem wzięte w tym samym przedziale czasowym, co istnieją na rynku radeony. Jakby do tego dodać czas między premierą 4090 a radeonami, wtedy byłoby to już kopanie leżącego
Bo po co? Lepiej niech się skupią na budżetowych kartach i trochę lepszych.
Mogliby też zrobić konkurencję Nvidi, wypuszczając relatywnie tanie i mocne GPU, ale też nie chcą... ;)
Według mnie RTX 4090 to bardzo fajna karta do zastosowań profesjonalnych. Np dla twórców gier wideo? Więc trochę dziwi że AMD tak otwarcie przyznaje że nie jest zainteresowane takim targetem. Parafoksalnie jak na możliwości to samo gpu drogie nie jest. Zresztą przynajmniej teoretycznie... Potrafie sobie wyobrazić scenariusz za 20-30 lat gdzie karty graficzne komputery a może nawet konsole byłyby np w cenie nowych samochodów. Zakładając że rynek będzie rosnąć... Tylko musielibyśmy porzucić to głupie hasełko "gra wideo" na coś bardziej realnego. Chyba najlepszym słowem byłaby symulacja? Tak naprawdę nie tworzymy gier tylko własne wirtualne światy... ujmując to od strony technicznej. Natomiast słowo "gra" wszystko spłyca właśnie do czegoś co powinno być tanie najlepiej przeznaczone dla dzieci. Bez polotu.
Ciekawi mnie czy np w kolejnym Red Dead Redemption które wyjdzie może za 7-10 lat gdyby twórcy zaimplementowali sieci neuronowe do npc... mógłbyś z nimi normalnie gadać robić różne rzeczy a samo doświadczenie byłoby na maksa wiarygodne oraz immersyjne. Nadal taki tytuł dostanie tą krzywą łatkę gry wideo?
Oczywiście nie mówię scenariusz że sprzęt do grania kosztuje kilkaset tysięcy złotych jest trochę... smutny... ale z drugiej strony tak obiektywnie co bedzie miec większą wartość dla użytkownika powiedzmy za lat trzydzieści? Samochód czy super realistyczny wirtualny świat? Gdzie tacy ludzie będą spędzać więcej czasu? Gdybyśmy jeszcze w jakiś sposób "podłączali" się do takich wirtualnych rzeczywistości... to by dopiero było.
Osobiście bardzo, bardzo liczę że kiedyś powstanie np park Westworld ale właśnie na poletku wirtualnym.
Dobre podejście. Jaki odsetek ludzi kupuje takie karty ? Idźcie do osiedlowego sklepu z akcesoriami a okaże się że najlepsza ich karta dostępna na półce będzie 3060... Myślę że jakieś 0.01% ludzi kupuje taką kartę, mowa o rtx 4080 czy 4090 do tego karty od NVIDIA są bardziej popularne. Rozumiem decyzję handlowa o tym że szkoda im po prostu kasy na robienie czegoś co będzie i tak sprzedawać się bardzo słabo. Lepiej skupić budżet na większych priorytetach.
Więcej osób kupiło 4090 niż oba nowe radki razem wzięte, więc po co zrobili serię 7 ?
Myślę że jakieś 0.01% ludzi kupuje taką kartę, mowa o rtx 4080 czy 4090 do tego karty od NVIDIA są bardziej popularne. Rozumiem decyzję handlowa o tym że szkoda im po prostu kasy na robienie czegoś co będzie i tak sprzedawać się bardzo słabo. Lepiej skupić budżet na większych priorytetach.
Nawet nie masz pojęcia jak bardzo się mylisz. To są dane z zeszłego roku. Myślę, że przez rok poprawili wynik :-)
Chcieć to pewnie i by chcieli ale prawdopodobnie nie mają lepszego pomysłu na kartę o wydajności 4090 z efektywną wydajnością energetyczną. Innymi słowy, nie mają wydajnego rywala dla takiej konstrukcji i dlatego nie podejmują rękawic.
Tak sobie właśnie próbuję przypomnieć i chyba jeszcze nigdy nie miałem nic od AMD w żadnym pececie. To zawsze jakoś była druga liga.
Via Tenor
z jednej strony dostarczyli kosmicznie dobre GPU/CPU do PS5/XBOX SX, z drugiej strony jeśli chodzi o wydajność i GPU na rynek PC to leżą w kałuży krwi i za chwilę się wykrwawią.
Bzdura, wyraźnie widać ile kosztowało ich nadganianie natywnej wydajności 4090. Te referenty, które z założenia miały być user friendly są utrapieniem nawet dla entuzjasty PC. RTX''y sprzętowo są kapitalnymi produktami. Wydajne, chłodne ciche i energooszczędne. Nowe radeony są zaprzeczeniem każdego powyższego punktu, nawet UV nie idzie zrobić więc gdzie ten potencjał? AMD myślało, że głupi klient wystraszy się nowej wtyczki oraz TGP na papierze. A ludzie podłączyli splitterki do starych zasilaczy i bawią się świetnie.
AMD mogłoby stworzyć konkurenta dla RTX 4090, ale nie chce
Taaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa...
Z wiekszosci wypowiedzi az zieje buta i niekompetencja, wiec zauwaze ze:
Karty graficzne przetwarzaja rownolegle, wiec o ile tylko jestes gdziekolwiek w okolicach konkurenta (perf/w) to zeby go przescignac wystarczy wiekszy/drozszy chip na wiekszej i ciagnacej wiecej pradu karcie - zwlaszcza! w przypadku AMD ktore ma swoje chiplety i moze skladac GPU z tylu rdzeni jaka ma fantazje.
Takze bez problemu powinien miec mozliwosc przescignac (zwlaszcza wydajnosc z bez/obcietym raytracingiem), co nie znaczy ze ma to sens, nie znaczy nawet ze produkt konkurencji z ktorym sie scigamy jeszcze tej granicy nie przekroczyl.
Nie zeby AMD bylo tutaj bohaterem - obydwie firmy cisna na sile duze i bardzo duze karty majace napelnic im portfele przy pomocy krypto gornikow i gejmingowych elyt lykajacych kazdy "konski armor". Po prostu NVidia stwierdzila ze nie musi sie przejmowac tym czy ich produkt spelnia oczekiwania rozmiarowe/energetyczne starej(tradycyjnej) klienteli. Obydwie firmy mogly by wydac low i mid endowe karty drastycznie odstajace na plus od tego co jest obecnie dostepne na rynku, zwyczajni maja to gdzies i takie grosze im smierdza.
Ta sama sytuacja co intel wciskajacy ludziom 2 rdzeniowe i7 w 2018 (o ile dobrze kojaze i7 to byl wtedy jeszcze top) "bo sie nie da", "bo dwa wystarcza do wszystkiego", "bo koszta" itp. a tak naprawde chodzi tylko o wiecei i wiecej $... To samo obecnie dzieje sie na rynku GPU - brak realnej konkurencji (obydwie firmy nie nadazaja za popytem wiec technicznie przestaly byc konkurentami) = drogie komponenty majaca sie nijak do potrzeb i oczekiwan klientow.