AMD przyznaje, że nie ma konkurenta dla RTX 4090
AMD nie musi się bić z Nvidią o cyferki i wydajność. Powinni zawalczyć o segment mainstreamowy, czyli ten średnio budżetowy w przedziale 300-450 $, który interesuje najwiecej osób. To tu mogą najwiecej ugrać i dać pstryczka w nos Nvidii.
AMD musi odzyskać zaufanie graczy, bo oni sprzedawali masę kart górnikom i potem nic nie zostawało zwykłym klientom, przez co mało kto posiadał Radeona.
Teraz nawet jak karta oferuje lepszą wydajność za mniejszą cenę, to gracze wybierają geforca.
Statystyki steama są miażdżące.
Dla Amd najwazniejsze rynki to:
1. Data Center
2. Mobilny
3. Konsole
4. Desktop Pc
Dlatego nie ma co sie spodziewac cudow. Amd bez problemu mogla zrobic konkurenta dla 4090, GDC w ich kartach to zaledwie 300mm^2, gdy powierzchnia 4090 to ponad 600mm^2. Mogli spokojnie wypusic karte z GDC 500mm^2 + 6xMCD 37mm^2, karta mialaby tdp 500-550W, ale wygralaby zdecydowanie z karta nvidia w rasteryzacji, a w raytracingu bylaby co najmniej na rowni.
Amd woli wafle u TSMC przeznaczyc na procesory EPYC, gdzie gwaltownie odbieraja rynek Data Center Intelowi i gdzie maja bardzo duze marze.
Nie wiem, czy procesy stosowane w grafikach są kompatybilne z procesorami. Ogólnie w TSMC się zrobiło tłoczno, bo Nvidia sobie wykupiła zdolności produkcyjne za gotówkę i pojawił sie Intel. AMD produkuje raczej sporo chipów w tym nowym procesie, ale to nie procesory, a MI250X. Które pewnie kosztują kilkukrotnie więcej od kart graficznych.
W kartach AMD wie, że musi walczyć ceną, bo zaniedbała swoją konkurencyjność i nawet jakby był konkurent dla 4090, to jest to gra nie warta świeczki. Bo mniejszy chip taniej sie produkuje, a uzysk tak dużych chipów nie koniecznie jest duży.
Więc teoretycznie RTX4090 będzie najmocniejszą kartą, ale głównie na papierze, w Polsce pewnie będzie w sklepach kilka sztuk.
Poza tym, przy tak wysokich mocach pojawiają się wcześniej niespotykane problemy przy kartach (jak to złącze zasilania, ale nie wydaje mi się, by to był jedyny potencjalny problem w RTX4090). Nie sądzę, też że ta karta będzie w stanie długowiecznie pracować, gdy będzie długotrwale wykorzystywana w 100%.
Poczekałbym jeszcze na niezależne testy, bo różnie w przeszłości bywało ze slajdami i TFLOPSami, ale wydaje mi się, że AMD będzie ciekawą opcją na w miarę tanią kartę, ale ja pewnie będę celował w te niższe modele.
Najważniejszy jest wskaźnik fps/cena. Jak na razie RTX 4090 za to ile kosztuje nie oferuje takiej wydajności jak powinien. Jak na razie każde słupki jakie oglądałem to potwierdzają. Niech AMD zaprezentuje się z tej lepszej strony, że rzeczywiście fps/cena będzie na dobrym poziomie oraz lepiej od poprzedniej generacji i więcej nie muszą robić.
Ale najwyższy wskaźnik fps/cena zawsze miały karty budżetowe, z najniższych półek. Za lepszą wydajność trzeba płacić nieproporcjonalnie więcej.
Karty pokroju RTX 4090 są dla ludzi z zasobnym portfelem, którzy po prostu chcą mieć najlepszy sprzęt.
Oni? Nie sprzedawali górnikom, tylko dystrybutorom. Dystrybutorzy sprzedawali natomiast klientom, to czy ten klient był górnikiem, czy graczem różnicy dla nich nie robiło. Górnicy woleli natomiast Radeony, ze względu na lepszą wydajność w kopaniu, oraz przynajmniej początkowo, niższą cenę zakupu karty.
Ludzie zawsze wybierali Geforce, nawet jeśli AMD miało lepszą wydajność za cenę, bo Nvidia ma lepszy marketing, oraz umowy z producentami laptopów. Idę o zakład, że większość posiadaczy kart graficznych, nawet nie wie jaki konkretny model posiada, wiedzą tyle, że w reklamie było "Karta Geforce!".
No tak. Przez to, że były dobre w kopaniu, to potem nic nie była dla graczy, przez co nikt ich nie kupował. AMD nic z tym nie robiło. Mogli dać jakieś głupie limity, albo cokolwiek, a oni nie robili nic.
Wcześniej wśród najpopularniejszych kart były Radeony RX580/480, a teraz nie ma nic.
Po tylu latach ten RX580 to nadal najpopularniejszy Radeon, nie licząc integry.
To 22 najpopularniejsza karta. Wszystko wyżej to same Nvidie.
Fakt jest taki, że AMD radzi sobie coraz gorzej na rynku PC, bo oni nawet powoli tracą na rynku CPU. Mieli dobry okres i teraz ludzie znowu wybierają Intela.
No nie wiem różnica w grach szacowana jest na +-10% wydajności, a w RT trochę więcej, a wszystko za 600$, do tego nic się nie zapali :P Jak AMD pójdzie tak cenowo w mid i low end to pozamiata nvidie aż miło :) Wszystko to zasługa chipletów i nie pchanie się w najlepszy proces technologiczny.
AMD nie musi się bić z Nvidią o cyferki i wydajność. Powinni zawalczyć o segment mainstreamowy, czyli ten średnio budżetowy w przedziale 300-450 $, który interesuje najwiecej osób. To tu mogą najwiecej ugrać i dać pstryczka w nos Nvidii.
Nie tak działa biznes, marketing i świat.
Każda marka każdego produktu stara się mieć coś topowego do pochwalenia się. Nawet gdy kupi to ułamek % klientów i poniesie się straty.
Dla przykładu formuła f1 gdzie pompuje się miliardy tylko po to by jakaś marka pochwaliła się najszybszym samochodem w wyścigu.
Widocznie AMD zdaje sobie sprawę, że nie ma realnej alternatywy dla bardzo mocnych układów Nvidii. Oczywiście zdaje sobie sprawę, że pewnie jakaś cześć ich inżynierów pracuje nad rewolucyjnymi rozwiązaniami, które miałaby zwrócić oczy na ich firmę ale widocznie na tu i teraz nie mają takich produktów. Mogą sobie pracował nad swoim świętym Graalem a jednocześnie dużych zysków upatrywać w innym segmencie, jak ten konsolowy, mobilny czy średnio-budżetowych GPU. Sama Nvidia też jest tu dla nich wyzwaniem, bo od lat zieloni są bardzo mocni w tworzeniu wydajnych i często rewolucyjnych rozwiązań w dziedzinie SI i grafiki komputerowej.
Zamiast się bić w segmencie ultra premium (z kartami za 1000 dolarów i więcej), powinni zadbać o GPU dla "ludu grającego", takie za max 500 dolców. Przecież koniec końców muszą mieć jakiś rynek zbytu, bo jak nie gracze, to kto będzie od nich kupował? Jasne, są górnicy, profesjonaliści albo uczelnie czy instytuty badawcze, tylko czy to są wystarczająco stabilne i pewne źródła dochodu, by opierać na nich cały swój byt? Zwłaszcza, że z PCtowym gamingiem może być jak z pracą zdalną, tzn. jeżeli ludzie zobaczą, że da się inaczej, to mogą nie chcieć wracać do dawnego porządku. W tym kontekście może być tak, że PCtowcy przerzucą się na konsole i nie będą już chcieli grać na blaszaku, nawet jeżeli ceny kiedyś się unormują. Bo jednak high-endowy PC (ale nawet nie z najwyższej półki) za ponad 10 klocków to "trochę" dużo, w porównaniu do konsoli za 4-5 razy mniej...
Czyli Henry może jednak spokojnie kupić 4090-tkę xD
henry stwierdzi że jako konsument nie chce być dymany za 30 % za dużą cene i kupi radona xD zostanie mu jeszcze hajsu na apartament
W sumie jeśli będą dobrze wycenione to nie ma znaczenia że przegrywają z NVIDIĄ o kilkanaście procent dla większości i tak karta raczej nie do zdobycia.
Radeon ma mniejsze TDP o 100W to też trzeba zaznaczyć NVIDIA pot tym względem trochę się poprawił ale dalej niestety jest daleko w tyle.
Tragiczne macie te tytuły artykułów. AMD nie przyznaje, że nie ma konkurenta dla 4090. Jedyne, co powiedzieli to, że 7900 XTX nie jest konkurentem 4090 tylko 4080. AMD ma jeszcze nieogłoszonego 7950 XT (może XTX?), które już będą konkurencją dla 4090 i może Tytana (XTX)...
4090 to taki tytan w sumie, a tutaj AMD jeżeli konkurowało to dwurdzeniowymi kartami (6990 na przykład)
NVIDIA > AMD i nawet z tym nie dyskutujcie. Lepsza wydajność w RT oraz DLSS, który zamiata ten śmieszny FSR.
Śmieszny to jesteś ty
Wielka NVIDIA która olała starsze generację kart nie dając im dodatkowych funkcji jak właśnie FSR.
mając GTX 1070 dziękuję AMD za FSR i kij w oko zielonym.
AMD miało świetne technologie chociaż by
TressFX przykład Tomb Raider 2013 i teraz porównaj sobie włosy Geralta z Hairworks Wiesiek 2015 vs TressFX Tomb Raider
Olała, bo trzeba iść do przodu, a nie tkwić na starociach sprzed 10 lat. Dodatkowo to ten FSR (na ten moment, bo w sumie jestem ciekawy 3 wersji) ustępuje technologii DLSS, gdzie 3 wersja daje tak niesamowity boost wydajności, jaki prawdopodobnie długo u AMD nie zobaczymy. A włosy.... wow, 1 technologia i co? Dało to coś AMD? :)
retruśgejmer
Jeszcze gówno wiesz
karta GTX 1660 SUPER z 2019 nie otrzymała DLSS to też stara karta XD
Po czym układy zintegrowne w prockach od AMD mają wsparcie FSR.
DLSS było zarezerwowane dla droższych kart tak Nvidia dyma swoich klientów.
To samo było G-Sync co prawda jest ciutkę lepszą technologią ale ile Nvida sobie za to brała ale przyszedł Freesync darmowy który dużo nie ustaje drogiemu G-Sync która Nvidia sobie za licencje liczyła w monitorach.
Dobra, po kolei, bo coś kręcisz.
"karta GTX 1660 SUPER z 2019 nie otrzymała DLSS to też stara karta XD"
Ale wiesz, że DLSS wykorzystuje SI w oparciu o rdzenie Tensor, których nie ma w GTX'ach, więc jak niby mieli ci to zaimplementować? XD
"Po czym układy zintegrowne w prockach od AMD mają wsparcie FSR."
Fajnie, oprócz tego że obraz jest bardziej rozmazany, ale co to ma DLSS, skoro działa tak jak wyżej napisałem?
"DLSS było zarezerwowane dla droższych kart tak Nvidia dyma swoich klientów."
Opiera się na rdzeniach Tensor. Oferuje znaczy wzrost wydajności z niewielkim pogorszeniem jakości obrazu (czasami nawet niezauważalnym, a nawet lepszym jak w, np. Death Stranding) w porównaniu do FSR (do aktualnej wersji, nie wiem jak będzie z 3), więc wytłumacz mi, gdzie tu NVIDIA dyma klientów?
"To samo było G-Sync co prawda jest ciutkę lepszą technologią ale ile Nvida sobie za to brała ale przyszedł Freesync darmowy który dużo nie ustaje drogiemu G-Sync która Nvidia sobie za licencje liczyła w monitorach."
Brała ile chciała, więc z czym masz problem? Chciałeś Free-Sync to brałeś. Ktoś, kto był bardziej majętny brał G-Sync i tyle :)
retruśgejmer
A tak dyma że do tańszych kart nie dali żadnej technologii zastępczej skalowania dobrze że karty korzystają z otwartej technologi AMD.
Taka dobra Nvidia nie dała rdzeni trensor do kart tańszych to już AMD dało wsparcie Raytracing do tanieego modelu 6500Xt
Xd
Oczywiście u NVIDIA trzeba wydać kupę kasy by dostać technologie .
No i ostatnie zdanie jest śmieszne
Brała ile chciała, więc z czym masz problem? Chciałeś Free-Sync to brałeś. Ktoś, kto był bardziej majętny brał G-Sync i tyle :)
No i oto cała NVIDIA i rozumowanie wiernych
Fresync wyszedł później gdyby nie AMD i darmwo technologia NVIDIA dalej rypala by klientów.
Lecimy dalej.
"A tak dyma że do tańszych kart nie dali żadnej technologii zastępczej skalowania dobrze że karty korzystają z otwartej technologi AMD."
Gdzie FSR to syf, który rozmazuje obraz, więc lepiej korzystać z rozwiązań, które są zaimplementowane w grach :)
"Taka dobra Nvidia nie dała rdzeni trensor do kart tańszych to już AMD dało wsparcie Raytracing do tanieego modelu 6500Xt
Xd"
A czy czasem 6500 XT nie miał właśnie rdzeni pod raytracing, hmm? Zresztą ja ci pisałem jak to wygląda z DLSS. Zaimplementowali po swojemu, a to że wymaga rdzenie to taka ich wola ;)
"Oczywiście u NVIDIA trzeba wydać kupę kasy by dostać technologie ."
Jeju.... i co ja mam ci na to poradzić? Też mnie ceny bolą, ale...
"No i oto cała NVIDIA i rozumowanie wiernych"
No i co jest nie tak tutaj, hmm?
"Fresync wyszedł później gdyby nie AMD i darmwo technologia NVIDIA dalej rypala by klientów."
Ale przyznam, że ogólnie konkurencja jest potrzeba, bo gdyby nie AMD to faktycznie byłby tylko G-Sync ;P
Głupoty gadasz i tyle. FSR 2 nawet w trybie zrównoważonym wcale nie wygląda zauważalnie gorzej niż natywna rozdzielczość. Zwykłe skalowanie rozdzielczości w grach nie ma nawet startu do FSR. Każda nowa gra powinna mieć przede wszystkim wsparcie dla FSR, dopiero potem DLSS. Jeżeli nie ma tego wsparcia to straszny syf i oznaka tego, że Nvidia słono zapłaciła.
Zaimplementowali po swojemu, a to że wymaga rdzenie to taka ich wola ;)
No właśnie, taka ich wola dymania klientów. A DLSS 3 to już w ogóle jakiś kosmos i zupełnie nowy poziom dymania. AMD pod tym względem ich miażdży.
"Głupoty gadasz i tyle. FSR 2 nawet w trybie zrównoważonym wcale nie wygląda zauważalnie gorzej niż natywna rozdzielczość. Zwykłe skalowanie rozdzielczości w grach nie ma nawet startu do FSR."
Właśnie, że wygląda. Jeśli chcesz mieć mniej więcej jakość obrazu taką jak w natywnym to musisz dać na Jakość lub Ultra Jakość. Bez tego masz rozmazany obraz jak mydło, czego nie uświadczysz po włączeniu DLSS.
"Każda nowa gra powinna mieć przede wszystkim wsparcie dla FSR, dopiero potem DLSS. Jeżeli nie ma tego wsparcia to straszny syf i oznaka tego, że Nvidia słono zapłaciła."
Nie mój drogi. To już zależy od developera i ja osobiście wolę najpierw DLSS (szczególnie wersję 3), a potem FSR (przez który obraz jest rozmazany jak mydło),a jeśli ktoś ma słabiutki sprzęt to sory, ale FSR nawet na Utra Performance mu nie pomoże :)
"No właśnie, taka ich wola dymania klientów. A DLSS 3 to już w ogóle jakiś kosmos i zupełnie nowy poziom dymania. AMD pod tym względem ich miażdży."
Nowy poziom dymania, bo NVIDIA rozwija tę technikę po swojemu z wykorzystaniem rdzeni Tensor z uczeniem maszynowym? A zdajesz sobie sprawę, że 4090 ma specjalną architekturę, na której DLSS 3 rozwija skrzydła (widziałeś ten boost wydajności po włączeniu? Żadna inna technika takiego skoku nie oferowała)? Trzeba iść do przodu, a nie ograniczać się do starszych kart graficznych. I jasne, na starszych RTX pewnie też by poszło, ale efekt byłby pewnie podobny jak po włączeniu raytracingu na kartach GTX. Więc nie wiem o co ten płacz, drogi kolego :P
AMD to musi być teraz bezpieczny, bo przez lata byli dymani i przez Intela (lepsze procki) i po dziś dzień NVIDIĘ (lepsza wydajność w grach, w RT oraz DLSS, który rozwala FSR) :)
AMD powinno po prostu wydać kartę o wydajności RTX 3060/4060 za 250$. Taki złoty strzał jak Polarisy 6 lat temu.
Mocno im kibicuję ale z takim złym, dużym korpo trzęsącym rynkiem jak Nvidia ciężko konkurować na równych warunkach.
Dokładnie, czemu mieliby wydawać taką tanią kartę? Za 400 dolców też byliby tani.
Sensowne karty AMD w tej generacji się zaczynały od 6600, który kosztował $330 na premierę, obecnie do dostania okazyjnie za ~280.
Myślę, że 7600 spokojnie przebije 3060, a z 4060 będzie walczył ceną oferując podobną wydajność poza RT. Na $250 bym nie liczył, ale to nadal będzie bardzo opłacalna karta ze średniej półki, pewnie za jakieś $350. Chyba, że AMD sobie pokpi z tego segmentu.
Troszkę mi brakuje kart niskobudżetowych które pobierają mniej niz 100 W ale korzystają z nowszych procesów technologicznych. Nvidia uderza tylko w tych co gonią za fps'ami i ilością"K" na ekranie. A AMD ich goni co niby znaczy rywalizacje ale tylko na średniej i wysokiej półce.
Well póty co GT 1030 musi wystarczyć jeszcze z parę lat
Well póty co GT 1030 musi wystarczyć jeszcze z parę lat
Matko Bosko :O
Wolałbym sobie przystawiać do brzucha rozżarzony pręt ze wzorem o kształcie fallicznym...
Chodź, cię chociaż przytulę...
Zdaje się, ze dedykowanych kart tego typu już raczej nie będzie. Integry mocno skoczyły w wydajności, więc raczej nie ma sensu produkować karty dla kogoś, kto chce minimalnie lepszej wydajności.
Well póty co GT 1030 musi wystarczyć jeszcze z parę lat
Przecież ta karta nie wystarczała do niczego już w chwili premiery.
Oj tam oj tam . Pracę magisterską można napisać na 1030. Dodatkowo jest świetna podstawką pod herbatę.
Czy oni nie widzą, że większość ludzi ma GF 1050 i 1060 i ta półkę trzeba pieścic i zagospodarować, a nie 1% niszę?
To są jakieś poyeby, a nie producenci mainstreamowego sprzętu.
Najpierw się gospodaruje to co przynosi największą kasę, sprzedaż i sprzedaje ba miliony, a później się robi produkt dla bogaczy maniaków.
Teraz debile robią odwrotnie i przez to jest kryzys, wysoka inflacja i dosłownie nie ma co kupić, bo dziady nie mają ci sprzedawać.
Zamiast GF 4090 dla przedsiębiorców i bogaczy to lepiej by pokazali GF 4050/4060 i 4070 bo na to ludzie czekają, anie jaks nieopłacalny drogi złom.
AMD też debile, mogliby uderzyć od razu już w 2022 z RX 7600/7600XT/7800 I 7800CT I wyruchac Nvidie z klientów i kasy zanim ta by zdążyła wydawać swoje odpowiedniki, ale ci także gowno robią I kryzys plus inflację pompują drogimi modelami, które kupi tylko bogatą wierchuszka.
Ten rynek jest zyebany na mają, ludzie chcą czegoś innego, a producenci robią co innego, nie dziwne, że konsole mają sprzedaż po 130 mln sztuk skoro twórcy hardwaru na PC dwoją się i troją, żeby graczy wypędzić na konsole.
Nie ma oferty na 2022 dla graczy (przeciętnych, normalnych) ani Nvidia ani AMD. Zawyzone cenowo stare trupy seri 3xxx i RX 6xxx to już żadną ofertą, chyba, że minus 50% wtedy byłyby opłacalne.
GF 4090 GF 4050/4060 i 4070
faktycznie - niektórzy aż TAK bardzo żyją jeszcze zamierzchłą przeszłością....
No i co z tego, karty za 900 czy 1000 usd to i tak dno i żałosny trend, a tu widzę wszyscy happy, bo amd dało kartę za 900-1000 usd by konkurowała z 4080 za 900...AHA
by konkurowała z 4080 za 900...AHA
Prawie trafiłeś
a ja tam po kilku latach z nividią zmieniłem na RX 6600 i ultra W full HD i nic mi wiecej nie trzeba nie czekam nawet na rtx 5900 czy radeona rx 8800..zadowolony z tego co mam..chodzi nie chaczy sie płynna rozgrywka tyle mnie interesuje a najbardziej odzywają sie ci co mają 1050 ti w komputerze dziekuje
"...ta karta jest zaprojektowana, żeby konkurować z 4080, którego wydajności nadal nie znamy..."
Wydajności tj. osiągów 4080 nie znają, ale konkurencyjne GPU już zaprojektowali. Logiki tu nadmiar. Opierają się na udostępnionych parametrach RTX-a z przecieków?
Myślę, ze obie firmy mniej więcej znają swoje wzajemne możliwości, oraz to jaki postęp dokonują w osiągach. Tak długo, jak ktoś nie wyskoczy z jakąś turbo technologią, która kompletnie zmieni oblicze tworzenia kart, tak długo da się przewidywać wzrosty wydajności. Jakbym ci powiedział, że kolejna seria kart Nvidii, będzie o 15% wydajniejsza o obecnej serii, to jakie byś mi dał szanse? Bo ja sobie dałbym całkiem spore, a nie mam dokładnych danych.
Może to szansa dla Radeonów, żeby ominęły chwilowy może boom na raytracing.
Ciekawe ile schudł by w wadze i cenie RTX gdyby zamienić go na GTX i zostawić samo DLSS. Ciekaw jestem Ile jest nieużywanych modułów gdy jest RTX/Off. DLSS raczej nie potrzebuje symulacji promieni do działania, to symulacja promieni i szumy wymuszają istnienie DLSS. DLSS przypadkiem wprowadziło efektywną metodę na "level of detail" w zależności od dystansu. Symulacja promieni jeszcze nie doszła do momentu gdy się to opłaci.
Łatwo wybrać RTX/Off gdy się przyjrzy tej sytuacji z Blendera:
Cycles (Raytracing) vs Evee:
https://www.youtube.com/watch?v=tN4yrZZz8po
Ile razy karta musiałaby przyspieszyć aby opłaciła się górna wersja. Przy okazji w przypadku tej sceny finalne obrazy zbytnio się nie różnią. Jeśli obraz jest zbyt odszumiany wygląda blado i niewyraźnie, są też różne "wzorki". Nawet jeśli się wszystko wyrenderuje bez szumów to naturalne odbicia są mniej bajkowe. Bajkowe często oznacza większą epicką atrakcyjność.
To jest po prostu sprytny chwyt marketingowy. Ich topowe karty niby nie konkurują z 4090, ale to że będą go bardzo blisko, jednocześnie niszcząc 4080 16GB... Ludziom łatwiej będzie przełknąć, że konkurent 4080 także niebezpieczne zbliża się do 4090 - ba! Będą AMD całować stopy, bo to całe $600 mniej, brak topiących się adapterów, mniej prądożerne i wcale nie gigantyczne karty!
Czerwoni po prostu mają całkiem dobry dział od PRu.
A ja się założę, że nawet 3090 będzie szybszy od XTX , o XT nie wspominając.
Przyjmuję twój zakład Hydro. Proponuję proste zasady. Zakładamy się o komputer. Po premierze sprawdzimy "10-15 game average" na którymś z wiarygodnych kanałów (Hardware Unboxed, Gamers Nexus) i porównanie RX 7900XTX i RTX 3090.
Jeśli wydajniejszy będzie 3090 dostaniesz mojego PCta. Podasz adres, a ja wyślę i zrobisz z nim co zechcesz. Ba, stawiam też oba swoje ekrany, pograsz sobie w końcu w prawdziwym 4K z HDRem.
Jeśli jednak wydajniejszy okaże się 7900XTX to wysyłasz mi swojego złomka. Zrobię na forum jakiś konkurs/losowanie i oddam zwycięzcy.
Mówię całkowicie serio. Masz odwagę żeby się założyć czy tak tylko mielisz jęzorem? :)
Warto chyba doprecyzowac, ze chodzi o wydajność RT off. Bo z RT to faktycznie 3090 może być szybsze w niektórych grach…
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/