Dzięki za wiadomość, już poprawiam błędy.
Również liczyłem na więcej informacji porównawczych, szczególnie z kartami Nvidii. Niestety trzeba będzie na nie jeszcze poczekać.
Karty idealne do grania w 4k ze wszystkimi ustawieniami na maksa, no może trochę z raytracingiem będą problemy, ale ta opcja mniej najmniej obchodzi akurat.
Na Reddicie wysnuto wnioski na bazie danych z prezentacji AMD i testów Techspotu - podano średnią liczbę fps dla 13 gier w 4K:
So stack will probably look as follows for raster
- 4090 144 fps ($1,600)
- 7900XTX 131 fps ($999)
- 7900XT 115 fps ($899)
- 4080 16 110 fps ($1,200)
- 4080 12 90 fps ($900) - or whatever it's renamed to
For RT it might be more like (I did raster * 0.65 for NV and raster * 0.5 for AMD here)
- 4090 94 fps ($1,600) 66 fps with new scaling
- 4080 16 72 fps ($1,200) 51 fps with new scaling
- 7900XTX 65 fps ($999) 41 fps with new scaling
- 4080 12 59 fps ($899) 41 fps with new scaling
- 7900XT 55 fps ($899) 37 fps with new scaling
Jeśli AMD dowiezie, to oferta jest super.
Wkradło się kilka błędów - zamiast rtx 4090 jest "4900" a zamiast 899 $ jest "899%"
Co do samych kart to wygląda to naprawdę fajnie, topowa karta sporo tańsza od 4080, o 4090 nie mówiąc. Pytanie jak się to ma do wydajności... Na plus na pewno pobór prądu.
Dziwi mnie tylko to nazewnictwo. Początkowo "XT" robiło za coś w rodzaju "Ti" od Nvidii. Potem używali jeszcze "50" a teraz dodali "XTX".... Nie za dużo aby tych dodatków? Wolałbym gdyby dawali po prostu seria kart, półka cenowa oraz XT dla podrasowanych wersji. Ewentualnie "50" dla odświeżonych układów plasujących się pomiędzy wcześniej wydanymi. To XTX to już moim zdaniem przesada.
Ale to drobiazg, ważne żeby same karty były dobre...
Hmmmm. 7900 XTX ma być za około 6tys - za tyle można teraz dostać 3090Ti.
Zastanawiam się co wybrać, bo znając życie to w dniu premiery w polskich sklepach, Radeony będą miały zawyżone ceny, plus trzeba będzie czekać oraz fajnie by było w końcu olać Nvidię za to co ostatnio odwala.
I jak z wydajnością topowego modelu amd w porównaniu z topowym modelem nv?
Ja tam celuję w jak najpłynniejsze 1080p (przy 23 calowym monitorze więcej mi nie trzeba), a RT mi wisi, także RX 7900 XT powinien być niezłym wyborem na kilka najbliższych lat, lepszym niż np. RTX 4080 czy cokolwiek z serii RTX 30XX.
Ja wiem, że prawie 1000$ za kartę to jest jakiś absurd cenowy, który ciężko zaakceptować rozsądnemu człowiekowi, ale w porównaniu z Nvidią wypada nadzwyczaj dobrze. Szczególnie dla osób, które nadal uważają RT bardziej jako ciekawostkę niż coś potrzebnego.
Jeżeli dobrze policzyłem, XTX będzie na poziomie RTX3080Ti (1.5 razy większa wydajność w raytracingu od poprzedniej generacji). Czyli niestety "słabo" - bo w sumie nic nie zmieniło się w kwestii cena/FPS.
Uuuu trochę wtopa AMD. Zrobili marketingowy zakłamanie, zupełnie jak Nvidia w 3 generacji.
Z wydajnością w 8K przekłamali - w endnote podali jakiej użyli rozdzielczości, i nie było to 8K (7680 x 4320 pikseli) lecz ultrawide "8K" (7680 x 2160) - czyli połowa pikseli potrzebnych do wyświetlenia. To w sumie wyjaśnia skąd w Call of Duty wyciągneli takie kosmiczną ilość FPSów.
Ładnie to wyjaśnił Gamers Nexus (od 06:05):
https://www.youtube.com/watch?v=pAUxrWCZV50&t=413s
ja jestem ciekaw na ile fsr 3 poprawi jakośc . bo wydajność i tak już spox ważniejsze aby mydło zmyli. bo wygląda to spoko dopiero na 8k. Wtedy różnica się załamuje. do dlss brakuje sporo. ale skoro nowa aktualizacja może nie będzie to problem. planuje zakup za 999. jeszcze trzeba zlokać bo 50 % rt względem starej seri to dalej w tyle za nvidią. ale przynajmniej tu dostaniemy czystą moc za normalną cenę,. i to jeszcze 24 gb w zapasie . no ja jestem zadowolony. teraz tylko jak mówie ten software jak to będzie wyglądało na 3 generacji. i czy fsr 3.0 dostaną wszystkie gry z 2.0
" RX 7900 XTX i RX 7900 XT uwzględniają teraz akceleratory AI, co sugeruje, że FSR 3.0 może je wykorzystać. AMD wciąż jednak nie mówi o tym konkretnym szczególe.
Zapytany o FSR 3.0 i jego potencjalne wykorzystanie AI przez Jarreda Waltona z Sprzęt Toma, Kierownictwo AMD odpowiedziało po prostu: „Obecne wersje FSR nie wykorzystują uczenia maszynowego”.Niech zaczną xD
a tu co innego https://youtu.be/_3Z8Ba6mrl4