Wiemy, kiedy RTX-y 50 mogą trafić do sklepów. Generację otworzy RTX 5080
Czas na opłacenie teraz twórców by znowu narobili bałaganu w kodzie by obecne karty przestały być w rekomendowanych tylko minimalnych bo chyba nie powiecie mi, że mamy ostatnio taki skok jakości że trzeba kupować znowu nową kartę. Wiele rzeczy wcześniej prezentowanych przez powiedzmy UE to jakby były nie wykorzystywane w pełni, pokazał to jedynie Batman Arkham Knight który bardzo bliski był jakości tech dema Samarytanin. A potem zastój tylko wymagania wzrastały.
O widzisz czyli w pierwszej kolejności idzie na sprzedaż odpad poprodukcyjny po 5090. Mogą zagrozić, że jak nie sprzedadzą wszystkich 5080 to nie wydadzą 5090.
Czyli najpierw opchną napalonym 5080, a potem ci sami napaleni, by mieć absolutny top, po pół roku wymienią kartę na 5090.
W sumie kto by nie korzystał na miejscu pana kurteczki, mając takich wiernych klientów?
Nikt kto ma obecnie 4090 czy nawet 4080 nie kupi 5080, bo wg przecieków będzie on mniej więcej na poziomie 4090 lub trochę poniżej.
Czas na opłacenie teraz twórców by znowu narobili bałaganu w kodzie by obecne karty przestały być w rekomendowanych tylko minimalnych bo chyba nie powiecie mi, że mamy ostatnio taki skok jakości że trzeba kupować znowu nową kartę. Wiele rzeczy wcześniej prezentowanych przez powiedzmy UE to jakby były nie wykorzystywane w pełni, pokazał to jedynie Batman Arkham Knight który bardzo bliski był jakości tech dema Samarytanin. A potem zastój tylko wymagania wzrastały.
Mam RTX 4090 i jakoś nie widzę sensu zakupu RTX 5090. Do 3440x1440 póki co RTX 4090 daje radę, wszystko na ultra +110 FPS-ów. Najpewniej skuszę się na RTX 6090 - ale tylko wtedy, gdy wejdzie w obroty kolejna nowa technologia pokroju FG dla kart 40XX w górę. W innym wypadku też trochę nie widzę sensu.
Wymagania gier nie rosną okrutnie, nie ma na rynku gier pokroju Crysis, które w dniu premiery miażdżyły wszystko i oferowało zjawiskową grafikę. Jest widoczny przestój graficzny, nic nie powoduje opadu szczęki, kompletnie nic z powodu wizualiów nie tłumaczy zakupu topowej grafy do kompa.
Ja rozważę zakup 5090 po wynikach benchmarków. Fajnie byłoby mieć top w 4k z RT bez sztucznych ulepszaczy. Różnica przy wymianie to pewnie z 3-4tys
Ja mam GTX 1060 i da się na tym grać w nowe gry, co prawda w minimalnych ale i tak wygląda to dobrze.
"Wymagania gier nie rosną okrutnie, nie ma na rynku gier pokroju Crysis, które w dniu premiery miażdżyły wszystko i oferowało zjawiskową grafikę. Jest widoczny przestój graficzny, nic nie powoduje opadu szczęki, kompletnie nic z powodu wizualiów nie tłumaczy zakupu topowej grafy do kompa." Serio? no to chyba nie grałeś w ARK survival ascended... Gra na low wygląda super a na ustawieniach epic miażdży wszystko co do tej pory widziałem a jeszcze jak masz monitor z HDR i włączysz go w tej grze (posiadam samsung odyssey G6 G60SD) to grafika taka jakbyś wyjrzał za okno. Fotorealizm. Wymagania wysokie bo żeby pograć na absolutnych max detalach to trzeba mieć RTX 4070 lub wyżej. Ja posiadam RTX 3090 i jak odpalę na full to średnio 20 FPS jest ale grafika taka że o ja cię. Opad szczęki i ślinotok.
nfsfan6
ty masz jakies zaburzenia estetyczne skoro nie widzisz jak obskurna jest ta gra. do tego jeszcze hejcisz DLSS, lol. screen jest z youtuba, typie
Masz tu jest link do filmu z którego dałeś screena. Znalazłem ci go bo pewnie przerosłoby to twoje umiejętności.
Wymagania gier nie rosną okrutnie, nie ma na rynku gier pokroju Crysis, które w dniu premiery miażdżyły wszystko i oferowało zjawiskową grafikę.
4090 Dostaje zadyszki przy nowym Indiana. 30-40 klatek maks. Ale nadal nie wiem, czy to lenistwo autorów gry, optymalizacja. Czy po prostu poniosło ich wszystkich i nawalili z dodawaniem różnych efektów.
no i wyglada paskudnie na tym filmie. niedorobiony syf. po co ja w ogole rozmawiam z typem ktory monitor 1440p nazywa monitorem "2K" https://en.wikipedia.org/wiki/2K_resolution i jeszcze zamiast uzyc DLSS to odpala gre na tym monitorze w 1080p? dla takich nieogarow sa konsole i telefony, a nie komputer
Znalezione w necie przed chwilą : "Innym określeniem rozdzielczości 1440p jest 2K, choć jest to mniej oficjalna nomenklatura, jednak wciąż w użyciu i całkowicie poprawna" więc ci nie wyszło nieogarze...
a co ja mam odpisywac typowi ktory nie zna absolutnych podstaw i np. upiera sie ze 2K to poprawna nazwa na rozdzielczosc 1440p bo jakis copywriter na minimalnej napisal na jakims morele ze to jest poprawne, lol. przypomnial mi sie kolega ktory sie upieral ze gtx 970 jest szybsze czy tam nowsze od gtx 1070. jak z takim typem mozna w ogole dyskutowac? rozmowa jak z szurami od konfy, elona, trumpa, bitcoina itp.
dalem ci nawet artykul na wikipedii, ktore mowi czym jest 2K - nie dociera. to jest jak proba przekonania braunistow ze braun jest prorosyjski. podasz mu dziesiatki przykladow na prorosyjskosc brauna, a do szurow to i tak nie dotrze. https://wykop.pl/wpis/79521865/szuryzglownej-pomyslal-napisal-wstawil-bekazprawak
nie nie tylko jakiś copywriter na morele tak napisał. Kolejna strona w necie : "Rozdzielczości 1440p i 2K są niemal identyczne . Terminy te są używane zamiennie w odniesieniu do rozdzielczości 2560 x 1440. Tak więc jeśli chodzi o monitory lub telewizory, nie ma faktycznej różnicy między wyświetlaczem 2K a wyświetlaczem 1440p. Oba oznaczają rozdzielczość 2560 x 1440 pikseli." Jeszcze wiele stron twierdzi to samo. No ale ty twierdzisz że ty masz rację bo wikipedia tak twierdzi... Brawo ty. Nie dociera...
Ja skusiłem się na 4080 premierowo, bo zwyczajnie mój mózg nie był w stanie przeskoczyć psychologicznej bariery 10K za 4090, ale dość szybko zacząłem tego żałować. Nie zmienia to faktu, że 4080 i tak daje radę i jeszcze długo będzie.
A zyskalbys coś względem tej 4080? Na tyle żeby dopłacać do 4090? Moim zdaniem 4090 to dla tych ze stałymi dochodami przynajmniej te 30k netto
A ja jestem zadowolony z mojej używanej 3090 za 2800PLN kupionej po załąmaniu krypto w 2022 :)
Bardzo mądre biznesowe posunięcie. Ta karta jest beznadziejna w stosunku cena/wydajność więc puszczają ja pierwsza żeby się pozbyć tego jak najwięcej. Potem wejdą jedyne 2 sensowne karty - 5090 dla napalonych i 5070ti jako tańsza kopia 5080
O to to, tego samego zdanai jestem. I jak narazie najlepiej zapowiada się 5070 ti, ale nie ma się co oszukiwać, bo pewnie będzie niewiele tańsza od 5080 z racji bardzo małej róznicy w wydajności.
Przymierzałem się do 4080, ale na razie przymiarki wstrzymane. Zobaczymy co pokaże nowa generacji i przede wszystkim za ile.
5080 nie kupię w premierowym szale. Bo to jest trochę jak ruletka. Praktyka pokazuje, że trzeba przeczekać grzechy młodości. Jak na przykład palące się konektory lub pękający laminat.
Tej, niespodzianka, zapychacz chcą wepchać w pierwszej kolejności, najpewniej najmniej opłacalna karta w ich obecnym zestawieniu, przyznam szczerze, że liczyłem na różnicę w vram pomiędzy 5080 a 5070ti, niestety przy tym co obecnie wiemy sugerując się latami poprzednimi, wynika, że za pół roku, może rok wyjdzie jakiś z 80ti z 20-24gb vramu, więc nie chcąc zbijać ceny 4090 w dół, nvidia jak zwykle wybzykała graczy na wydajności, bo nie dam wiary, że z 16gb vramu, ta karta będzie lepszą inwestycją niż last gen top z 24gb.
NV i AMD te swoje karty z mniej niż 12GB VRAM niech sobie w cztery litery wsadzą. Ale widać, że już nikt nie popełni błędu jak z 1080 Ti. I puszczą słabe karty(ilość vram, szyna pamięci) żeby utorować drogę następnej generacji. To celowa segmentacja rynku: NVIDIA i AMD wprowadzają różnice między modelami (np. wersje xx50, xx60, xx70, xx80), aby zmusić użytkowników do wydania więcej pieniędzy na wyższe modele, jeśli chcą mieć pewność, że karta przetrwa dłużej.
Wygląda na to, że sytuacja raczej się nie zmieni, bo producenci kart graficznych traktują użytkowników bardziej jak "abonentów" niż właścicieli sprzętu na lata. Warto czekać na odpowiednie promocje lub wybierać karty o wyższej specyfikacji, które nie zostaną szybko wykluczone z nowoczesnych gier. Dobrze, że jest trzeci gracz Intel na rynku GPU.
Jak 5080 będzie za 7K na premierę to po prostu biorę 4080 za te 4,5k. A swoją drogą chorych czasów dożyliśmy... dla mnie największym przełomem w kartach graficznych było przejście z Gtx seri 9 na 10 gdzie skok był kolosalny, pamiętam przejście z GTX-a 970 4GB na GTX1070TI 8GB i wzrost ok 50% teraz co się dzieje z kartami to żart....
Kazimir - skok jest dokładnie taki sam. Tylko nie zwróciłeś uwag na to.
Biorąc pod uwagę wykręcone zegary + sprawność rdzeni to 5080 będzie deptać po piętach 4090. Jeśli nic nie dodadzą z nowych technologii jak wspominane wsparcie AI w renderingu to 4090 dalej będzie ze względu na v.ram ciekawszym GPU. Za to 5090 to zapewne odskoczy od 4090 o jakieś ok. 50% (sprawność, zegary oraz ilość samych rdzeni).
Przecież wtedy wejdzie 4 090 po tyle samo złotych co .... nazwa karty. Nikt o zdrowych zmysłach nie wyda 3000 zł więcej tylko po to żeby mieć nowszą generację i mieć mniej v- RAM, a kartę na tym samym poziomie
Gdyby te VRAM miały jeszcze jakieś znaczenie, wydajność będzie taka jak będzie miała być i to bez znaczenia jaką te karty graficzne mają specyfikację na papierze.