RTX 4060 Ti z pełną specyfikacją, zaskoczenia brak
Tak powinien prezentować się model 4050.
Przecież to wstyd jako średni przedstawiciel 3ciej generacji RTX. Tysiąc zl bym nie dal za to.
Oni specjalnie postarzają jeszcze nie wydany sprzęt dając 8gb vram aby za rok znowu lecieć do sklepu po kartę z serii 5xxx.
Jakbym miał teraz kupować kartę do mniej więcej 2k zł to w grę wchodziłby tylko RX 6700XT.
Karty NV w tym przedziale przez mały Vram są bezużyteczne.
Tak powinien prezentować się model 4050.
Przecież to wstyd jako średni przedstawiciel 3ciej generacji RTX. Tysiąc zl bym nie dal za to.
Juz w poprzednich generacjach udowodniono ze 8gb to za malo i nawet karty pokroju 3060 maja znaczny wzrost wydajności na 12gb+, wiec oferowac wydajniejsze karty z takim pojemnościami to żart i kpina...
Oni specjalnie postarzają jeszcze nie wydany sprzęt dając 8gb vram aby za rok znowu lecieć do sklepu po kartę z serii 5xxx.
Jakbym miał teraz kupować kartę do mniej więcej 2k zł to w grę wchodziłby tylko RX 6700XT.
Karty NV w tym przedziale przez mały Vram są bezużyteczne.
DLSS3 pewnie jest tu kluczowy - tu można zyskać wydajność w odniesieniu do starszej generacji.
Jak ktoś mówi o GTX to chyba warto pomyśleć o AMD - które ma rozwiązania bliższe tym z GTX. Jednak przez presję Nvidii też tracą siły na RT On. RT On za mało daje, za dużo zabiera. Trzeba podkreślić, że nie ma jeszcze rozwiązania, które nie zabiera gdzie indziej jakości gdy do dyspozycji jest RT On.
RT On ma sens w grach retro, gdzie jest sytuacja taka:
- wymagania gry nieodnowionej to
100Mhz 64Ram
- gra odnowiona przez RT On:
RT On 1GHz i 1GbRam.
To nic, że jakość obrazu wzrosłaby jedynie o 20%. I tak każdego byłoby na to stać.
Poza tym na korzyść AMD:
FSR jest niby gorsze od DLSS, ale... FSR raczej będzie chodzić na każdej nawet starej karcie w tym GTX w przeciwieństwie do DLSS.
Problem pojawił się szybko jeszcze rok temu 8GB by przeszło teraz to już nieporozumienie i nadaje się do RTX4050 za max 1200-1300zł
Vram dość długo w grach nie wzrastał gdyby tak przypatrzeć się na lata 2004-2014 to mamy wzrost z 32 do 2000Mb ( ilokrotnośc jest ogromna )
od 2014 do teraz mamy z 2 GB zaledwie do 16 GB ( Tutaj już zaledwie 8 razy)
Jeśli policz
Potwierdzenie jako pierwsze z rosyjskiego sklepu, gdzie Rosjanie mieli być odcięci od dostaw? Rozumiem, że obchodzą sankcje, biorą towar przez Turcję czy Indie, ale chyba wziąłbym na wstrzymanie i poczekał na pewniejsze źródło niż Rosjanie.
Jakby to "cudo" kosztowało do ok. 1200-1500 zł, to jeszcze można by je potraktować jako w miarę sensowne GPU do 1080p, choćby z uwagi na DLSS3, który jednak sporo daje w zakresie płynności. W tej rozdziałce mało VRAM i szyna 128 bit nie powinny aż tak przeszkadzać (oczywiście z wyłączonym RT) i karta mogłaby posłużyć ze 2-3 lata.
No ale znając życie, cena wyniesie pewnie ok. 2300-2500 zł za FE (bo VAT + "frajerne"), a za sensowny model od MSI, Gigabyte czy Asusa (a nie głośne i awaryjne g*** od Palita czy Zotaca) to trzeba będzie pewnie dać bliżej 4 niż 3 tysięcy...
Via Tenor
Eee... Już wolę RTX 4070 12 GB i to za niższa cena niż 2000-2500 zł. Poczekam za 1-2 lata. Chociaż na RTX 5060.
Żaden z serii RTX 4000 nigdy nie kupuję za takie ceny. To jest rozbój w biały dzień.
Ok ja rozumiem DLSS i tak dalej ale moja RTX 2070 Super ma 8GB GDDR6 ale na szynie 256bit. Niby czemu ta karta ma być lepsza niż moja?
FG dużo tu daje. To jest ich główny feature. Możesz mieć lepszą kartę w czystej rasteryzacji i bardzo wydają ale która nie obsługuje tych nowych super pierdół od zielonych i tym samym wyjdzie gorzej w testach i ogólnej wydajności. Oni na to liczą, że ludzie im na to pójdą. Jak AMD dopracuje swoje FSR, to będą robić tak samo, choć tu prym wiedzie Nvidia. A tym bardziej, że przeciętny zjadacz chleba prawdopodobnie w ogóle nie zobaczy, że ma grę włączoną z DLSS 3.0 a nie w natywnej rozdzielczości bez żadnych wspomagaczy. Ludzie piszą, ze teraz to jest przyszłości i nie ważna będzie czysta wydajność układu ale sterowniki i oprogramowanie, które zrobi cuda. Ja się nie znam i nie wiem, czy tędy droga.
Ja mam stabilne 60 FPS bez tych cudów w nowych kartach. RT wyłączam bo różnicy wielkiej w wyglądzie nie widzę za to fps spadają. Czyli z wymianą karty można poczekać bo wymieniać 8GB VRAMu na 8GB VRAMu na gorszej szynie ale z wodotryskami?
Niby czemu ta karta ma być lepsza niż moja?
Bo technologia idzie do przodu, a ty masz starą grafe :P Do tego kto wyda 2.5 koła na grafe do 1080p only w tych czasach?
Testy Pure.pl, jeśli chodzi o RTX 4070.
https://www.purepc.pl/premiera-nvidia-geforce-rtx-4070-test-wydajnosci-karty-graficznej-czy-bedzie-szybsza-od-geforce-rtx-3080-ti
Dla porównanie:
Cyberpunk 2077 + RT Ultra (nie Overdrive) + 1920x1080
RTX 3060 = 26-27 FPS
RTX 4070 = 53-55 FPS
RTX 3060 + DLSS 2 = 45-47 FPS
RTX 4070 + DLSS 2 = 89-92 FPS
RTX 4070 + DLSS 3 = 139-142 FPS
Obie karty mają 12 GB na szynie 192bit. Sam wciągnij wniosek.
Może GDDR6x jest lepszy od GDDR6, ale technologia DLSS 3 robi bardzo odczuwalna różnica. CUDA i pewne elementy karty też robią swoje. 256bit niewiele daje, jeśli pozostałe elementy technologiczne są gorsze.
do 1080p only w tych czasach?
Ja jeszcze siedzę na 1080p, więc sorki. Ale 1080p ma swoje zalety. :P
Czasami 60-120 FPS i grafika Ultra jest lepszy niż rozdzielczość 2K, 4K. Ale to już kwestia gustu i ... portfeli.
Za 1300 zł mogę coś takiego kupić. 8GB GDDR6, czyli tyle samo, co poprzednik i tyle samo, co mam obecnie w GTX1070( ale GDDR5) to jakieś nieporozumienie. W 2023 roku 8 GB powoli staje się niewystarczające. Już bardziej wolałbym kupić 3060 z 12 GB lub sporo dopłacić do 4070 ale i tak najbardziej opłacalny jest tu RX 6700XT z 12 GB pamięci. Liczę na to, ze sprzedaż będzie fatalna i przemyślą swoją chciwość, bo tak kastrować karty ze średniej i niskiej półki, kiedy tych schodzi najwiecej, to jest plucie w twarz. 4060T to powinien mieć wydajność na poziomie 4070 z ceną ustaloną na 1900-2400 zł. Serio, mam nadziej że ludzie im tego nie kupią i będzie to leżało na magazynach, jak teraz leżą karty z serii RTX 3000.
Licza na sprzedaż dzięki DLSS3 dlatego takie gówno robią, hołota kupi, a nvidia w serii 5xxx dołoży więcej vramu i troszkę je podrasuje i kabza znowu się napełni.
Nic dziwnego, jak patrzyłem na testy Pure.pl, jeśli chodzi o RTX 4070. Dla porównanie:
Cyberpunk 2077 + RT Ultra (nie Overdrive) + 1920x1080
RTX 3060 = 26-27 FPS
RTX 4070 = 53-55 FPS
RTX 3060 + DLSS 2 = 45-47 FPS
RTX 4070 + DLSS 2 = 89-92 FPS
RTX 4070 + DLSS 3 = 139-142 FPS
Robi wrażenie jak na jedna generacja do przodu? RTX 4070 z włączony DLSS 3 jest prawie TRZY RAZY LEPSZY pod względem wydajności dla Cyberpunk 2077 niż RTX 3060 z włączony DLSS 2. Nawet kiedy RT jest włączony. Z tego powodu szefowie NVIDIA zdecydowali, że podnoszą znacznie ceny ze względu na wartość DLSS 3.
Ale musimy poczekać, aż obniżą ceny karty graficzne. Głosujemy portfelem. Procesor i5-13600k od Intel kiedyś kosztował ponad 1900 zł w dniu premiery, a teraz kosztował 1599 zł, albo 1399 zł dla wersji KF.
Ale zawsze znajdą się tacy "lekkomyślni" i niecierpliwi gracze, co będą kupować karty graficzne nawet za takie ceny. Przez to karty graficzne są coraz droższe, bo NVIDIA wykorzystują "niecierpliwość" gracze i zarobili dużo pieniędzy. Niestety.
Firmy będą ustalać takie ceny tak długo, jak my "większości" będziemy na to pozwalamy. Głosujemy portfelem.
Jakies przewidywania jaką to bedzie mialo wydajność aktualnego RTX'a?
Teoretycznie chyba 3070?
Czytam te wasze komentarze i płakać mi się chce. Mam rtx2070oc 8gb i gram we wszystko co wychodzi. CP2077 na ultra/Elden na maxa reszta gier wedle uznania. Gram w 1080p. Dlaczego - bo nie zobaczę różnicy w 4k. I większość z ekspertów tutaj też nie. Udowodniono to milion razy że 99 procent graczy nie odróżnia 4k od 1080p na monitorze.
Ważniejsze jest odświerzanie przy którym faktycznie czuć różnicę.
Mało kto gra na monitorze w 4K, jeśli ktoś jest zainteresowany taką rozdzielczością to zwykle gra na TV 55+ cali, a tu różnica jest już wyraźnie widoczna.
To tego 4060Ti będzie się w ogóle opłacało kupować, skoro używki 3070 z gwarancją będzie się dało kupić pewnie za 1400-1500zł?