Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Futurebeat Nvidia pokazała ile oszczędzicie na rachunkach, jeśli zakupicie RTX-a 4060; oficjalna prezentacja karty

23.06.2023 13:43
quark
1
17
quark
66
Generał

Szkoda że się nie pochwalili ile klatek "zaoszczędzimy" jak karta zacznie się dławić z braku pamięci.

23.06.2023 13:43
Ojboli
😁
2
5
odpowiedz
Ojboli
147
Konsul

Z tym kitem to do szklarza....

23.06.2023 13:43
quark
1
17
quark
66
Generał

Szkoda że się nie pochwalili ile klatek "zaoszczędzimy" jak karta zacznie się dławić z braku pamięci.

23.06.2023 13:43
Ojboli
😁
2
5
odpowiedz
Ojboli
147
Konsul

Z tym kitem to do szklarza....

23.06.2023 13:44
bmwbmw2
3
1
odpowiedz
bmwbmw2
68
PAPIEŻ GIER IV

4 lata to po 50 zł na rok. nie patrzył bym na to xD a wydaje sie na upgrade prawie tysiak. i tak next upgrade next tysiak. to lepiej walnąć underka a moc znacznie spadnie bez większych strat wydajności

23.06.2023 13:57
SerwusX
4
4
odpowiedz
SerwusX
97
Marszałek

Premium VIP

Tak, posiadając 3600 naprawdę olbrzymi sens ma przesiadanie się na 4060. A przy cenie karty koszty zwrócą się po jakichś 40 latach, jeżeli można zaoszczędzić 50 rocznie, niebywałe. Im niższy model, tym większa fuszerka...

post wyedytowany przez SerwusX 2023-06-23 13:58:43
23.06.2023 14:03
tgolik
5
odpowiedz
tgolik
143
Generał

Mało kto zauważa, że kupując karty RTX40xx w stosunku do RTX30xx osiągamy lepszy efekt niż kupując najlepsze chłodzenie - niższe zużycie mocy, mniejsze obroty wiatraków, niższe temperatury w obudowie. Szczególnie widać to np. porównując RTX 4090 z RTX 3090 Ti lub RTX 3080 z RTX 4070 ti w obu przypadkach nowa grafika pobiera miedzy 100 a 200W mniej.

23.06.2023 14:08
Pulser.X
👎
6
odpowiedz
Pulser.X
43
Pretorianin

W odbyt niech sobie włożą te kastraty, niech dalej szukają frajerów na to "coś"

23.06.2023 14:17
Link
7
odpowiedz
4 odpowiedzi
Link
18
Generał

To samo można napisać o RTX 4070, który ma tylko 30 W więcej niż RTX 3060, a jest prawie 2-3 lepszy (z DLSS 3). Wyobraźmy sobie, że gramy w mniej wymagające gry, wtedy RTX 4070 używa tylko częściowo mocy i ile W byłoby mniej poza minimum, kiedy RTX 3060 używa całej mocy dla 99%, czyli pełne obciążenie.

Tym bardziej, jak gramy w mniej wymagające gry, to wtedy niektóre modeli RTX 4070 po prostu nie używają "wiatraki" ze względu na niskie temperatury.

RTX 4070 jest na poziomie RTX 3080, a zużywa o 100 W mniej, więc jest bardziej energooszczędny.

Jeśli się mylę, to niech ktoś mnie oświeci.

post wyedytowany przez Link 2023-06-23 14:21:45
23.06.2023 14:21
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
7.1

Rtx 3060ti też nie używają wentylatorów do ok. 50 stopni. Do rtx 4070 obowiązkowo jeszcze zmiana zasilacza i dodatkowe koszty. Seria rtx 40 jest nieopłacalna dla ludzi nieużywających 4k.

23.06.2023 14:27
Link
7.2
Link
18
Generał

Illuminackiretpalianinnajezdzcazdalekiegokosmosu
^ RTX 4070 jest nieopłacalny dla ludzi nieużywających 4K? A co z Portal RTX, Cyberpunk 2077 w trybie Overdrive, oraz przyszły DLC dla Cyberpunk 2077? Te gry potrafią wykończyć GPU do takiego stopnia. Jak ktoś chce grać na 1080p i 1440p z powyżej 60 FPS na ray tracing ultra, to tak. O przyszłe gry AAA nie wspomnę.

Co ważniejsze, nie trzeba wymieniać zasilacza. Po pierwsze, niektóre modeli RTX 4070 obsługują 8-pin. Po drugie, wystarczy Ci tylko 750 W, 700 W, a nawet 600 W. To zależy od tego, jaki model RTX 4070 i CPU wybierasz.

post wyedytowany przez Link 2023-06-23 15:31:56
23.06.2023 17:53
SpoconaZofia
7.3
SpoconaZofia
80
Legend

Tylko 4090. Albo poczekać na kolejną generację 5xxx, która będzie 2,5 razy szybsza. Seria 3xxx w 2023 to obecnie niska półka do FullHD. Musisz też brać pod uwagę, że każdy patch do Cybera zwiększa wymagania gry. PS4 i XboX już pożegnał się z grą od 1.6 wersji. A granie na 3xxx obecnie w grę redów to nieśmiała forma sadomasochizmu.

23.06.2023 20:27
Kerdevstesa
7.4
Kerdevstesa
24
Konsul

Dokładnie tylko RTX 4090. Jak ci zależy na oszczędzaniu na prądzie to robisz prawidłowe UV i zużycie spada 150-200W ze strata kilku fps zależnie od gry.

23.06.2023 14:18
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
😁
8

Oczywiście nie powinniście oszczędzać na nowych produktach nvidia, nie no, wymiana gpu co rok wskazana!

23.06.2023 14:29
9
1
odpowiedz
1 odpowiedź
utopiasobotwora
1
Chorąży

Robią co mogą aby sprzedać tego gniota . Po klęsce 4070 ( wstrzymali produkcję ) , spektakularnej klęsce 4060 TI teraz próbują wcisnąć totalnego kastrata 4060 z pamięcią która robiła wrażenie 6 lat temu . Ta karta będzie się dławiła na co drugiej nowej produkcji . Za chwilę spadnie do ceny 1000 zł i poleca głowy w NVIDIA.

23.06.2023 16:32
9.1
BlackTone
36
Generał

Nie sprzedaje się tylko w Chinach w innych krajach 4070 dobrze się sprzedaje

23.06.2023 14:43
NightBosman
10
odpowiedz
1 odpowiedź
NightBosman
85
Konsul

Jakoś nie widzę nigdzie dywagacji na temat tego ile każda karta zżera prądu i czy przez to jest opłacalna czy nie. Ja rozumiem że serwerownie czy górników może to bardzo interesować ale nie klientów indywidualnych takich jak ja czy ty. Zużycie jest zbyt "małe" aby się ktoś tym na poważnie przejmował.

23.06.2023 16:51
quark
10.1
quark
66
Generał

No właśnie zwykły klient czasem powinien się tym zainteresować. W ciągu całego okresu używania karty to może być nawet 200 albo i więcej złotych. Kupując kartę i wydając np. 2000, to czy wydasz 200 zł więcej czy mniej nie zrobiłoby Ci różnicy? Wydaje mi się że zrobiłoby. Więc dlaczego te 200 złotych rozłożone na 4 lata miałoby nie robić różnicy?
Ktoś kupi RTX 3060 za powiedzmy 400 czy 500 złotych mniej i jest dumny bo nie dał zarobić Nvidii. A kto tak naprawdę wyszedł na frajera? No raczej klient, bo kupił kartę co prawda tańszą, ale 20% wolniejszą, bez DLSS3, bardziej się grzejącą, a połowę tego co "zaoszczędził" teraz i tak kiedyś zapłaci w prądzie.

23.06.2023 15:35
11
odpowiedz
17 odpowiedzi
Jaya
62
Generał

Niech sobie oszczędzą wstydu w Nvidii i dadzą tańsze modele zoptymizowane pod RT Off (bez możliwości użycia RT On).

Samo już wprowadzenie na siłę RT On jest wyjątkowo nieefektywne energetycznie, a jakość gier ostatnio powoli bardzo rośnie.

Nie wiem czego używa DLSS, ale nie wydaje się, żeby Raytracing się przydał do AI/wizji komputerowej.

23.06.2023 15:56
Link
😂
11.1
1
Link
18
Generał

Jaya
Czy ty w ogóle wiesz, co piszesz? XD

23.06.2023 20:29
Kerdevstesa
😂
11.2
Kerdevstesa
24
Konsul

Co za mokry sen:)

29.06.2023 08:40
11.3
1
Jaya
62
Generał

Link - no to wyjaśnij o czym nie wiem, czy chwalisz RT On czy, że bez różnicy dla sprzętu?

30.06.2023 09:13
Link
11.4
1
Link
18
Generał
Wideo

Jaya
Spróbuj grać w Cyberpunk 2077 bez RT, a potem z RT i zwróć uwagę na lustrzane odbicie w wodzie i w lustrze, a nie tylko światło i cieni. Spróbuj grać w Watch Dogs Legion podczas pory deszczowy bez RT, a potem z RT. Różnica jest dość odczuwalna.

Przewiń do 0:25 i zwróć uwagę na cienie rośliny. Są bardziej realistyczne. Przewiń do 5:11 i zwróć uwagę na wodzie. Lustrzane odbicie w wodzie nie są możliwe bez RT. I inne przykłady.
https://www.youtube.com/watch?v=FjhQiMtTz3A

Albo mnóstwo przykłady:
https://www.youtube.com/watch?v=F4HkXEzzcRw
Przewiń do 2:28, gdzie zrobił to na mnie największe wrażenie.

No, można kupić RTX 3060 12 GB za 1399-1479 zł w tej chwili i ma całkiem niezły wydajność (choć RTX 4070 jest dużo lepszy), więc produkowanie i kupowanie karty bez RT już w ogóle nie ma sensu. To tak jakby chcesz kupować karty tylko dla grafiki 2D bez wsparcie dla 3D.

Chcesz tańsze karty? To poczekaj na premiery RTX 5000, wtedy RTX 3000 i 4000 stają się tańsze.

Zgodzę się z Tobą, że nie opłaca się kupić RTX 4000 ze względu na zawyżone ceny.

30.06.2023 09:47
Link
11.5
1
Link
18
Generał

Jaya
Nie wiem czego używa DLSS
DLSS to w uproszczenie "kombinacja obniżenie rozdzielczość + wspomaganie AI do poprawienie grafiki". To nie samo co zwykły obniżenie rozdzielczość w tradycyjny sposób. To nie jest zwykły upscaling. To coś więcej dzięki rdzenie Tensor.

Masz więcej szczegóły:
https://geex.x-kom.pl/wiadomosci/nvidia-dlss-co-to-jest-jak-dziala/

Możesz grać bez włączony ray tracing i to z włączony DLSS, a masz więcej FPS plus filtry antypikselowe. Niektóre gry wyglądają ładniejsze z włączony DLSS niż bez DLSS.

Co do DLSS 3, to po prostu kombinacja DLSS 2 i Frame Generation dla RTX 4000. Więcej szczegóły o Frame Generation masz:
https://www.purepc.pl/test-nvidia-dlss-3-frame-generation-i-opoznienien-systemowych-czy-dodatkowe-klatki-wplywaja-na-plynnosc-obrazu

Testowałem Cyberpunk 2077 z włączony DLSS na 1080p i zrobił to na mnie duże wrażenie. Nie było widać, że jakość obrazu gry coś traci. Za to ma więcej FPS.

Więc piszesz tak, bo nigdy nie miałeś karty RTX i nie miałeś okazję tego wypróbować, więc nie wiesz, co tracisz.

Samo już wprowadzenie na siłę RT On jest wyjątkowo nieefektywne energetycznie
Kolejne mity do obalenie. To prawda, że RTX 3060 z RT pobiera więcej prądu niż GTX 1060, ale musisz wiedzieć, że jest dwa razy wydajniejszy niż GTX 1060. Wyobraź sobie, że grasz w mniej wymagające gry np. World of Warships czy gry Indie, a wtedy karta pobiera mniej prądu. Jak grasz w gry Indie, to wentylatory dla GPU praktycznie stoją w miejscu i nie zużywają prądu.
Co ważniejsze, RTX 4070 ma wydajność na poziomie RTX 3080, a pobiera o 100 W mniej. Natomiast ma o 30 W więcej niż RTX 3060, ale za to jest dwa razy wydajniejszy i do tego Frame Generation na bonus.

Krótko mówiąc, RTX 4000 są lepsze, jeśli chodzi o efektywności energetyczne w stosunku do RTX 3000. Zobaczymy, jak to wygląda co do przyszłe RTX 5000.

Musisz pamiętać, że REALISTYCZNE światło i cienie, oraz lustrzane odbicie w wodzie pochłaniają ogromne mocy obliczeniowe.

No, karty z poziomu x080 i x090 (np. RTX 3080 i RTX 3090) są zwykle prądożerne. Karty z poziomu x060 i x070 są bardziej ekonomiczne i zdecydowanie to polecam. Nie polecam Ci 2080TI, bo za dużo prądu zużywa, a mało daje. O prądożerny RTX 3080 i RTX 4090 nie wspomnę.

Piszę to jako gracz, co miałem okazję wypróbować ray tracing i DLSS 3, więc zapewniam Cię, że to nie są puste słowa.

Jak już miałem okazję wypróbować RTX 3060 oraz RTX 4070 u znajomego, to nie mam ochotę wrócić do GTX 1060 czy nawet GTX 3090. Nie wyobrażam sobie granie w Cyberpunk 2077 bez ray tracing w trybie Overdrive i bez DLSS.

Ale to Twój wybór i wybierz karty, jakie Ci pasuje. Miłego grania.

post wyedytowany przez Link 2023-06-30 10:01:42
30.06.2023 10:01
11.6
Jaya
62
Generał
Wideo

Link - zgadzam się, że RT On ma zalety, ale dam przykłady jak ja widzę RT On. Co innego gra co innego pięknie wyróżnione sceny gdzie RT On ma przewagę.

https://youtu.be/2BVpuWRjD3s?t=211- MInecraft Bedrock - wygląda świetnie o wschodzi i zachodzie + czasem w pomieszczeniach z oknami, a cała reszta gry - to prawie bez różnicy (trzeba specjalnie dorobić tą różnicę na rzecz RT On).

Wszystkie dema głównie pokazują światło wolumeryczne. Godraye to temat trochę pomiędzy prawdziwą symulacją promieni bo w rzeczywistości jak by to miało tak działać to promień odbiłby się miliony razy od cząsteczek mgły zanim trafiłby do "obiektywu". Godraye nie wymagają specjalnie RTX'a w Falloucie 4 można sobie dodać w modach - polecam - zwłaszcza z lasem. Tutaj jeśli coś układ RTX przyspieszy to ma sens, ale wątpię, aby GTX sobie nie radził. Blender Cycles vs Eevee daje dużo większą różnicę, obraz czym jest prawdziwy Raytracing i dlaczego lepiej wybrać fake Raytracing.

A tak wygląda jakość RT Off Java Edition:

https://www.youtube.com/watch?v=ryAIpOdbHXo - taki poziom grafiki jest stały - nie trzeba czekać na te kilka momentów czy szukać miejsc. Ma dużo mniejsze problemy z odbiciami niż wiele wersji Shaderów z symulacją promieni. Pod wodą też dużo lepiej wygląda. W dodatku silnik jest tak lekki, że można doczytać bardzo zaawansowane tekstury i na nie przeznaczyć moc, albo przy innych shaderach na wspomniane godraye (choć polecam bardziej postawić na ładne cienie i Seus Renewed)

Inny przykład nieudolnego RT On:

https://www.youtube.com/watch?v=wXYk2MwZY1I

PTGI i HRR to Raytracing bez wymaganej karty z RTX. W rzeczywistości raytracing w tym wydaniu przedstawia się jeszcze gorzej. Bo praktycznie w miejscu scena nie pokazuje a) upierdliwego rozmycia gdy np. wieśniaki się poruszają b) strasznego mydlenia detali + szumów tam gdzie ciemno c) któraś z wersji RT On ogranicza rozchodzenie się promieni w odbiciach do jakiś 15 bloków i dalej nic nie ma (i tak muli) d) Dla mniejszego obciążenia wyłączyli totalnie mgłę

Nawet z przykładów gameplay'u CP77 dało by wyciągnąć raczej podobne wnioski. Główną zaletą w CP77 RT On jest to, że nie dają innych detali - tylko i wyłącznie skupiają się na poprawie jakości RT On. Jeszcze może byłbym przekonany do Overdrive, ale dużo innych detali za tą samą wydajność można zyskać. Patrzenie w kałurzę i rzekę są najgorszymi argumentami do porównania RT On vs Off bo głównie wadą RT Off jest gorsza - pewnie celowo implementacja SSR.

RT On to głównie szansa dla open worldów w kwestii dynamicznego "pieczenia" tekstur jak dla mnie. Wypieczone tekstury z RT Off to jest quantity over quality - jak tu nieraz słyszę. Większość pewnie dem tych gdzie się kłucą -czy to fake - powstaje w ten sposób. Open World i dynamiczna pogoda to trochę inny przypadek, ale czy rzeczywiście nie dało by postawić równoległego procesu, który by robił te cienie tyle ile maszyna daje radę? RT On głównie przyda się jak coś się rusza, a jak coś stoi w miejscu to miejsce dla RT Off (czy też RT On, ale na zasadzie np. 15 sekund na render). Dopiero jak trochę w tą stronę pójdzie technologia to jestem w stanie uwierzyć, że RT On ruszy pełną parą.

30.06.2023 10:28
Link
11.7
1
Link
18
Generał

Jaya
To zależy od tytułu gry i wersji RT. Nie wszyscy twórcy gier dobrze wykorzystują RT.

Jak sam widzisz, nie wystarczy mieć tylko karty z RT. Techniki i wersje RT w grach decydują o jakość. Niektóre twórcy gier są po prostu leniwi i nie za bardzo się postarali.

Na przykład RT w Elden Ring nie robi to duże różnicy, że można po prostu wyłączyć RT, by mieć więcej FPS, a grafika nadal będzie bardzo piękna. Twórcy dodali RT do Elden Ring na siłę tylko dlatego, że gracze o to prosili.

Jak patrzę na jakość światło i cienie w grze Dead Space 2 z roku 2011 (ma aż 12 lat!), albo remake Resident Evil 2 i 3, albo Death Stranding czy Red Dead Redemption 2, to możesz mieć rację. Po prostu twórcy gier są coraz bardziej leniwi. Niestety.

Wody w Cyberpunk 2077 dało się zrobić lepiej bez pomocą RT. Wody bez RT wyglądają dość sztuczne, jakby były robione z myślą o LOW opcji graficzne. Owszem, wody z włączony RT robią duże lepsze wrażenie, ale bez RT mogłoby być lepiej, jak patrzę na World of Warships czy Red Dead Redemption 2.

Kwestia optymalizacja to największy problem w dzisiejszych czasach. Niestety.

Co do grafiki Minecraft bez RT, to robi wrażenie, ale też zauważysz, że pochłania duże mocy obliczeniowe nawet dla karty RTX 3060. Nie jest na poziomie ponad 120 FPS. Wszystko ma swoją cenę.

Co nie zmienia to faktu, że produkcji karty bez RT nie ma w ogóle sensu. Lepiej będzie dla wszystkich, jak gracze i twórcy gier mają do wyboru, czy chcą używać RT i DLSS. Im więcej możliwość, tym lepiej. Prawdopodobnie potencjału RT zostanie lepiej wykorzystany gdzieś w przyszłość.

Pożyjemy i zobaczymy.

post wyedytowany przez Link 2023-06-30 10:29:11
30.06.2023 11:13
11.8
Jaya
62
Generał

Link - "nie wszyscy twórcy gier dobrze wykorzystują RT" - "rawdopodobnie potencjału RT zostanie lepiej wykorzystany gdzieś w przyszłość" - do tej pory żadna gra na RTX2070S nie zachwyciła z RT On i w tej chwili nawet nie widzę większego sensu na rozwój tej technologii, a przynajmniej tego co forsuje NVidia.

Wydaje się, że głównym powodem forsowania tego było zaistnienie DLSS + to, że AMD raczej gorzej sobie radziło z zastosowaniami typu CUDA - czyli Blender itp. Trochę to myk w stronę miażdżenia konkurencji, a nie w stronę lepszej jakości dla graczy. Chyba obecnie NVidia stała się ofiarą swojej nowinki, bo jakość RT On nie jest, aż tak miażdżąca. Osobiście wolę więcej innego typu detali. Każda raczej gra która już zainwestowała w jakąś dziwną formę dynamicznego oświetlenia porzuciła optymizację starej drogi wyświetlania grafiki. Lepiej jak gra nie ma na początku tego ficzera tylko dochodzi po jakimś czasie.

Lumen w UE5 - daje głównie szanse na jakość dynamicznego światła, jednak wszystkie piękniejsze dema nad którymi się zachwycano - są raczej efektem "pieczenia" i statycznego oświetlenia gdzie głównie odgrywa rolę możliwość zaczytania większych/dokładniejszych tekstur.

Popatrzę na gry na UE5 + lumen dopiero może zacznie się coś dziać. Kupno karty dla znudzonego już CP77 to strata pieniędzy. Zapowiadane DLC nie zmieni raczej tej gry w jakiegoś dużo lepszego sandbox'a. Aby jeszcze raz zagrać potrzebowałbym nowych zasad gry z "tymi samy mi kartami".

30.06.2023 12:07
Link
😒
11.9
1
Link
18
Generał

Jaya
Pamiętasz, jak było z 2 lub 4 rdzenie dla procesora? Też kupowanie CPU to strata pieniędzy, gdyż nie było wielu gry, co potrafią wykorzystać te potencjały. Dopiero za parę lat ukazali się coraz więcej gry, co potrafią wykorzystać wielu wątków. Tak samo było z 12 i 13 generacji Intel razem z E-rdzenie, a AMD co dopiero planuje wprowadzić E-rdzenie do własne CPU.

Też nie ma wielu gry, co potrafią wykorzystać potencjały SSD i DirectStorage poza przereklamowany Forspoken. Potencjał DirectX 12 przez wielu lat nie był dobrze wykorzystany, a teraz jest już lepiej.

Też nie jest wyjątek z RT. Chociaż mamy już Cyberpunk 2077, Watch Dogs Legion, Metro Exodus, Dying Light 2, Control, Portal RTX i coraz więcej gry na RT, to potem pojawią się coraz więcej gry, co potrafią lepiej wykorzystać potencjały RT. Niestety do tego jest potrzebny RTX 4000, a RTX 3000 i 2000 są zbyt słabe, by wykorzystać pełny potencjału RT. Świetnie to pokazuje Cyberpunk 2077 w trybie overdrive i Portal RTX, co potrafią nieźle wykończyć PC.

Tak to jest z nowe technologii. Wielu twórcy gier nie widzą sensu w tworzenie gier z bardziej zaawansowane RT, gdzie tylko niewiele gracze mają takie PC z mocarne karty. Niektórzy bardziej wolą rozdzielczość 4K niż lepszy RT na 1080p. Oto dlaczego. Minie parę lat, zanim zobaczymy nowe gry z RT na wyższy poziom. Konsoli PS5 i XBOX trochę pohamują te możliwości, bo są zbyt słabe na RT w połączeniu z 4K.

Natomiast DLSS 3 jest inny, bo jest łatwy do dodanie w grach tak samo jak FSR od AMD. Twórcy gier nie widzą w tym problemu, o ile umowa tego nie obowiązuje np. tylko FSR dla wybrane tytułów. Początkowo DLSS 3 miał tylko 30 gry, ale ta liczba stale rośnie.

post wyedytowany przez Link 2023-06-30 12:11:44
30.06.2023 13:32
11.10
Jaya
62
Generał

Link - co do rdzeni nie miałem wątpliwości, że będą przydatne, ale do tej pory jako gamingowe rozwiązanie warto mieć quality over quantity, niż całą masę powolnych serwerowych rdzeni. Co powiesz dzisiaj o asynchronicznym SLI?

SSD i DirectStorage - głównie jedynie z pierwszymi SSD miałem wątpliwości, bo szybko padały, ale nikt nie narzekał na szybkość odpalania. DirectStorage - jeszcze nie jest popularne, mało kto wie z czym to się je, ale nie wygląda jakby poświęcanie coś za coś, a w przypadku RT On poświęcasz DLOD na rzecz DLighting.

RT On dodatkowo dotychczas ukrywane elementy poza ekranem, ciągle są w jakimś buforze czy widać czy nie, bo kałuża musi być gotowa na odbicie.

Czy jest aż taka różnica z tą kałużą RT On a SSR? Tak SSR w wielu momentach wygląda lepiej - jeśli trzeba ograniczać liczbę symulacji promieni (w dużych grach to konieczność).

Można włączyć też mocniejsze DLSS i cała masa innych detali wypada gorzej. Sens jest tylko w przypadku dużo starszych gier. W przypadku starych gier i tak bardziej myślałbym o lepszym DLOD - dynamic level of detail - co wybrać gęsty bujający się od wiatru las czy kilka nieruchomych drzewek bo RT On musi nadążać?

Dalej jest potencjał z masą konkretnych detali, najmocniejsze RTX'y nie uciągnęły by całego potencjału. CP77 kojarzę z dziwnym doczytywaniem detali, dlaczego tak jest? Bo gęstość elementów jest bardzo duża. Tylko czy to nie jest bardziej wytłumaczenie, że NVidia dała kasę - musi ten RT On na jakiejkolwiek karcie graficznej pójść?

"Niestety do tego jest potrzebny RTX 4000" - niestety potencjał będzie dopiero przy 5000-6000 - nawet do CP77, aby pograć bez mglistych detali. Gry z UE5 mogą być dobrym znakiem aby postawić na nowszą kartę, albo aby poczekać aż naprawią błędy te kilka lat. Lumen będzie chodził też na AMD - ciekaw jestem tego pojedynku.

CP77 jako jedyna gra zaoferowała jakiś lepszy RT On, była cała masa podobnych prób w przeszłości. Chociażby któryś z Minecraftowych SeusPTGI czy HRR to też próba zastosowania tej techniki overdrive. Jest dużo roboty aby wszystko hulało git malina. Trzeba rezygnować przy produkcji z jednej jakości na rzecz innej. Gracze muszą rezygnować z wydajności.

post wyedytowany przez Jaya 2023-06-30 13:35:23
30.06.2023 14:04
Link
11.11
1
Link
18
Generał

Jaya
co do rdzeni nie miałem wątpliwości, że będą przydatne, ale do tej pory jako gamingowe rozwiązanie warto mieć quality over quantity, niż całą masę powolnych serwerowych rdzeni. Co powiesz dzisiaj o asynchronicznym SLI?
Co nie znaczy, że E-rdzeni są niepotrzebne. Wręcz przeciwne. Widziałem testy, gdzie i5-13600k ma mniej wąski gardło dla RTX 4090 niż i7-12700k. RTX 4070 działa lepiej na i5-13600k niż na i5-12400f. Lepsze taktowanie w trybie Turbo Boost na wszystkie wątków i dodatkowe E-rdzenie robią swoje. Mam i5-13600kf i widziałem testy, więc wiem, o czym piszę. Dodatkowe E-rdzenie znacznie skracają czas dla programu 7-zip czy obróbki wideo, więc nie są bezużyteczne. Jak wyłączysz E-rdzenie w BIOSIE, to P-rdzenie z i5-13600k zużywają więcej prądu w praktyce przez większości czasu. Jak sam widzisz, E-rdzenie ma szerokie zastosowanie i będzie lepiej w przyszłość.

niestety potencjał będzie dopiero przy 5000-6000 - nawet do CP77, aby pograć bez mglistych detali
Nie do końca, jeśli chodzi o CP2077. Testowałem RTX 4070 u znajomego i Cyberpunk 2077 na RT Overdrive bez problemu chodzi na 1080p z ponad 90 FPS i 1440p z ponad 60 FPS. Też da się grać na 4K, ale tylko z 30 FPS. RTX 4070 daje radę z Portal RTX. Więc myślę, że spokojnie daje radę z DLC do Cyberpunk 2077 na 1080p i 1440p.

30.06.2023 14:45
11.12
Jaya
62
Generał

Link - ok mogę uwierzyć, dam 4000zł na 4070, żeby zagrać specjalnie w CP77 z Overdrive.

Na ile lat myślisz ten RTX 4070 starczy, żeby cieszyć się RT On i nie odgrzewać starych kotletów? (chyba nawet CP77 już by się klasyfikował do starszych gier) Wątpię, by jakakolwiek następna nowa gra poszła mi w 60fps z RT On i 2k, bo musiałby się zatrzymać postęp.

Trzeba wtedy więcej odgrzewać starych kotletów jak Portal - przyznam nawet jakby nie wiadomo jak wyglądała gra - nie chce mi się od nowa w to grać, podobnie w Quake 2, Wiedźmin 3 - optymizacja tego RT On bardzo mnie zawiodła.

Za to wolę odgrzewanie kotletów w stylu Tony Hawk PS1+2 - gdzie nie ma RTX, za to po prostu jest gra przepisana od nowa i jest traktowana przeze mnie jak nowa.

post wyedytowany przez Jaya 2023-06-30 14:45:59
30.06.2023 19:34
Link
11.13
1
Link
18
Generał

Jaya
Nie pisałem, że masz kupować RTX 4000. Ty sam pisałeś, że od RTX 5000/6000, więc ja tylko wspominałem o RTX 4000.

Nie licz, że RTX 5000 będą tańsze od RTX 4000. Po prostu musimy długo poczekać, aż RTX 4000 tanieją. Kiedyś RTX 3060 był za ponad 4000 zł (w czasach epidemii), potem 2500 zł, a teraz jest za 1400 zł. Nie opłaca się kupić nowe karty w dniu premiery, niestety.

Po prostu jeszcze nie nadszedł ten czas, gdzie RT staje się obowiązkowy standard. Twórcy gier dobrze zdają sobie sprawę z tego. Obecność 4K bardzo to utrudnia, gdyż też zabiera dużo mocy obliczeniowe GPU, a firmy reklamują o 8K...

Trzeba wtedy więcej odgrzewać starych kotletów jak Portal - przyznam nawet jakby nie wiadomo jak wyglądała gra - nie chce mi się od nowa w to grać, podobnie w Quake 2, Wiedźmin 3 - optymizacja tego RT On bardzo mnie zawiodła.
Ponieważ powstali w czasach, kiedy nie było RT. Więc te gry nie są do końca przygotowani z myślą o RT. Gdyby gry będą stworzone z myślą o RT, to sprawa wygląda inaczej. Starsze silniki czasem ograniczają i utrudniają.

03.07.2023 10:27
11.14
Jaya
62
Generał

Link - wiem, że nie polecasz, tylko odnoszę się do tego, co Nvidia ostatnio sobie wymyśliła i o czym samemu myślę. Nvidia zamroziła wypuszczenie 50xx, żeby zmusić nas do kupna 40xx. Wg mnie to nawet tendencja na 10 lat, bo zaraz znowu zamorzą 5000 itd jak jakość znacznie nie skoczy do góry.

Byłbym w stanie wydać nawet 4000zł na kartę, jakbym miał powód, ale przez Raytracing pułap wydatków zmniejszam na 1500-2000zł. Prędzej wydam na lepszy procek 2000-3000 do Rimworlda, alby cieszyć się większą populacją w modach, a tak to dzięku temu RT On gram na najwyższych detalach - wyłączając go i mając porównywalną grafikę. Nawet z tym overdrive przesunąłbym najpierw jakbym mógł dystans gdy widoczne są detale oświetlenia, lepsze tekstury, auta - to chyba dopiero byłoby z Overdrive poziom 5000.

Dałbym też więcej na kartę gdyby CP77 był lepszym sandboxem. Podobnie Hogward Legacy - to trochę, za słaby sandbox.

W CDP z resztą porzucili silnik CP77 - ze "świetnym RT On" w następnym Wiedźminie. Epic chyba już w standardzie z UE4 lepiej radzi sobie z oświetleniem niż silnik Wiedźmina. W dodatku kiedyś do rozwiązania Nvidii trzeba byłoby dopisać rozwiązanie od AMD.

Epic/UEngine też jak czytam komentarze ma trochę dosyć praktyk Nvidii - ten Lumen to trochę wygląda na protest w stosunku do tego co się dzieje na rynku gier.

post wyedytowany przez Jaya 2023-07-03 10:29:27
03.07.2023 10:42
11.15
Jaya
62
Generał

Link - chciałbym, abyś miał rację i może nie będę już dalej pisał bo strasznie niewygodnie się już odpisuje. Na mój gust to kupno RTX'a ma sens tylko dla tego czego kupiłem kiedyś GTX'a. Jest mała szansa, że RT On będzie równie mało opłacalny co SLI i odpowiednik od AMD. Koszt tej jakości wydaje się zbyt duży w stosunku do "starodawnych metod" na skróty. Być może tak czy siak wtedy przyda się symulacja promieni, ale do "cheaterskich" metod. Taką metodą jest DLSS, ale ona nie wymaga Raytracingu.

03.07.2023 13:30
Link
11.16
2
Link
18
Generał

Jaya
Prędzej wydam na lepszy procek 2000-3000 do Rimworlda, alby cieszyć się większą populacją w modach
Jeśli masz na myśli CPU, to mam i5-13600kf i jest to super procesor za tylko 1399 zł. Nie trzeba wydać ponad 2000 zł. Zakup i7 czy i9 nie ma sensu, bo w grach niewiele zyskuje, chyba że masz RTX 4090. Tym bardziej że Intel planuje wydać nowe i lepsze procesory jeszcze w tym roku, a za 1-2 lata jeszcze nowsze procesory.

i5-12700k okazał się słabszy od i5-13600k. Niezła ironia, co? Dlatego zakup i7 czy i9 dla granie nie ma sensu.

Co do karty graficzne i RT... To zrozumiałe. Graj na wybrane karty, co uważasz za słuszne. Ważne, że będziesz szczęśliwy w grach i tylko to się liczy. ;)

Co do opłacalność RT, to po prostu poczekamy i pożyjemy i zobaczymy, jak to wygląda za kilka lat. Nie ma sensu tutaj kontynuować dyskusji o RT.

Też nie lubię praktyki NVIDIA i niektóre wydawcy gier, co nie są fair wobec klienci. Dlatego nie zamierzam kupić karty graficzne za pełne ceny w dniu premiery, lecz wolę czekać na obniżki ceny.

Życzę Ci miłego grania i miłej przygody. ;)

post wyedytowany przez Link 2023-07-03 15:51:31
03.07.2023 16:10
11.17
Jaya
62
Generał

Link - to jeszcze w kwestii procesora, dla mnie jeszcze za wcześnie na zakup i rozglądanie się, ale dobra wskazówka.

Pewnie masz rację, jak się patrzy na wydajność/cena 13600KF to obecnie najlepszy wybór, do gier. Być może jak popatrzę na szerszą ilość zastosować i7 bym może jeszcze wziął pod uwagę. 3-ci kawartał 2023 ma wyjść nowy Intel - kontynuować 13-stą generację. Na to może jeszcze poczekam, obecnie stare i7700k jeszcze do wszystkiego mi wystarczy. Jedynie co ERing głównie chyba wyróżnia się na tle nowych gier, nie umie bez procesora.

Nie wiem totalnie co się z tym AMD dzieje i czy to się komuś opłaci, czy nie ma overclockingu bo działa jak podkręcona karta, słabszy silikon?

23.06.2023 16:10
12
odpowiedz
3 odpowiedzi
Aderod
12
Legionista

Więc co wybrać 3060 czy 4060 do grania w HD? Osobiście skłaniam się w kierunku 3060, jego 12GB lepiej by dźwigało moje zmodyfikowane gry. Muszę zastąpić moje leciwe GTX 960.

23.06.2023 17:07
12.1
MewsoNs
68
Generał

Jeżeli zamierzasz używać dlss, to 4060 wypadnie "troszkę" lepiej, natomiast przez wykastrowaną szynę i bez używania tej oszukańczej metody, która ( według mnie pogarsza zauważalnie grafikę i nigdy jej nie używam) to lepszym wyborem i mocniejszą kartą jest 3060 a na pewno ti, bo 8 gb ramu jest wystarczające do fhd. Szkoda bardzo, że okroili szynę, bo jakby nie to, to 4060 ti byłby odpowiednio szybszy od poprzednika jak faktyczny next gen, a tak to bida z nędzą...

post wyedytowany przez MewsoNs 2023-06-23 17:09:57
23.06.2023 18:02
😜
12.2
zanonimizowany1310097
33
Senator

Szczerze? w przedziale 1400-1600pln wolałbym zaryzykować z jakąś używką RTX-a 2080TI 11GB która bije na łep wszystkie tu wymienione karty.

29.06.2023 09:24
12.3
Jaya
62
Generał

Ja bym nie polecał 2080TI. Mimo wszystko to stary smok i dużo prądu ciągnie , grzeje niemiłosiernie, a jeśli grzeje karta to większe ryzyko, że szybciej padnie. Może w latach swojej świetności ta karta chodziła na niskich obrotach, ale raczej trzeba założyć, że gry były odpalane w 4K i raczej głównie najnowsze z RT On. Ja się nastawiam na serie między 60-tkami i a 70-tkami i chyba nawet zejdę z tego TI/ czy super w dół. Nie wychodzi na tyle dużo gier, abym dalej miałoby sens wymienić 2070S na coś więcej. I tak w kolejce jest jeszcze procek stary do wymiany i cała pewnie cała masa reszty podzespołów.

Może RT On byłby powodem, ale osobiście i wiele komentatorów widzi równie wiele wad tego rozwiązania co zalet - również wizualne artefakty/ostrość są istotne. Jeśli już to z tą kartą zablokowałbym temperatury, obecnie też to robię ze swoim 2070S, bo obecnie zagłuszałby z procesorem głośniki.

DLSS3 i dobrakowywanie klatek to też jest sensowna inwestycja, ale lepiej i tak poczekać z rok/2 aż coś więcej wyjdzie z obsługą tego. "FSR only" stoi też trochę na przeszkodzie, aby się aż tak opłacało.

post wyedytowany przez Jaya 2023-06-29 09:33:04
23.06.2023 17:05
Ambitny Łoś
13
odpowiedz
2 odpowiedzi
Ambitny Łoś
192
Cthulhu

Chciałbym w końcu wymienić swoje 1060, które mam sparowane z i5-6600K i to niskie TDP wydaje się fajne przy zasilaczu 450W. Tyle, że 3060 podobno też by dało radę jeszcze na takim, a może w wielu przypadkach będzie jednak wydajniejsze :P

23.06.2023 17:17
13.1
zanonimizowany1382124
2
Konsul

Z przeciekowych benchmarków wynika, ze 3060ti jest szybsza od 4060, a samo 4060 jest szybsze od zwyklej 3060 o 18% maks, więc szału nie ma.

25.06.2023 13:32
13.2
Ger4lt
2
Junior

Miałem i5-6600K podkręcony do 4,5 Ghz i w niektórych grach CPU był za słaby, razem z GTX1070, więc dla nowej karty szykuj się na wymianę CPU.

23.06.2023 18:10
Mr. JaQb
😂
14
odpowiedz
1 odpowiedź
Mr. JaQb
110
Legend

Kiedyś chwalono się przyrostami wydajności między generacjami, teraz zmniejszonym poborem mocy

24.06.2023 15:24
bmwbmw2
14.1
bmwbmw2
68
PAPIEŻ GIER IV

śluski kląskie drożeją to i gaz drogeria

post wyedytowany przez bmwbmw2 2023-06-24 15:24:17
24.06.2023 16:48
Meno1986
😜
15
odpowiedz
Meno1986
185
Szkubany Myszor

Fajnie, wybulę 1550 zł, żeby "zaoszczędzić" 200 zł w...uwaga 4 lata! Do tego starą kartę sprzedam za 900-1000 zł, więc będę "do przodu" 1100-1200 zł. ;P

Brawa dla nVidii! Przy okazji chciałbym też pogratulować wszystkim akcjonariuszom tej firmy. Jeżeli ich księgowość wygląda równie dobrze, wróżę wypłatę "wysokich" dywidend.

post wyedytowany przez Meno1986 2023-06-24 16:48:40
27.06.2023 21:59
😂
16
odpowiedz
zerr10
96
Konsul

To może napiszę w imieniu wszystkich, no to zaczynam :

GNIOT GONI GNIOT :) ahahha

ah tej firmie chyba już nic nie pomoże wypuszczają takie karty z takimi cenami i V-RAM że aż boli w oczach :)

tak jak pisałem wcześniej ta firma się uwstecznia :)

najpierw wydają RTX z ograniczoną ilością RAM do 8GB
potem wydają RTX z 12 GB ale one już mają uciętą szynę do 192 lub 128 bit gdzie tu sens i logika tak czy inaczej klienci mają u nich przegwizdane te karty się po prostu nie opłacają to są GNIOTY...

specjalnie ograniczają karty poprzez szynę lub ilość V-RAM
u nich jeszcze nie spotkałem karty która by miała 16 GB z szyną " 256 BIT " w jakieś ludzkiej cenie... odbiło im kompletnie od czasu krypto walut i tyle w temacie a to co teraz wydają to po prostu kpina z klientów myślałem że gorzej być nie może a tu proszę RTX 4060 :) może i nawet z 16 GB :) ale co ci po tym skoro karta będzie mieć tylko 128 bitów szynę to skutecznie udusi te całe 16 gb :)

NVIDIA wydaj jeszcze kartę z 24 GB RAM ale tylko z SZYNĄ 64 BITY albo 16 BIT :) MASZ JESZCZE TAKĄ MOŻLIWOŚĆ :) HAHAHA.
MOŻE KTOŚ KUPI :)

NVIDIA w następnej karcie przytnij wiatraki :) bo tego jeszcze nie ucięłaś.

zapewne RTX 5000 BEDZIE fotowoltaiczne :)
cena też będzie fotowoltaiczna ale to szczegół :) ahhaha

post wyedytowany przez zerr10 2023-06-27 22:02:10
28.06.2023 11:49
17
odpowiedz
1 odpowiedź
Benekchlebek
19
Generał

Wydajność karty z 2017 (gtx 1080ti). Super

post wyedytowany przez Benekchlebek 2023-06-28 11:49:55
30.06.2023 10:37
Last_Redemption
17.1
Last_Redemption
47
Senator

Albo mojego 2070 super

Futurebeat Nvidia pokazała ile oszczędzicie na rachunkach, jeśli zakupicie RTX-a 4060; oficjalna prezentacja karty