Nvidia pokazała ile oszczędzicie na rachunkach, jeśli zakupicie RTX-a 4060; oficjalna prezentacja karty
Szkoda że się nie pochwalili ile klatek "zaoszczędzimy" jak karta zacznie się dławić z braku pamięci.
Szkoda że się nie pochwalili ile klatek "zaoszczędzimy" jak karta zacznie się dławić z braku pamięci.
4 lata to po 50 zł na rok. nie patrzył bym na to xD a wydaje sie na upgrade prawie tysiak. i tak next upgrade next tysiak. to lepiej walnąć underka a moc znacznie spadnie bez większych strat wydajności
Tak, posiadając 3600 naprawdę olbrzymi sens ma przesiadanie się na 4060. A przy cenie karty koszty zwrócą się po jakichś 40 latach, jeżeli można zaoszczędzić 50 rocznie, niebywałe. Im niższy model, tym większa fuszerka...
Mało kto zauważa, że kupując karty RTX40xx w stosunku do RTX30xx osiągamy lepszy efekt niż kupując najlepsze chłodzenie - niższe zużycie mocy, mniejsze obroty wiatraków, niższe temperatury w obudowie. Szczególnie widać to np. porównując RTX 4090 z RTX 3090 Ti lub RTX 3080 z RTX 4070 ti w obu przypadkach nowa grafika pobiera miedzy 100 a 200W mniej.
To samo można napisać o RTX 4070, który ma tylko 30 W więcej niż RTX 3060, a jest prawie 2-3 lepszy (z DLSS 3). Wyobraźmy sobie, że gramy w mniej wymagające gry, wtedy RTX 4070 używa tylko częściowo mocy i ile W byłoby mniej poza minimum, kiedy RTX 3060 używa całej mocy dla 99%, czyli pełne obciążenie.
Tym bardziej, jak gramy w mniej wymagające gry, to wtedy niektóre modeli RTX 4070 po prostu nie używają "wiatraki" ze względu na niskie temperatury.
RTX 4070 jest na poziomie RTX 3080, a zużywa o 100 W mniej, więc jest bardziej energooszczędny.
Jeśli się mylę, to niech ktoś mnie oświeci.
Rtx 3060ti też nie używają wentylatorów do ok. 50 stopni. Do rtx 4070 obowiązkowo jeszcze zmiana zasilacza i dodatkowe koszty. Seria rtx 40 jest nieopłacalna dla ludzi nieużywających 4k.
^ RTX 4070 jest nieopłacalny dla ludzi nieużywających 4K? A co z Portal RTX, Cyberpunk 2077 w trybie Overdrive, oraz przyszły DLC dla Cyberpunk 2077? Te gry potrafią wykończyć GPU do takiego stopnia. Jak ktoś chce grać na 1080p i 1440p z powyżej 60 FPS na ray tracing ultra, to tak. O przyszłe gry AAA nie wspomnę.
Co ważniejsze, nie trzeba wymieniać zasilacza. Po pierwsze, niektóre modeli RTX 4070 obsługują 8-pin. Po drugie, wystarczy Ci tylko 750 W, 700 W, a nawet 600 W. To zależy od tego, jaki model RTX 4070 i CPU wybierasz.
Tylko 4090. Albo poczekać na kolejną generację 5xxx, która będzie 2,5 razy szybsza. Seria 3xxx w 2023 to obecnie niska półka do FullHD. Musisz też brać pod uwagę, że każdy patch do Cybera zwiększa wymagania gry. PS4 i XboX już pożegnał się z grą od 1.6 wersji. A granie na 3xxx obecnie w grę redów to nieśmiała forma sadomasochizmu.
Oczywiście nie powinniście oszczędzać na nowych produktach nvidia, nie no, wymiana gpu co rok wskazana!
Robią co mogą aby sprzedać tego gniota . Po klęsce 4070 ( wstrzymali produkcję ) , spektakularnej klęsce 4060 TI teraz próbują wcisnąć totalnego kastrata 4060 z pamięcią która robiła wrażenie 6 lat temu . Ta karta będzie się dławiła na co drugiej nowej produkcji . Za chwilę spadnie do ceny 1000 zł i poleca głowy w NVIDIA.
Nie sprzedaje się tylko w Chinach w innych krajach 4070 dobrze się sprzedaje
Jakoś nie widzę nigdzie dywagacji na temat tego ile każda karta zżera prądu i czy przez to jest opłacalna czy nie. Ja rozumiem że serwerownie czy górników może to bardzo interesować ale nie klientów indywidualnych takich jak ja czy ty. Zużycie jest zbyt "małe" aby się ktoś tym na poważnie przejmował.
No właśnie zwykły klient czasem powinien się tym zainteresować. W ciągu całego okresu używania karty to może być nawet 200 albo i więcej złotych. Kupując kartę i wydając np. 2000, to czy wydasz 200 zł więcej czy mniej nie zrobiłoby Ci różnicy? Wydaje mi się że zrobiłoby. Więc dlaczego te 200 złotych rozłożone na 4 lata miałoby nie robić różnicy?
Ktoś kupi RTX 3060 za powiedzmy 400 czy 500 złotych mniej i jest dumny bo nie dał zarobić Nvidii. A kto tak naprawdę wyszedł na frajera? No raczej klient, bo kupił kartę co prawda tańszą, ale 20% wolniejszą, bez DLSS3, bardziej się grzejącą, a połowę tego co "zaoszczędził" teraz i tak kiedyś zapłaci w prądzie.
Niech sobie oszczędzą wstydu w Nvidii i dadzą tańsze modele zoptymizowane pod RT Off (bez możliwości użycia RT On).
Samo już wprowadzenie na siłę RT On jest wyjątkowo nieefektywne energetycznie, a jakość gier ostatnio powoli bardzo rośnie.
Nie wiem czego używa DLSS, ale nie wydaje się, żeby Raytracing się przydał do AI/wizji komputerowej.
Spróbuj grać w Cyberpunk 2077 bez RT, a potem z RT i zwróć uwagę na lustrzane odbicie w wodzie i w lustrze, a nie tylko światło i cieni. Spróbuj grać w Watch Dogs Legion podczas pory deszczowy bez RT, a potem z RT. Różnica jest dość odczuwalna.
Przewiń do 0:25 i zwróć uwagę na cienie rośliny. Są bardziej realistyczne. Przewiń do 5:11 i zwróć uwagę na wodzie. Lustrzane odbicie w wodzie nie są możliwe bez RT. I inne przykłady.
https://www.youtube.com/watch?v=FjhQiMtTz3A
Albo mnóstwo przykłady:
https://www.youtube.com/watch?v=F4HkXEzzcRw
Przewiń do 2:28, gdzie zrobił to na mnie największe wrażenie.
No, można kupić RTX 3060 12 GB za 1399-1479 zł w tej chwili i ma całkiem niezły wydajność (choć RTX 4070 jest dużo lepszy), więc produkowanie i kupowanie karty bez RT już w ogóle nie ma sensu. To tak jakby chcesz kupować karty tylko dla grafiki 2D bez wsparcie dla 3D.
Chcesz tańsze karty? To poczekaj na premiery RTX 5000, wtedy RTX 3000 i 4000 stają się tańsze.
Zgodzę się z Tobą, że nie opłaca się kupić RTX 4000 ze względu na zawyżone ceny.
Nie wiem czego używa DLSS
DLSS to w uproszczenie "kombinacja obniżenie rozdzielczość + wspomaganie AI do poprawienie grafiki". To nie samo co zwykły obniżenie rozdzielczość w tradycyjny sposób. To nie jest zwykły upscaling. To coś więcej dzięki rdzenie Tensor.
Masz więcej szczegóły:
https://geex.x-kom.pl/wiadomosci/nvidia-dlss-co-to-jest-jak-dziala/
Możesz grać bez włączony ray tracing i to z włączony DLSS, a masz więcej FPS plus filtry antypikselowe. Niektóre gry wyglądają ładniejsze z włączony DLSS niż bez DLSS.
Co do DLSS 3, to po prostu kombinacja DLSS 2 i Frame Generation dla RTX 4000. Więcej szczegóły o Frame Generation masz:
https://www.purepc.pl/test-nvidia-dlss-3-frame-generation-i-opoznienien-systemowych-czy-dodatkowe-klatki-wplywaja-na-plynnosc-obrazu
Testowałem Cyberpunk 2077 z włączony DLSS na 1080p i zrobił to na mnie duże wrażenie. Nie było widać, że jakość obrazu gry coś traci. Za to ma więcej FPS.
Więc piszesz tak, bo nigdy nie miałeś karty RTX i nie miałeś okazję tego wypróbować, więc nie wiesz, co tracisz.
Samo już wprowadzenie na siłę RT On jest wyjątkowo nieefektywne energetycznie
Kolejne mity do obalenie. To prawda, że RTX 3060 z RT pobiera więcej prądu niż GTX 1060, ale musisz wiedzieć, że jest dwa razy wydajniejszy niż GTX 1060. Wyobraź sobie, że grasz w mniej wymagające gry np. World of Warships czy gry Indie, a wtedy karta pobiera mniej prądu. Jak grasz w gry Indie, to wentylatory dla GPU praktycznie stoją w miejscu i nie zużywają prądu.
Co ważniejsze, RTX 4070 ma wydajność na poziomie RTX 3080, a pobiera o 100 W mniej. Natomiast ma o 30 W więcej niż RTX 3060, ale za to jest dwa razy wydajniejszy i do tego Frame Generation na bonus.
Krótko mówiąc, RTX 4000 są lepsze, jeśli chodzi o efektywności energetyczne w stosunku do RTX 3000. Zobaczymy, jak to wygląda co do przyszłe RTX 5000.
Musisz pamiętać, że REALISTYCZNE światło i cienie, oraz lustrzane odbicie w wodzie pochłaniają ogromne mocy obliczeniowe.
No, karty z poziomu x080 i x090 (np. RTX 3080 i RTX 3090) są zwykle prądożerne. Karty z poziomu x060 i x070 są bardziej ekonomiczne i zdecydowanie to polecam. Nie polecam Ci 2080TI, bo za dużo prądu zużywa, a mało daje. O prądożerny RTX 3080 i RTX 4090 nie wspomnę.
Piszę to jako gracz, co miałem okazję wypróbować ray tracing i DLSS 3, więc zapewniam Cię, że to nie są puste słowa.
Jak już miałem okazję wypróbować RTX 3060 oraz RTX 4070 u znajomego, to nie mam ochotę wrócić do GTX 1060 czy nawet GTX 3090. Nie wyobrażam sobie granie w Cyberpunk 2077 bez ray tracing w trybie Overdrive i bez DLSS.
Ale to Twój wybór i wybierz karty, jakie Ci pasuje. Miłego grania.
https://youtu.be/2BVpuWRjD3s?t=211- MInecraft Bedrock - wygląda świetnie o wschodzi i zachodzie + czasem w pomieszczeniach z oknami, a cała reszta gry - to prawie bez różnicy (trzeba specjalnie dorobić tą różnicę na rzecz RT On).
Wszystkie dema głównie pokazują światło wolumeryczne. Godraye to temat trochę pomiędzy prawdziwą symulacją promieni bo w rzeczywistości jak by to miało tak działać to promień odbiłby się miliony razy od cząsteczek mgły zanim trafiłby do "obiektywu". Godraye nie wymagają specjalnie RTX'a w Falloucie 4 można sobie dodać w modach - polecam - zwłaszcza z lasem. Tutaj jeśli coś układ RTX przyspieszy to ma sens, ale wątpię, aby GTX sobie nie radził. Blender Cycles vs Eevee daje dużo większą różnicę, obraz czym jest prawdziwy Raytracing i dlaczego lepiej wybrać fake Raytracing.
A tak wygląda jakość RT Off Java Edition:
https://www.youtube.com/watch?v=ryAIpOdbHXo - taki poziom grafiki jest stały - nie trzeba czekać na te kilka momentów czy szukać miejsc. Ma dużo mniejsze problemy z odbiciami niż wiele wersji Shaderów z symulacją promieni. Pod wodą też dużo lepiej wygląda. W dodatku silnik jest tak lekki, że można doczytać bardzo zaawansowane tekstury i na nie przeznaczyć moc, albo przy innych shaderach na wspomniane godraye (choć polecam bardziej postawić na ładne cienie i Seus Renewed)
Inny przykład nieudolnego RT On:
https://www.youtube.com/watch?v=wXYk2MwZY1I
PTGI i HRR to Raytracing bez wymaganej karty z RTX. W rzeczywistości raytracing w tym wydaniu przedstawia się jeszcze gorzej. Bo praktycznie w miejscu scena nie pokazuje a) upierdliwego rozmycia gdy np. wieśniaki się poruszają b) strasznego mydlenia detali + szumów tam gdzie ciemno c) któraś z wersji RT On ogranicza rozchodzenie się promieni w odbiciach do jakiś 15 bloków i dalej nic nie ma (i tak muli) d) Dla mniejszego obciążenia wyłączyli totalnie mgłę
Nawet z przykładów gameplay'u CP77 dało by wyciągnąć raczej podobne wnioski. Główną zaletą w CP77 RT On jest to, że nie dają innych detali - tylko i wyłącznie skupiają się na poprawie jakości RT On. Jeszcze może byłbym przekonany do Overdrive, ale dużo innych detali za tą samą wydajność można zyskać. Patrzenie w kałurzę i rzekę są najgorszymi argumentami do porównania RT On vs Off bo głównie wadą RT Off jest gorsza - pewnie celowo implementacja SSR.
RT On to głównie szansa dla open worldów w kwestii dynamicznego "pieczenia" tekstur jak dla mnie. Wypieczone tekstury z RT Off to jest quantity over quality - jak tu nieraz słyszę. Większość pewnie dem tych gdzie się kłucą -czy to fake - powstaje w ten sposób. Open World i dynamiczna pogoda to trochę inny przypadek, ale czy rzeczywiście nie dało by postawić równoległego procesu, który by robił te cienie tyle ile maszyna daje radę? RT On głównie przyda się jak coś się rusza, a jak coś stoi w miejscu to miejsce dla RT Off (czy też RT On, ale na zasadzie np. 15 sekund na render). Dopiero jak trochę w tą stronę pójdzie technologia to jestem w stanie uwierzyć, że RT On ruszy pełną parą.
To zależy od tytułu gry i wersji RT. Nie wszyscy twórcy gier dobrze wykorzystują RT.
Jak sam widzisz, nie wystarczy mieć tylko karty z RT. Techniki i wersje RT w grach decydują o jakość. Niektóre twórcy gier są po prostu leniwi i nie za bardzo się postarali.
Na przykład RT w Elden Ring nie robi to duże różnicy, że można po prostu wyłączyć RT, by mieć więcej FPS, a grafika nadal będzie bardzo piękna. Twórcy dodali RT do Elden Ring na siłę tylko dlatego, że gracze o to prosili.
Jak patrzę na jakość światło i cienie w grze Dead Space 2 z roku 2011 (ma aż 12 lat!), albo remake Resident Evil 2 i 3, albo Death Stranding czy Red Dead Redemption 2, to możesz mieć rację. Po prostu twórcy gier są coraz bardziej leniwi. Niestety.
Wody w Cyberpunk 2077 dało się zrobić lepiej bez pomocą RT. Wody bez RT wyglądają dość sztuczne, jakby były robione z myślą o LOW opcji graficzne. Owszem, wody z włączony RT robią duże lepsze wrażenie, ale bez RT mogłoby być lepiej, jak patrzę na World of Warships czy Red Dead Redemption 2.
Kwestia optymalizacja to największy problem w dzisiejszych czasach. Niestety.
Co do grafiki Minecraft bez RT, to robi wrażenie, ale też zauważysz, że pochłania duże mocy obliczeniowe nawet dla karty RTX 3060. Nie jest na poziomie ponad 120 FPS. Wszystko ma swoją cenę.
Co nie zmienia to faktu, że produkcji karty bez RT nie ma w ogóle sensu. Lepiej będzie dla wszystkich, jak gracze i twórcy gier mają do wyboru, czy chcą używać RT i DLSS. Im więcej możliwość, tym lepiej. Prawdopodobnie potencjału RT zostanie lepiej wykorzystany gdzieś w przyszłość.
Pożyjemy i zobaczymy.
Wydaje się, że głównym powodem forsowania tego było zaistnienie DLSS + to, że AMD raczej gorzej sobie radziło z zastosowaniami typu CUDA - czyli Blender itp. Trochę to myk w stronę miażdżenia konkurencji, a nie w stronę lepszej jakości dla graczy. Chyba obecnie NVidia stała się ofiarą swojej nowinki, bo jakość RT On nie jest, aż tak miażdżąca. Osobiście wolę więcej innego typu detali. Każda raczej gra która już zainwestowała w jakąś dziwną formę dynamicznego oświetlenia porzuciła optymizację starej drogi wyświetlania grafiki. Lepiej jak gra nie ma na początku tego ficzera tylko dochodzi po jakimś czasie.
Lumen w UE5 - daje głównie szanse na jakość dynamicznego światła, jednak wszystkie piękniejsze dema nad którymi się zachwycano - są raczej efektem "pieczenia" i statycznego oświetlenia gdzie głównie odgrywa rolę możliwość zaczytania większych/dokładniejszych tekstur.
Popatrzę na gry na UE5 + lumen dopiero może zacznie się coś dziać. Kupno karty dla znudzonego już CP77 to strata pieniędzy. Zapowiadane DLC nie zmieni raczej tej gry w jakiegoś dużo lepszego sandbox'a. Aby jeszcze raz zagrać potrzebowałbym nowych zasad gry z "tymi samy mi kartami".
Pamiętasz, jak było z 2 lub 4 rdzenie dla procesora? Też kupowanie CPU to strata pieniędzy, gdyż nie było wielu gry, co potrafią wykorzystać te potencjały. Dopiero za parę lat ukazali się coraz więcej gry, co potrafią wykorzystać wielu wątków. Tak samo było z 12 i 13 generacji Intel razem z E-rdzenie, a AMD co dopiero planuje wprowadzić E-rdzenie do własne CPU.
Też nie ma wielu gry, co potrafią wykorzystać potencjały SSD i DirectStorage poza przereklamowany Forspoken. Potencjał DirectX 12 przez wielu lat nie był dobrze wykorzystany, a teraz jest już lepiej.
Też nie jest wyjątek z RT. Chociaż mamy już Cyberpunk 2077, Watch Dogs Legion, Metro Exodus, Dying Light 2, Control, Portal RTX i coraz więcej gry na RT, to potem pojawią się coraz więcej gry, co potrafią lepiej wykorzystać potencjały RT. Niestety do tego jest potrzebny RTX 4000, a RTX 3000 i 2000 są zbyt słabe, by wykorzystać pełny potencjału RT. Świetnie to pokazuje Cyberpunk 2077 w trybie overdrive i Portal RTX, co potrafią nieźle wykończyć PC.
Tak to jest z nowe technologii. Wielu twórcy gier nie widzą sensu w tworzenie gier z bardziej zaawansowane RT, gdzie tylko niewiele gracze mają takie PC z mocarne karty. Niektórzy bardziej wolą rozdzielczość 4K niż lepszy RT na 1080p. Oto dlaczego. Minie parę lat, zanim zobaczymy nowe gry z RT na wyższy poziom. Konsoli PS5 i XBOX trochę pohamują te możliwości, bo są zbyt słabe na RT w połączeniu z 4K.
Natomiast DLSS 3 jest inny, bo jest łatwy do dodanie w grach tak samo jak FSR od AMD. Twórcy gier nie widzą w tym problemu, o ile umowa tego nie obowiązuje np. tylko FSR dla wybrane tytułów. Początkowo DLSS 3 miał tylko 30 gry, ale ta liczba stale rośnie.
SSD i DirectStorage - głównie jedynie z pierwszymi SSD miałem wątpliwości, bo szybko padały, ale nikt nie narzekał na szybkość odpalania. DirectStorage - jeszcze nie jest popularne, mało kto wie z czym to się je, ale nie wygląda jakby poświęcanie coś za coś, a w przypadku RT On poświęcasz DLOD na rzecz DLighting.
RT On dodatkowo dotychczas ukrywane elementy poza ekranem, ciągle są w jakimś buforze czy widać czy nie, bo kałuża musi być gotowa na odbicie.
Czy jest aż taka różnica z tą kałużą RT On a SSR? Tak SSR w wielu momentach wygląda lepiej - jeśli trzeba ograniczać liczbę symulacji promieni (w dużych grach to konieczność).
Można włączyć też mocniejsze DLSS i cała masa innych detali wypada gorzej. Sens jest tylko w przypadku dużo starszych gier. W przypadku starych gier i tak bardziej myślałbym o lepszym DLOD - dynamic level of detail - co wybrać gęsty bujający się od wiatru las czy kilka nieruchomych drzewek bo RT On musi nadążać?
Dalej jest potencjał z masą konkretnych detali, najmocniejsze RTX'y nie uciągnęły by całego potencjału. CP77 kojarzę z dziwnym doczytywaniem detali, dlaczego tak jest? Bo gęstość elementów jest bardzo duża. Tylko czy to nie jest bardziej wytłumaczenie, że NVidia dała kasę - musi ten RT On na jakiejkolwiek karcie graficznej pójść?
"Niestety do tego jest potrzebny RTX 4000" - niestety potencjał będzie dopiero przy 5000-6000 - nawet do CP77, aby pograć bez mglistych detali. Gry z UE5 mogą być dobrym znakiem aby postawić na nowszą kartę, albo aby poczekać aż naprawią błędy te kilka lat. Lumen będzie chodził też na AMD - ciekaw jestem tego pojedynku.
CP77 jako jedyna gra zaoferowała jakiś lepszy RT On, była cała masa podobnych prób w przeszłości. Chociażby któryś z Minecraftowych SeusPTGI czy HRR to też próba zastosowania tej techniki overdrive. Jest dużo roboty aby wszystko hulało git malina. Trzeba rezygnować przy produkcji z jednej jakości na rzecz innej. Gracze muszą rezygnować z wydajności.
co do rdzeni nie miałem wątpliwości, że będą przydatne, ale do tej pory jako gamingowe rozwiązanie warto mieć quality over quantity, niż całą masę powolnych serwerowych rdzeni. Co powiesz dzisiaj o asynchronicznym SLI?
Co nie znaczy, że E-rdzeni są niepotrzebne. Wręcz przeciwne. Widziałem testy, gdzie i5-13600k ma mniej wąski gardło dla RTX 4090 niż i7-12700k. RTX 4070 działa lepiej na i5-13600k niż na i5-12400f. Lepsze taktowanie w trybie Turbo Boost na wszystkie wątków i dodatkowe E-rdzenie robią swoje. Mam i5-13600kf i widziałem testy, więc wiem, o czym piszę. Dodatkowe E-rdzenie znacznie skracają czas dla programu 7-zip czy obróbki wideo, więc nie są bezużyteczne. Jak wyłączysz E-rdzenie w BIOSIE, to P-rdzenie z i5-13600k zużywają więcej prądu w praktyce przez większości czasu. Jak sam widzisz, E-rdzenie ma szerokie zastosowanie i będzie lepiej w przyszłość.
niestety potencjał będzie dopiero przy 5000-6000 - nawet do CP77, aby pograć bez mglistych detali
Nie do końca, jeśli chodzi o CP2077. Testowałem RTX 4070 u znajomego i Cyberpunk 2077 na RT Overdrive bez problemu chodzi na 1080p z ponad 90 FPS i 1440p z ponad 60 FPS. Też da się grać na 4K, ale tylko z 30 FPS. RTX 4070 daje radę z Portal RTX. Więc myślę, że spokojnie daje radę z DLC do Cyberpunk 2077 na 1080p i 1440p.
Na ile lat myślisz ten RTX 4070 starczy, żeby cieszyć się RT On i nie odgrzewać starych kotletów? (chyba nawet CP77 już by się klasyfikował do starszych gier) Wątpię, by jakakolwiek następna nowa gra poszła mi w 60fps z RT On i 2k, bo musiałby się zatrzymać postęp.
Trzeba wtedy więcej odgrzewać starych kotletów jak Portal - przyznam nawet jakby nie wiadomo jak wyglądała gra - nie chce mi się od nowa w to grać, podobnie w Quake 2, Wiedźmin 3 - optymizacja tego RT On bardzo mnie zawiodła.
Za to wolę odgrzewanie kotletów w stylu Tony Hawk PS1+2 - gdzie nie ma RTX, za to po prostu jest gra przepisana od nowa i jest traktowana przeze mnie jak nowa.
Nie pisałem, że masz kupować RTX 4000. Ty sam pisałeś, że od RTX 5000/6000, więc ja tylko wspominałem o RTX 4000.
Nie licz, że RTX 5000 będą tańsze od RTX 4000. Po prostu musimy długo poczekać, aż RTX 4000 tanieją. Kiedyś RTX 3060 był za ponad 4000 zł (w czasach epidemii), potem 2500 zł, a teraz jest za 1400 zł. Nie opłaca się kupić nowe karty w dniu premiery, niestety.
Po prostu jeszcze nie nadszedł ten czas, gdzie RT staje się obowiązkowy standard. Twórcy gier dobrze zdają sobie sprawę z tego. Obecność 4K bardzo to utrudnia, gdyż też zabiera dużo mocy obliczeniowe GPU, a firmy reklamują o 8K...
Trzeba wtedy więcej odgrzewać starych kotletów jak Portal - przyznam nawet jakby nie wiadomo jak wyglądała gra - nie chce mi się od nowa w to grać, podobnie w Quake 2, Wiedźmin 3 - optymizacja tego RT On bardzo mnie zawiodła.
Ponieważ powstali w czasach, kiedy nie było RT. Więc te gry nie są do końca przygotowani z myślą o RT. Gdyby gry będą stworzone z myślą o RT, to sprawa wygląda inaczej. Starsze silniki czasem ograniczają i utrudniają.
Byłbym w stanie wydać nawet 4000zł na kartę, jakbym miał powód, ale przez Raytracing pułap wydatków zmniejszam na 1500-2000zł. Prędzej wydam na lepszy procek 2000-3000 do Rimworlda, alby cieszyć się większą populacją w modach, a tak to dzięku temu RT On gram na najwyższych detalach - wyłączając go i mając porównywalną grafikę. Nawet z tym overdrive przesunąłbym najpierw jakbym mógł dystans gdy widoczne są detale oświetlenia, lepsze tekstury, auta - to chyba dopiero byłoby z Overdrive poziom 5000.
Dałbym też więcej na kartę gdyby CP77 był lepszym sandboxem. Podobnie Hogward Legacy - to trochę, za słaby sandbox.
W CDP z resztą porzucili silnik CP77 - ze "świetnym RT On" w następnym Wiedźminie. Epic chyba już w standardzie z UE4 lepiej radzi sobie z oświetleniem niż silnik Wiedźmina. W dodatku kiedyś do rozwiązania Nvidii trzeba byłoby dopisać rozwiązanie od AMD.
Epic/UEngine też jak czytam komentarze ma trochę dosyć praktyk Nvidii - ten Lumen to trochę wygląda na protest w stosunku do tego co się dzieje na rynku gier.
Prędzej wydam na lepszy procek 2000-3000 do Rimworlda, alby cieszyć się większą populacją w modach
Jeśli masz na myśli CPU, to mam i5-13600kf i jest to super procesor za tylko 1399 zł. Nie trzeba wydać ponad 2000 zł. Zakup i7 czy i9 nie ma sensu, bo w grach niewiele zyskuje, chyba że masz RTX 4090. Tym bardziej że Intel planuje wydać nowe i lepsze procesory jeszcze w tym roku, a za 1-2 lata jeszcze nowsze procesory.
i5-12700k okazał się słabszy od i5-13600k. Niezła ironia, co? Dlatego zakup i7 czy i9 dla granie nie ma sensu.
Co do karty graficzne i RT... To zrozumiałe. Graj na wybrane karty, co uważasz za słuszne. Ważne, że będziesz szczęśliwy w grach i tylko to się liczy. ;)
Co do opłacalność RT, to po prostu poczekamy i pożyjemy i zobaczymy, jak to wygląda za kilka lat. Nie ma sensu tutaj kontynuować dyskusji o RT.
Też nie lubię praktyki NVIDIA i niektóre wydawcy gier, co nie są fair wobec klienci. Dlatego nie zamierzam kupić karty graficzne za pełne ceny w dniu premiery, lecz wolę czekać na obniżki ceny.
Życzę Ci miłego grania i miłej przygody. ;)
Pewnie masz rację, jak się patrzy na wydajność/cena 13600KF to obecnie najlepszy wybór, do gier. Być może jak popatrzę na szerszą ilość zastosować i7 bym może jeszcze wziął pod uwagę. 3-ci kawartał 2023 ma wyjść nowy Intel - kontynuować 13-stą generację. Na to może jeszcze poczekam, obecnie stare i7700k jeszcze do wszystkiego mi wystarczy. Jedynie co ERing głównie chyba wyróżnia się na tle nowych gier, nie umie bez procesora.
Nie wiem totalnie co się z tym AMD dzieje i czy to się komuś opłaci, czy nie ma overclockingu bo działa jak podkręcona karta, słabszy silikon?
Więc co wybrać 3060 czy 4060 do grania w HD? Osobiście skłaniam się w kierunku 3060, jego 12GB lepiej by dźwigało moje zmodyfikowane gry. Muszę zastąpić moje leciwe GTX 960.
Jeżeli zamierzasz używać dlss, to 4060 wypadnie "troszkę" lepiej, natomiast przez wykastrowaną szynę i bez używania tej oszukańczej metody, która ( według mnie pogarsza zauważalnie grafikę i nigdy jej nie używam) to lepszym wyborem i mocniejszą kartą jest 3060 a na pewno ti, bo 8 gb ramu jest wystarczające do fhd. Szkoda bardzo, że okroili szynę, bo jakby nie to, to 4060 ti byłby odpowiednio szybszy od poprzednika jak faktyczny next gen, a tak to bida z nędzą...
Szczerze? w przedziale 1400-1600pln wolałbym zaryzykować z jakąś używką RTX-a 2080TI 11GB która bije na łep wszystkie tu wymienione karty.
Ja bym nie polecał 2080TI. Mimo wszystko to stary smok i dużo prądu ciągnie , grzeje niemiłosiernie, a jeśli grzeje karta to większe ryzyko, że szybciej padnie. Może w latach swojej świetności ta karta chodziła na niskich obrotach, ale raczej trzeba założyć, że gry były odpalane w 4K i raczej głównie najnowsze z RT On. Ja się nastawiam na serie między 60-tkami i a 70-tkami i chyba nawet zejdę z tego TI/ czy super w dół. Nie wychodzi na tyle dużo gier, abym dalej miałoby sens wymienić 2070S na coś więcej. I tak w kolejce jest jeszcze procek stary do wymiany i cała pewnie cała masa reszty podzespołów.
Może RT On byłby powodem, ale osobiście i wiele komentatorów widzi równie wiele wad tego rozwiązania co zalet - również wizualne artefakty/ostrość są istotne. Jeśli już to z tą kartą zablokowałbym temperatury, obecnie też to robię ze swoim 2070S, bo obecnie zagłuszałby z procesorem głośniki.
DLSS3 i dobrakowywanie klatek to też jest sensowna inwestycja, ale lepiej i tak poczekać z rok/2 aż coś więcej wyjdzie z obsługą tego. "FSR only" stoi też trochę na przeszkodzie, aby się aż tak opłacało.
Chciałbym w końcu wymienić swoje 1060, które mam sparowane z i5-6600K i to niskie TDP wydaje się fajne przy zasilaczu 450W. Tyle, że 3060 podobno też by dało radę jeszcze na takim, a może w wielu przypadkach będzie jednak wydajniejsze :P
Z przeciekowych benchmarków wynika, ze 3060ti jest szybsza od 4060, a samo 4060 jest szybsze od zwyklej 3060 o 18% maks, więc szału nie ma.
Miałem i5-6600K podkręcony do 4,5 Ghz i w niektórych grach CPU był za słaby, razem z GTX1070, więc dla nowej karty szykuj się na wymianę CPU.
Kiedyś chwalono się przyrostami wydajności między generacjami, teraz zmniejszonym poborem mocy
Fajnie, wybulę 1550 zł, żeby "zaoszczędzić" 200 zł w...uwaga 4 lata! Do tego starą kartę sprzedam za 900-1000 zł, więc będę "do przodu" 1100-1200 zł. ;P
Brawa dla nVidii! Przy okazji chciałbym też pogratulować wszystkim akcjonariuszom tej firmy. Jeżeli ich księgowość wygląda równie dobrze, wróżę wypłatę "wysokich" dywidend.
To może napiszę w imieniu wszystkich, no to zaczynam :
GNIOT GONI GNIOT :) ahahha
ah tej firmie chyba już nic nie pomoże wypuszczają takie karty z takimi cenami i V-RAM że aż boli w oczach :)
tak jak pisałem wcześniej ta firma się uwstecznia :)
najpierw wydają RTX z ograniczoną ilością RAM do 8GB
potem wydają RTX z 12 GB ale one już mają uciętą szynę do 192 lub 128 bit gdzie tu sens i logika tak czy inaczej klienci mają u nich przegwizdane te karty się po prostu nie opłacają to są GNIOTY...
specjalnie ograniczają karty poprzez szynę lub ilość V-RAM
u nich jeszcze nie spotkałem karty która by miała 16 GB z szyną " 256 BIT " w jakieś ludzkiej cenie... odbiło im kompletnie od czasu krypto walut i tyle w temacie a to co teraz wydają to po prostu kpina z klientów myślałem że gorzej być nie może a tu proszę RTX 4060 :) może i nawet z 16 GB :) ale co ci po tym skoro karta będzie mieć tylko 128 bitów szynę to skutecznie udusi te całe 16 gb :)
NVIDIA wydaj jeszcze kartę z 24 GB RAM ale tylko z SZYNĄ 64 BITY albo 16 BIT :) MASZ JESZCZE TAKĄ MOŻLIWOŚĆ :) HAHAHA.
MOŻE KTOŚ KUPI :)
NVIDIA w następnej karcie przytnij wiatraki :) bo tego jeszcze nie ucięłaś.
zapewne RTX 5000 BEDZIE fotowoltaiczne :)
cena też będzie fotowoltaiczna ale to szczegół :) ahhaha
Wydajność karty z 2017 (gtx 1080ti). Super