RTX 4090 może być dwa razy wydajniejszy niż RTX 3090
"RTX 4090 może być dwa razy wydajniejszy niż RTX 3090"
Jak również 2 razy mniej dostępny i 5 droższy...
"RTX 4090 może być dwa razy wydajniejszy niż RTX 3090"
Jak również 2 razy mniej dostępny i 5 droższy...
ta - 2x wydajniejszy, 3x drozszy i 5x bardziej niedostepny.
Kolejna generacja bedzie miala kryptonim Yeti...
A potrzeba? :D
Jakby no mam monitor dokładnie taki, gpu 3080TI do tego aktywne gsync. Zalockowałem sobie klatki na 80 fpsów dla większości gier, czasem zjeżdżam nawet do 60.
Jedyną różncę widzę jak właczam i wyłączam g-sync. Różnicy między 60 a 120 to jest w miarę umowna - pewno w CSka robi różnice, ale grając w gierki typu rdr2 - obejdzie się według mnie. Jasne fajnie mieć.. i spokojnie wyciągnę więcej fpsów niż to co zalockowałem.. ale po kiego grzyba mam tyle prądy żreć a co gorsza - mieszkanie tak grzać ;p g-sync czy freesync robi imho największą różnicę w płynności - damn - nawet jak grałem w spidermana na ps5 - wiem że PS5 nie ma VVR - nie wiem co zrobił mój TV ale po włączeniu opcji syncu SpiderMan który działał w 30-40 klatkach z RT niestety i widać było że źle działa - po syncu grało się przyjemnie. Imho o wiele bardziej opłaca się inwestować w monitor niż GPU już ;p już nie mówiąc że HDR w większości monitorów to bullshit i rzeczywistych HDR monitorków jest tyle co kot napłakał. Acz wiem że HDR też nie wszystkim odpowiada - ale to zazwyczaj imho źle skonfigurowany HDR
Mam dla nich dobre hasło reklamowe:
Dwa razy wydajniejszy od 3090 RTX, przez co nie kupisz go dwa razy bardziej! Układ niedostępny w sklepach już od września 2022, bo będzie zasilał dra razy więcej koparek krypto walut!
Bez sensu taki postęp z horrendalnym poborem mocy i równie godnym potępienia wzrostem ceny karty.
Jeśli wzrostowi wydajności towarzyszy kolejny kolosalny wzrost zużycia energii, to ja mam w czterech literach taki postęp. : /
Do tego nowe procki co biorą 300W i za chwilę trzeba będzie się rozglądać za zasilaczami ponad 1000W lub więcej.
Kur@@ za chwilę karty osiągną ceny mieszkań. RTX 3080 jest już małym marzeniem, RTX 3090 bez kredytu nie osiągalny. 4090 ? Napiszę do Billa G. o wsparcie XD.
Ta... teraz nowe gry są fatalnie zoptymalizowane i chodzą źle. Wysyp kart 70-110% bardziej wydajnych jedynie pogłębi problem, bo po co optymalizować grę, skoro zapalony pecetowiec weźmie kredyt hipoteczny na domowy reaktor jądrowy i nową kartę. Co roku.
Wyższe TDP = wyższa temperatura = krótsze życie elektroniki, której cena niebotycznie rośnie. Płacisz coraz więcej za coś, co posłuży coraz krócej, ale recenzje i testy ogłoszą nowego króla mocy, konsumenci nie zauważą konsekwencji, sprzedaż rośnie - mokry sen korpo. Tylko czekam na to, jak pijarowo wytłumaczą, że powiedzmy 80-100 stopni Celsjusza jest całkiem okej dla nowych kart na dłuższą metę. Chyba nikt nie wierzy, że taki potwór nie będzie płonął?
Już teraz w nowych modelach RTX z serii 30XX, gdzie zastosowano pamięci VRAM GDDR6X, temperatury tychże pamięci potrafiły dochodzić do 108 stopni w fabrycznie nowych kartach. Dodam, że nie każdy monitoruje takie parametry. Jeszcze mniej osób dąży do obniżenia temperatur. Garstka osób uchroni swój sprzęt przed przedwczesną i nieuniknioną śmiercią. Wszystko to ma sens z perspektywy korpo, finalnie tylko zwykły Kowalski na tym traci. Ty widzisz GDDR7 przez pryzmat wyższej wydajności, ja zastanawiam się nad temperaturą nowego rodzaju pamięci i temu, jak (i czy w ogóle) będę mógł ją obniżyć bez gwałtownego spadku wydajności.
Podobnie ale 80 stopni. Używam mieszaninę izopropanolu + suchy lód(Nalewam 2cm na dno kontenera, zasypuje lodem i tyle). Nie wiem czy przeciętny kowalski też to używa.
Zawsze pozostaje underclocking i undevolting, niewielki spadek wydajności ale zauważalny poboru prądu i temperatur.
Bo przy mikroporcesorach ogólnie wzrost taktowanie nie idzie liniowo z energią i ciepłem tylko od jakiegoś momentu gwałtownie one rośną
Spróbuj zainstalować taki program, jak HWMonitor, uruchom go, włącz wymagający tytuł bez ograniczania klatek, sprawdź temperatury po pół godzinie rozgrywki. U mnie, w spoczynku, tak to wygląda jak na załączonym obrazku. Temperatura na teoretycznie najgorętszym punkcie GPU a ogólnym wynikiem temperatury GPU to 8 stopni różnicy. Dodam też, że uzyskanie niższych temperatur na pamięci VRAM nie jest takie proste, jak mogłoby się wydawać. (ze strony Micron dowiesz się, że np. ich moduły VRAM mają odpowiednią temperaturę w przedziale "0C to +95C / +105C", nie wiem, skąd ta rozbieżność 10 stopni Celsjusza, nie czytałem dokładnej specyfikacji)
No u mnie, w wypadku 3070 Ti, undervolting uważam za konieczny. Karta potrafiła mi zjadać bez tego nawet 310W, teraz nie przekracza 240W. Sęk w tym, że wiele osób robi undervolting zbyt mocno, na zasadzie obniżania napięcia do momentu, aż gry się nie wywalają lub nie wyskakuje czarny ekran i myślą, że wtedy już jest ok. Według Foresta, a jemu ufam, nie można zbyt mocno schodzić z napięciem, bo finalnie to jeszcze bardziej skraca żywotność sprzętu. Do tego fakt, że każda sztuka reaguje całkiem indywidualnie, tylko utrudnia uzyskanie optymalnych wyników. Co gdybym trafił na oporną sztukę, którą tylko zadowoli napięcie wybrane przez producenta? Loteria.
Co jeszcze warto zauważyć w temacie kart graficznych, że zrobiła się moda na chłodzenie półpasywne. Mam to samo podejście co Forest i nie uznaję czegoś takiego. Cóż, wolę, żeby wiatraki działały mi na 17-19% w czasie bezczynności i nie przekraczać 30 stopni Celsjusza na GPU, niż żeby wiatraki w ogóle nie chodziły i mieć w spoczynku około 45-50 stopni. Znowu garstka osób to zauważy i zrobi, większość naiwnie będzie się cieszyła, że wiatraczek nie robi "brrr", bo to taki ficzer reklamowany i forsowany bodajże drugą (trzecią?) generację. A sprzęt się zużywa bardziej, taki to ficzer, aby napchać kieszenie korpo.
Jeśli zainteresował Cię temat, który poruszyłem, to obejrzyj dokument na YT o czymś takim, jak "spisek żarówkowy". Wszystko od dawna udowodnione, proceder trwa już ponad 100 lat. I to "spisek" tylko z nazwy, bo to udowodniona teza. Pytam tylko: a co z podobnymi akcjami, o których też dowiemy się z opóźnieniem?
Tyle, ze ty mowisz o temperaturze GPU a trzydziestolatek o temperaturze pamieci. Zasadnicza roznica.
Tylko że na gpu masz kilka miejsc gdzie mierzy się temperature, standardowo programy pokazują tylko tą jedną główną temperature. Jak chcesz sobie zobaczyć jak Ci się grzeją pamięci to program gpuz taką pokazuję i tam będzie grubo więcej niż 75C.
A do teraz najwięcej ludzi używa 1060...
No, ale przynajmniej ludzie mają radochę jak zobaczą grafikę o 1 piksel lepszy. Np. taki skyrim wciąż dobrze wygląda i może nie jest taką super wyglądającą grą, ale został wydany już 11 lat temu, a można grać na budżetowej karcie (np. 1050 ti) na 60 fps z wysokimi ustawieniami, tak samo można grać na 60 fps w wiedżmina 3 (też 1050 ti), choć już nie z wysokimi czy nawet w całości średnimi. A ta gra została wypuszczona jeszcze 7 lat temu. Już jest kolosalna różnica w wyglądzie. Jednak teraz od długiego czasu uważam, że jest coraz większy zastój w grafice. Między wiedżminem 3 a jakąś najładniejszą grą nw. np. cyberpunk, red dead redemption 2, horizon forbidden west itp. nie ma już takiej dużej różnicy w grafice. Jednak wymagania są już ostro w górę. No, optymalizacja też poszła w dół, bo lepiej ulepszyć grafikę do oporu, żeby w ogóle zadowolić ludzi, którzy i tak nie pograją na ultra. Przy okazji pomijać aspekty jak AI czy fizyka, które od lat nie są rozwijane za mocno. Już od dawna ulepszanie grafiki jest na wyrost i to bardzo. No i cóż, ludzie sobie nie pograją w najnowsze gry mając 1060 w imię grania tylko w te najładniejsze, w które to pograją na low czy nawet medium i to się zemści na wszystkich bez wyjątku.
Nikogo to nie obchodzi. Gracze potrzebują tanich kart ze średniej półki, a nie 100 fps w 8K. Dajcie karty rangi 2060-3070 w ludzkiej cenie, z zablokowaną opcją kopania krypto, tyle wystarczy.
Z innej beczki, porównałem sobie wizualnie starego wieśka 3 z elden ringiem... Postęp graficzny niewielki, a wymagania sprzętowe dużo wyższe. Żeby zobaczyć różnicę w grafice potrzeba dwukrotnie bardziej wydajnego sprzętu, więc ta informacja o rzekomej wydajności 4090 nie przekłada się na jakąś cudowną grafikę, jedynie rozleniwia developerów w kwestii optymalizacji. Ray tracing też jest gówno warty i sprowadza się do tego, że twórcom nie chce się dopracować "tradycyjnego" oświetlenia, żeby z RT wyglądało lepiej. Kolejna zasobożerna opcja, która nieznacznie poprawia wygląd.
Jeśli karta będzie symulatorem poboru prądu, to byłoby dobrze, gdyby coś za to od siebie dawała. Nie tylko ciepło, hałas i dziurę w budżecie, ale też np. wyższą wydajność... byłoby to niezwykle miło z jej strony.
Chyba żartujesz... przecież taki Asus ROG Strix lub Zotac AMP Extreme w RTX 3090 kosztują ponad 13K, tu trzeba się spodziewać ok 20K za kartę....
Przy 18K jednostka będzie to naprawdę wydajna konstrukcja ale dalej uważam że 850 TDP to fantazja osoby od wrzucania newsów ;)
W dupe niech se wsadza te bajki :) słowo klucz „może” czyli jarajcie się frajerzy a i tak będzie jak zwykle i to 5 x drozej
Przepis na granie w 8 k w
Microsoft Windows 7 Ultimate (64-bit)
ROG-STRIX-RTX3090-O24G-GAMING
[link]
[link]
NOWE STEROWNIKI NIVIDIA (NIVIDIA 473.04)/Win7 64
TV 85” QN900A Samsung Neo QLED 8K Smart TV and cable Austere VII (7) Series 8K HDMI Cable, 2.5m
980 PRO PCIe 4.0 NVMe® SSD 2TB
Samsung 980 Pro M.2 2TB M.2 Heatsink
Mam zainstalowany Samsung Magician Software version 7.0.1
Firmware 5B2Q
NVMe driver - Microsoft
Interface PCIe Gen 3X4
last benchmark Results 2022 - 03 - 08 11:50:25
Pierwszy dysk
SSD NVMe Samsung 980 Pro 2 TB
sequential read 3938 MB/s
sequental Write 3899 MB/s
temperature 44 degree
Drugi dysk
SSD NVMe Samsung 980 Pro Heatsink 2 TB
sequential read 3952 MB/s
sequental Write 3911 MB/s
temperature 42 degree
[link]
Płyta główna GA-Z170X-Gaming G1 (rev. 1.0)
[link]
komputer ram G.SKIL
F4-3733C17Q-64GTZSW (EOL)
Trident Z
DDR4-3733MHz CL17-19-19-39 1.35V
64GB (4x16GB)
[link]
Processor
Intel® Core™ i7-6700K CPU @ 4.00GHz
Audio
USB Audio Class 1.0 and 2.0 Device Driver
NVIDIA High Definition Audio
Sound Blaster ZxRi
Networking and I/O
Killer Wireless-n/a/ac 1535 Wireless Network Adapter
Microsoft Virtual WiFi Miniport Adapter
Killer E2400 Gigabit Ethernet Controller
Killer E2400 Gigabit Ethernet Controller
Pomyśl nad wymianą procesora (no i płyty głównej), zdecydowanie wzrosną minimalne klatki i wzrośnie komfort grania na Twoim sprzęcie w nowych grach. Budżetowo, to używany i9-9900K w tym wypadku i nie schodziłbym niżej, niż 8 rdzeni i 16 wątków. Twoja karta graficzna ma wielką moc, sęk w tym, że nie jest w stanie rozwinąć skrzydeł (im niższa rozdzielczość tym gorzej, w 4k jeszcze tak mocno tego nie odczujesz). To tak, jakbyś chciał wlać przez lejek szklankę wody. Twoja karta pozwala, żebyś po prostu przechylił szklankę i lał ile wlezie, za to lejek (procesor) w tym wypadku blokuje swobodny przepływ.
A ten model to marzenie, seria Strix odkąd pamiętam trzyma najwyższy poziom sekcji zasilania i zabezpieczeń + kultura pracy!
Po premierze 3080 Ti praktycznie wszyscy, których interesowała taka wydajność, wzieli 3080Ti, bo to to samo co 3090 tylko, ze z połową vram. Tutaj bedzie to samo. Wszyscy wezmą 4080Ti, kiedy tylko ta się pojawi, a 4090 będzie zalegała na magazynach, tak jak to mamy dzisiaj z 3090 względem 3080Ti
Faktycznie RTX3080 jest tak wydajne że nie dało się go znaleźć.. Technologia stealth stosowana w kartach graficznych jest mega dopracowana. Boję się co dodadzą do RTX4XXX. Zmiotą gracza z fotela.