Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Futurebeat RTX 4090 może być dwa razy wydajniejszy niż RTX 3090

09.03.2022 12:48
1
8
Jerry_D
65
Senator

"RTX 4090 może być dwa razy wydajniejszy niż RTX 3090"
Jak również 2 razy mniej dostępny i 5 droższy...

09.03.2022 12:48
1
8
Jerry_D
65
Senator

"RTX 4090 może być dwa razy wydajniejszy niż RTX 3090"
Jak również 2 razy mniej dostępny i 5 droższy...

09.03.2022 12:49
😂
2
2
odpowiedz
Procne
75
Generał

A Sokół Milenium ma 10x mocniejszy silnik niż X-wing.

09.03.2022 12:51
Ppaweł
3
1
odpowiedz
1 odpowiedź
Ppaweł
64
Senator

sprzedają go z przenośnym rektorem jądrowym?

09.03.2022 21:46
Herr Pietrus
3.1
Herr Pietrus
230
Ficyt

To będą te nowe kompaktowe reaktory od Synthosu i Orlenu. :D

09.03.2022 12:58
PanSmok
4
2
odpowiedz
PanSmok
254
Legend

ta - 2x wydajniejszy, 3x drozszy i 5x bardziej niedostepny.
Kolejna generacja bedzie miala kryptonim Yeti...

09.03.2022 13:01
dzony85
😂
5
odpowiedz
dzony85
49
Generał

super!!! i 3x droższa ... na pewno Januszki się na nią znajdą

09.03.2022 13:04
Cainoor
😃
6
odpowiedz
2 odpowiedzi
Cainoor
272
Mów mi wuju

Czy to będzie w końcu karta do 4k na ultra z hdr w 120Hz 444?

09.03.2022 13:27
6.1
1
zanonimizowany1370352
6
Pretorianin

A potrzeba? :D
Jakby no mam monitor dokładnie taki, gpu 3080TI do tego aktywne gsync. Zalockowałem sobie klatki na 80 fpsów dla większości gier, czasem zjeżdżam nawet do 60.
Jedyną różncę widzę jak właczam i wyłączam g-sync. Różnicy między 60 a 120 to jest w miarę umowna - pewno w CSka robi różnice, ale grając w gierki typu rdr2 - obejdzie się według mnie. Jasne fajnie mieć.. i spokojnie wyciągnę więcej fpsów niż to co zalockowałem.. ale po kiego grzyba mam tyle prądy żreć a co gorsza - mieszkanie tak grzać ;p g-sync czy freesync robi imho największą różnicę w płynności - damn - nawet jak grałem w spidermana na ps5 - wiem że PS5 nie ma VVR - nie wiem co zrobił mój TV ale po włączeniu opcji syncu SpiderMan który działał w 30-40 klatkach z RT niestety i widać było że źle działa - po syncu grało się przyjemnie. Imho o wiele bardziej opłaca się inwestować w monitor niż GPU już ;p już nie mówiąc że HDR w większości monitorów to bullshit i rzeczywistych HDR monitorków jest tyle co kot napłakał. Acz wiem że HDR też nie wszystkim odpowiada - ale to zazwyczaj imho źle skonfigurowany HDR

post wyedytowany przez zanonimizowany1370352 2022-03-09 13:28:55
09.03.2022 13:30
tgolik
6.2
tgolik
144
Generał

Jest szansa, że będzie to karta do 4k@60, wszystko na ultra, z RT i bez DLSS.

09.03.2022 13:10
Persecuted
7
2
odpowiedz
Persecuted
149
Adeptus Mechanicus

Mam dla nich dobre hasło reklamowe:

Dwa razy wydajniejszy od 3090 RTX, przez co nie kupisz go dwa razy bardziej! Układ niedostępny w sklepach już od września 2022, bo będzie zasilał dra razy więcej koparek krypto walut!

post wyedytowany przez Persecuted 2022-03-09 13:12:50
09.03.2022 13:16
Rumcykcyk
8
odpowiedz
2 odpowiedzi
Rumcykcyk
121
Głębinowiec

Jakbym trafił w eurojackpot to bym kupił 2x do sli.

09.03.2022 21:32
8.1
Ciach123
0
Centurion

Od roku 2020 nie ma gier wspierających SLI

10.03.2022 11:28
😂
8.2
tankshtela
49
Konsul

Może i nie ma ale jaki status i fame na dzielni by był :p

09.03.2022 13:21
9
1
odpowiedz
Father Nathan
105
Pretorianin

Bez sensu taki postęp z horrendalnym poborem mocy i równie godnym potępienia wzrostem ceny karty.

09.03.2022 13:29
Kadaj
10
1
odpowiedz
2 odpowiedzi
Kadaj
66
Konsul

Jeśli wzrostowi wydajności towarzyszy kolejny kolosalny wzrost zużycia energii, to ja mam w czterech literach taki postęp. : /

09.03.2022 13:39
Rumcykcyk
10.1
1
Rumcykcyk
121
Głębinowiec

Do tego nowe procki co biorą 300W i za chwilę trzeba będzie się rozglądać za zasilaczami ponad 1000W lub więcej.

09.03.2022 21:47
Herr Pietrus
😍
10.2
Herr Pietrus
230
Ficyt

I instalacja trójfazowa do komputera!
PCMR pokaże moc.

09.03.2022 13:32
-eca-
11
odpowiedz
-eca-
59
Pancor Jackhammer

Kur@@ za chwilę karty osiągną ceny mieszkań. RTX 3080 jest już małym marzeniem, RTX 3090 bez kredytu nie osiągalny. 4090 ? Napiszę do Billa G. o wsparcie XD.

post wyedytowany przez -eca- 2022-03-09 13:32:48
09.03.2022 13:42
12
odpowiedz
1 odpowiedź
mbit
47
Pretorianin

Mój PC pobiera max 200 W i jest super.

10.03.2022 15:42
BIGPSFANBOY
12.1
BIGPSFANBOY
26
Generał

Jakim cudem, jeżeli nie mówimy o laptopie biurowym to chyba mówimy o komputerze z Ryzenem 3 3300G

09.03.2022 13:57
trzydziestolatek1990
13
odpowiedz
4 odpowiedzi
trzydziestolatek1990
23
Pretorianin

Ta... teraz nowe gry są fatalnie zoptymalizowane i chodzą źle. Wysyp kart 70-110% bardziej wydajnych jedynie pogłębi problem, bo po co optymalizować grę, skoro zapalony pecetowiec weźmie kredyt hipoteczny na domowy reaktor jądrowy i nową kartę. Co roku.

Wyższe TDP = wyższa temperatura = krótsze życie elektroniki, której cena niebotycznie rośnie. Płacisz coraz więcej za coś, co posłuży coraz krócej, ale recenzje i testy ogłoszą nowego króla mocy, konsumenci nie zauważą konsekwencji, sprzedaż rośnie - mokry sen korpo. Tylko czekam na to, jak pijarowo wytłumaczą, że powiedzmy 80-100 stopni Celsjusza jest całkiem okej dla nowych kart na dłuższą metę. Chyba nikt nie wierzy, że taki potwór nie będzie płonął?

Już teraz w nowych modelach RTX z serii 30XX, gdzie zastosowano pamięci VRAM GDDR6X, temperatury tychże pamięci potrafiły dochodzić do 108 stopni w fabrycznie nowych kartach. Dodam, że nie każdy monitoruje takie parametry. Jeszcze mniej osób dąży do obniżenia temperatur. Garstka osób uchroni swój sprzęt przed przedwczesną i nieuniknioną śmiercią. Wszystko to ma sens z perspektywy korpo, finalnie tylko zwykły Kowalski na tym traci. Ty widzisz GDDR7 przez pryzmat wyższej wydajności, ja zastanawiam się nad temperaturą nowego rodzaju pamięci i temu, jak (i czy w ogóle) będę mógł ją obniżyć bez gwałtownego spadku wydajności.

post wyedytowany przez trzydziestolatek1990 2022-03-09 19:21:31
09.03.2022 15:06
Frosty el Banana
13.1
Frosty el Banana
33
Centurion

U mnie RTX 3080 na maksymalnym obciążeniu nigdy nie przekroczył 75 stopni.

09.03.2022 15:14
SpoconaZofia
13.2
SpoconaZofia
81
Legend

Podobnie ale 80 stopni. Używam mieszaninę izopropanolu + suchy lód(Nalewam 2cm na dno kontenera, zasypuje lodem i tyle). Nie wiem czy przeciętny kowalski też to używa.

09.03.2022 15:20
13.3
zanonimizowany1255967
74
Generał

Zawsze pozostaje underclocking i undevolting, niewielki spadek wydajności ale zauważalny poboru prądu i temperatur.
Bo przy mikroporcesorach ogólnie wzrost taktowanie nie idzie liniowo z energią i ciepłem tylko od jakiegoś momentu gwałtownie one rośną

09.03.2022 18:43
trzydziestolatek1990
13.4
trzydziestolatek1990
23
Pretorianin
Image

Frosty el Banana
Spróbuj zainstalować taki program, jak HWMonitor, uruchom go, włącz wymagający tytuł bez ograniczania klatek, sprawdź temperatury po pół godzinie rozgrywki. U mnie, w spoczynku, tak to wygląda jak na załączonym obrazku. Temperatura na teoretycznie najgorętszym punkcie GPU a ogólnym wynikiem temperatury GPU to 8 stopni różnicy. Dodam też, że uzyskanie niższych temperatur na pamięci VRAM nie jest takie proste, jak mogłoby się wydawać. (ze strony Micron dowiesz się, że np. ich moduły VRAM mają odpowiednią temperaturę w przedziale "0C to +95C / +105C", nie wiem, skąd ta rozbieżność 10 stopni Celsjusza, nie czytałem dokładnej specyfikacji)

humman
No u mnie, w wypadku 3070 Ti, undervolting uważam za konieczny. Karta potrafiła mi zjadać bez tego nawet 310W, teraz nie przekracza 240W. Sęk w tym, że wiele osób robi undervolting zbyt mocno, na zasadzie obniżania napięcia do momentu, aż gry się nie wywalają lub nie wyskakuje czarny ekran i myślą, że wtedy już jest ok. Według Foresta, a jemu ufam, nie można zbyt mocno schodzić z napięciem, bo finalnie to jeszcze bardziej skraca żywotność sprzętu. Do tego fakt, że każda sztuka reaguje całkiem indywidualnie, tylko utrudnia uzyskanie optymalnych wyników. Co gdybym trafił na oporną sztukę, którą tylko zadowoli napięcie wybrane przez producenta? Loteria.

SpoconaZofia
Co jeszcze warto zauważyć w temacie kart graficznych, że zrobiła się moda na chłodzenie półpasywne. Mam to samo podejście co Forest i nie uznaję czegoś takiego. Cóż, wolę, żeby wiatraki działały mi na 17-19% w czasie bezczynności i nie przekraczać 30 stopni Celsjusza na GPU, niż żeby wiatraki w ogóle nie chodziły i mieć w spoczynku około 45-50 stopni. Znowu garstka osób to zauważy i zrobi, większość naiwnie będzie się cieszyła, że wiatraczek nie robi "brrr", bo to taki ficzer reklamowany i forsowany bodajże drugą (trzecią?) generację. A sprzęt się zużywa bardziej, taki to ficzer, aby napchać kieszenie korpo.

Jeśli zainteresował Cię temat, który poruszyłem, to obejrzyj dokument na YT o czymś takim, jak "spisek żarówkowy". Wszystko od dawna udowodnione, proceder trwa już ponad 100 lat. I to "spisek" tylko z nazwy, bo to udowodniona teza. Pytam tylko: a co z podobnymi akcjami, o których też dowiemy się z opóźnieniem?

post wyedytowany przez trzydziestolatek1990 2022-03-09 19:25:21
09.03.2022 15:47
Frosty el Banana
14
odpowiedz
1 odpowiedź
Frosty el Banana
33
Centurion

SpoconaZofia, to ja jadę na stockowym chłodzeniu :v

09.03.2022 16:17
14.1
1
dienicy
76
Generał

Tyle, ze ty mowisz o temperaturze GPU a trzydziestolatek o temperaturze pamieci. Zasadnicza roznica.

09.03.2022 16:04
15
odpowiedz
ViruS122
80
Centurion

Tylko że na gpu masz kilka miejsc gdzie mierzy się temperature, standardowo programy pokazują tylko tą jedną główną temperature. Jak chcesz sobie zobaczyć jak Ci się grzeją pamięci to program gpuz taką pokazuję i tam będzie grubo więcej niż 75C.

post wyedytowany przez ViruS122 2022-03-09 16:08:35
09.03.2022 16:10
16
1
odpowiedz
tynwar
87
Senator

A do teraz najwięcej ludzi używa 1060...
No, ale przynajmniej ludzie mają radochę jak zobaczą grafikę o 1 piksel lepszy. Np. taki skyrim wciąż dobrze wygląda i może nie jest taką super wyglądającą grą, ale został wydany już 11 lat temu, a można grać na budżetowej karcie (np. 1050 ti) na 60 fps z wysokimi ustawieniami, tak samo można grać na 60 fps w wiedżmina 3 (też 1050 ti), choć już nie z wysokimi czy nawet w całości średnimi. A ta gra została wypuszczona jeszcze 7 lat temu. Już jest kolosalna różnica w wyglądzie. Jednak teraz od długiego czasu uważam, że jest coraz większy zastój w grafice. Między wiedżminem 3 a jakąś najładniejszą grą nw. np. cyberpunk, red dead redemption 2, horizon forbidden west itp. nie ma już takiej dużej różnicy w grafice. Jednak wymagania są już ostro w górę. No, optymalizacja też poszła w dół, bo lepiej ulepszyć grafikę do oporu, żeby w ogóle zadowolić ludzi, którzy i tak nie pograją na ultra. Przy okazji pomijać aspekty jak AI czy fizyka, które od lat nie są rozwijane za mocno. Już od dawna ulepszanie grafiki jest na wyrost i to bardzo. No i cóż, ludzie sobie nie pograją w najnowsze gry mając 1060 w imię grania tylko w te najładniejsze, w które to pograją na low czy nawet medium i to się zemści na wszystkich bez wyjątku.

09.03.2022 16:23
\/
17
odpowiedz
\/
34
Lara x Panam

Ja wiem tylko, że na nowe gpu przeznaczę max 6k a co za to kupię to się okaże

09.03.2022 16:25
18
1
odpowiedz
Draglar
22
Chorąży

Nikogo to nie obchodzi. Gracze potrzebują tanich kart ze średniej półki, a nie 100 fps w 8K. Dajcie karty rangi 2060-3070 w ludzkiej cenie, z zablokowaną opcją kopania krypto, tyle wystarczy.

Z innej beczki, porównałem sobie wizualnie starego wieśka 3 z elden ringiem... Postęp graficzny niewielki, a wymagania sprzętowe dużo wyższe. Żeby zobaczyć różnicę w grafice potrzeba dwukrotnie bardziej wydajnego sprzętu, więc ta informacja o rzekomej wydajności 4090 nie przekłada się na jakąś cudowną grafikę, jedynie rozleniwia developerów w kwestii optymalizacji. Ray tracing też jest gówno warty i sprowadza się do tego, że twórcom nie chce się dopracować "tradycyjnego" oświetlenia, żeby z RT wyglądało lepiej. Kolejna zasobożerna opcja, która nieznacznie poprawia wygląd.

post wyedytowany przez Draglar 2022-03-09 16:26:30
09.03.2022 16:46
Nieobowiazkowy
19
odpowiedz
Nieobowiazkowy
5
Coronel Morales

I będzie kosztował tyle co mieszkanie.

09.03.2022 17:31
ReznoR666
20
odpowiedz
ReznoR666
48
Forgive me the 666

Jeśli karta będzie symulatorem poboru prądu, to byłoby dobrze, gdyby coś za to od siebie dawała. Nie tylko ciepło, hałas i dziurę w budżecie, ale też np. wyższą wydajność... byłoby to niezwykle miło z jej strony.

09.03.2022 19:58
21
odpowiedz
1 odpowiedź
Szymonkos1998
8
Legionista

i to wszystko za 15.999 zł :D

12.03.2022 12:39
😂
21.1
zanonimizowany1310097
33
Senator

Chyba żartujesz... przecież taki Asus ROG Strix lub Zotac AMP Extreme w RTX 3090 kosztują ponad 13K, tu trzeba się spodziewać ok 20K za kartę....

09.03.2022 20:14
Widzący
😁
22
1
odpowiedz
Widzący
243
Legend
Image

Za to będzie w opakowaniu karty wyposażenie dodatkowe:

09.03.2022 20:18
A.l.e.X
23
odpowiedz
A.l.e.X
152
Alekde

Premium VIP

Przy 18K jednostka będzie to naprawdę wydajna konstrukcja ale dalej uważam że 850 TDP to fantazja osoby od wrzucania newsów ;)

09.03.2022 21:05
24
odpowiedz
Sebcza_k
28
Pretorianin

W dupe niech se wsadza te bajki :) słowo klucz „może” czyli jarajcie się frajerzy a i tak będzie jak zwykle i to 5 x drozej

09.03.2022 21:56
25
odpowiedz
1 odpowiedź
zosia.kwiatek
5
Legionista

Przepis na granie w 8 k w
Microsoft Windows 7 Ultimate (64-bit)
ROG-STRIX-RTX3090-O24G-GAMING
[link]
[link]
NOWE STEROWNIKI NIVIDIA (NIVIDIA 473.04)/Win7 64
TV 85” QN900A Samsung Neo QLED 8K Smart TV and cable Austere VII (7) Series 8K HDMI Cable, 2.5m
980 PRO PCIe 4.0 NVMe® SSD 2TB
Samsung 980 Pro M.2 2TB M.2 Heatsink
Mam zainstalowany Samsung Magician Software version 7.0.1
Firmware 5B2Q
NVMe driver - Microsoft
Interface PCIe Gen 3X4
last benchmark Results 2022 - 03 - 08 11:50:25
Pierwszy dysk
SSD NVMe Samsung 980 Pro 2 TB
sequential read 3938 MB/s
sequental Write 3899 MB/s
temperature 44 degree
Drugi dysk
SSD NVMe Samsung 980 Pro Heatsink 2 TB
sequential read 3952 MB/s
sequental Write 3911 MB/s
temperature 42 degree
[link]
Płyta główna GA-Z170X-Gaming G1 (rev. 1.0)
[link]
komputer ram G.SKIL
F4-3733C17Q-64GTZSW (EOL)
Trident Z
DDR4-3733MHz CL17-19-19-39 1.35V
64GB (4x16GB)
[link]
Processor
Intel® Core™ i7-6700K CPU @ 4.00GHz
Audio
USB Audio Class 1.0 and 2.0 Device Driver
NVIDIA High Definition Audio
Sound Blaster ZxRi
Networking and I/O
Killer Wireless-n/a/ac 1535 Wireless Network Adapter
Microsoft Virtual WiFi Miniport Adapter
Killer E2400 Gigabit Ethernet Controller
Killer E2400 Gigabit Ethernet Controller

09.03.2022 23:19
trzydziestolatek1990
👍
25.1
trzydziestolatek1990
23
Pretorianin

Pomyśl nad wymianą procesora (no i płyty głównej), zdecydowanie wzrosną minimalne klatki i wzrośnie komfort grania na Twoim sprzęcie w nowych grach. Budżetowo, to używany i9-9900K w tym wypadku i nie schodziłbym niżej, niż 8 rdzeni i 16 wątków. Twoja karta graficzna ma wielką moc, sęk w tym, że nie jest w stanie rozwinąć skrzydeł (im niższa rozdzielczość tym gorzej, w 4k jeszcze tak mocno tego nie odczujesz). To tak, jakbyś chciał wlać przez lejek szklankę wody. Twoja karta pozwala, żebyś po prostu przechylił szklankę i lał ile wlezie, za to lejek (procesor) w tym wypadku blokuje swobodny przepływ.

A ten model to marzenie, seria Strix odkąd pamiętam trzyma najwyższy poziom sekcji zasilania i zabezpieczeń + kultura pracy!

post wyedytowany przez trzydziestolatek1990 2022-03-09 23:26:03
09.03.2022 21:59
26
odpowiedz
zosia.kwiatek
5
Legionista
Image

:-)

09.03.2022 21:59
27
odpowiedz
zosia.kwiatek
5
Legionista
Image

:-)

09.03.2022 22:00
28
odpowiedz
1 odpowiedź
zosia.kwiatek
5
Legionista
Image

:-)

10.03.2022 15:44
BIGPSFANBOY
28.1
BIGPSFANBOY
26
Generał

... CO TO ZA RTX 3090 WSADZONY DO 6 LETNIEGO DZIADKA.

W tym komputerze mógł by być RTX 2060 i i tak różnicy w wydajności by nie było.

post wyedytowany przez Admina 2022-03-10 15:45:58
10.03.2022 11:43
29
odpowiedz
Ciach123
0
Centurion

Po premierze 3080 Ti praktycznie wszyscy, których interesowała taka wydajność, wzieli 3080Ti, bo to to samo co 3090 tylko, ze z połową vram. Tutaj bedzie to samo. Wszyscy wezmą 4080Ti, kiedy tylko ta się pojawi, a 4090 będzie zalegała na magazynach, tak jak to mamy dzisiaj z 3090 względem 3080Ti

post wyedytowany przez Ciach123 2022-03-10 11:44:36
12.03.2022 20:38
30
odpowiedz
karnisterniak
151
Generał

Faktycznie RTX3080 jest tak wydajne że nie dało się go znaleźć.. Technologia stealth stosowana w kartach graficznych jest mega dopracowana. Boję się co dodadzą do RTX4XXX. Zmiotą gracza z fotela.

Futurebeat RTX 4090 może być dwa razy wydajniejszy niż RTX 3090