Dla kart RTX 4000 wymienisz zasilacz
Już biegnę kupować kartę za milion cebulionów, generującą prąd za drugi milion, tylko po to, żeby mieć lepsze cienie w grze niż na ps5.
A niedawno kupiłem 1000W tylko jeszcze karty do niego nie dostałem :D
To są jakieś jaja... może niedługo trzeba będzie bezpośrednio elektrownie do tych kart podpinać?
Nawet customowe chłodzenie wodne przeznaczone tylko do GPU z 2 chłodnicami 360 mm nie byłoby w stanie tego schłodzić. Ktoś wymyślił jakąś totalną głupotę.
Samo miejsce styku chipu gpu z blokiem wodnym było by wąskim gardłem jeśli chodzi o przekazanie ciepła.
Idiotyzm - to jakaś plotka która jest nierealna.
Jak na razie to gdybanie. Lovelace ma być na 5nm TSMC więc w teorii te karty powinny być bardziej energooszczędne w stosunku do Ampere.
Prędzej strzelałbym, że wartości z newsa nie będą dotyczyć TGP, a rekomendowanej mocy zasilacza dla poszczególnych kart.
Do schłodzenia 800W potrzeba odpowiednik chłodzenia wodnego z radiatorem 4800mm. Powietrzem raczej tego nie szło by w ogóle schłodzić, nawet mając komorę parową i chłodzenie na 4 sloty.
Możesz zamontować 100 radiatorów a i tak to nic nie da bo nie istnieje blok wodny który jest w stanie odebrać tyle ciepła z czipu gpu.
Nie przesadzajmy. Jeśli te nowe karty będą tak prądożerne, to będą również pierońsko drogie, bo chłodzenie i wielkość rdzenia też sporo kosztuje. Szczególnie biorąc pod uwagę, że Nvidia planuje budować te karty w oparciu o pojedynczy rdzeń.
Krypto szajs leci na łeb na szyje, kupię serię 3xxx w odpowiedniej cenie i tyle, RTX 3060 starczy do 1080p.
I tyle powinna kosztować w normalnym świecie. Niestety, żyjemy w chorej rzeczywistości i nigdy RTX 3060 nie będzie kosztował 1200-1500...
i po wyżej bo moja 2060 daje większości gier powyżej 1080p.
Z kart serii 4000 interesują mnie tylko modele 4050ti oraz 4060/ti, pobór prądu to realnie jakieś 150-250W. Wiec każdy kto siedzi na 500-600W zasilaczu, spokojnie je obsłuży. Zapewne większość graczy kupi karty z tego właśnie segmentu (jeżeli w ogóle będzie co kupić).
Flagowce jak to flagowce, są dla 1% populacji, to tak jakby napisać artykuł: nowe Lamborgini sprawi że coś tam, coś tam w Twoim życiu. No nie sprawi, jakiekolwiek by nie było.
Jeżeli 4060 będzie za 5000zł (możliwe), to za ile będą sprzedawane 4080ti oraz 4090 opisywane w artykule i kto to kupi?
Już biegnę kupować kartę za milion cebulionów, generującą prąd za drugi milion, tylko po to, żeby mieć lepsze cienie w grze niż na ps5.
Jak ktoś naprawdę zarabia i ma pieniądze, to nie ma też czasu na granie w gry na drogich PC-tach. Sprzęt pewnie posiada ale używany za często nie jest a jak już to od świata i w niedzielę.
Teraz się cieszę że zdecydowałem się na GeforceNow, moje rachunki za prąd cieszą się. Ale niestety do pracy przy obróbce między innymi grafiki 3D to będzie duży problem.
Ale na premierę w żadną grę nie pograsz
to nie jest głupota, chcecie szybciej to będzie więcej prądu żarła i ciepła odprowadzała to normalne.
Wedłg mnie to jest tylko taki chwyt, specialnie dają wyciek takim plotkom że niby 850 W, tak naprawdę nowa generacja będzie 400 - 500 Watt co już jest bardzo dużo.
To będzie na zasadzie karty będa 850 W, a potem się okaże że jednak 450 Watt i wtedy wszyscy zrobią "UFF to tylko 450 W"
Boją się przekroczenia granicy 400 W i to co powiedzą garcze.
już przyzwyczajają klienta że 450 W to norma.
Ostatnie 10 lat TDP
RTX 3080 - 320 W RTX 3080 TI - 350 W
RTX 2080 - 215 W RTX 2080 TI - 250 W
GTX 1080 - 180 W GTX 1080 TI - 250 W
GTX 980 - 165 W GTX 980 TI - 250 W
GTX 780 - 250 W GTX 780 TI - 250 W
GTX 680 - 195 W GTX 690 - 300 W
Jup, nawet w durnym acz śmiesznym dla mnie, serialu Modern Family był gość, który w ten sposób wymuszał droższe rzeczy i tłumaczył, że w ten sposób manipuluje szwagierkę - daje super drogie, i drugie super drogie - ta mówi że za drogie, to daje wtedy to co chciał na początku co i tak było drogie, ale znacznie tańsze.
Ale spoko, ludzie na to zawsze się będą łapali ;)
Zastanawiałem się między 850 a 1000. Też kupiłem 1000 i na razie czakam na dalszy spadek cen.
Fajnie się zapowiada. Wysokie ceny kart graficznych, do tego coraz wyższa cena za energię elektryczną. Nic tylko kupować.
Za zasilacz 2 koła i za kartę 20? Czy oni oszaleli do reszty, czy karty AMD też będą wp******* 500w+? Bo jeśli tak, to bye bye PC gaming for real, jeśli AMD wyda konkurenta, która będzie poniżej 400w to wybór jak dla mnie jest prosty..
Plotki mówią, że ponoć RDNA 3 ma być dużo wydajniejsze od RDNA 2, więc nVidia aby zostać na topie wprowadzi te prądożerne potwory, których chyba będą używać tylko górnicy. Bo ja nawet jakby mnie było stać, nie chcę w swoim PC części która sama jedna zeżre 550w-850w. A swoją drogą jak zamierzają schłodzić takiego potwora, i jaki zasilacz poradzi sobie ze skokami napięciowymi takiego wynalazku..
Prędzej kupię konsolę jak PC-ta z 1000W zasilaczem bo pewnie tyle dla bezpieczeńswa będzie potrzebne przy takiej karcie. Bez sensu. Postęp technologiczny powinien zmierzać m.in. do ograniczenia zużycia energii a nie jego zwiększania. Cały ten "rozwój" w segmencie kart graficznych to nabijanie kasy przez producentów. Uzyskiwane osiągi są niewspółmierne do wzrostu cen. Osobiście nie muszę mieć "n"K rozdzielczości i pierdyliona fpsów których i tak moje oko nie zarejestruje, żeby się cieszyć grą czy filmem i nie płacić za samą kartę tyle co do niedawna za całego PC-ta. I nie kupię takiej karty nawet gdyby było mnie stać :). Jak bym wygrał w konkursie to bym sprzedał :). Pozdrawiam.
850 W!? Jakoś nie chcę w to wierzyć, bo brzmi absurdalnie i nielogiczne. Nawet RTX 3080 i 2080 o 2-3 razy zużywają mniej prądu. Współczesny PC to nie lodówka czy pralka.
Jeśli to faktycznie tak będzie, to nie mam zamiaru kupić RTX 4xxx za zawyżona cena i do tego prądożerca, więc wyższy rachunek za prądu i to też na niekorzyść środowisko. Zadowolę RTX 3xxx za rozsądniejsze ceny, jak tylko będą za 1-2 lata. Albo prędzej kupię PS5 też za rozsądniejsza cena np. promocja czarny piątek.
Niektóre rządy walczą z górnicy kryptowaluty z powodu problemów dostawy prądu, a tu NVIDIA nie ułatwi zadanie.
Ale to tylko plotki. Do tego czasu mogą jeszcze zmienić.
Poczekajmy na komentarz experta w tej dziedzinie
Za duży podział zdań na ten temat.
Jak nic się nie zmieni z cenami to GF 4xxx to większość ludzi na ziemi będzie mogło sobie jedynie w internecie w pliku graficznym obejrzeć.
Dlatego moim zdaniem zaliczamy regres na rynku GPU. Z serii 7XX i 9XX na 10XX mieliśmy skok wydajności, przy równoczesnym spadku poborze prądu i tak być powinno w każdej generacji.
Na rynku CPU AMD doskonali swój proces technologiczny i chociażby w laptopach jest parę procent do tyłu względem Intela... Przy często dwukrotnie mniejszym poborze prądu, co przekłada się ironicznie zarówno na lepszą wydajność pod dłuższym obciążeniem przez mniejsze generowane ciepło, jak i lepszą żywotność na baterii. Desktopowo to samo (poza baterią oczywiście) - porównywalna wydajność (a kto wie co ich nowe procki przyniosą), przy mniejszym TDP i generowanym cieple.
Zresztą, na rynku GPU AMD też w tym przoduje - rasteryzacja jest mocno porównywalna, tylko nie mają dopracowanych rdzeni RT czy odpowiednika DLSS. Za to Nvidia radośnie podnosi wydajność zwiększając pobór mocy, co jest drogą na skróty...
Nie potrafię sobie wyobrazić, ile prądu będzie ciągnąć kombo Intel+RTX 40XX.
moim zdaniem nie ma żadnej opcji na przekroczenie 400W, powody :
- tylko bardzo drogie MB mają rozbudowaną sekcje zasilania i chłodzenie
- wymiana zasilaczy do ponad 1kW co jest w zasadzie zarezerwowane tylko dla multigpu i stacji roboczych
- konieczność wymiany obudów komputerów do min. middle ze względu na gorące GPU (pobór prądu -> więcej oddawanego ciepła rozproszonego)
- duże pobory W wymagają dużego i ciężkiego chłodzenia obecne karty są już duże i ciężkie (mówimy więc o 2x większym ciężarze jaka płyta to wytrzyma bez podpórki)
- odpowiedniki GPU dla rynku notebook (nie ma szans na 500-600W w laptopie)
i teraz najważniejszy powód mając w zasadzie DLSS głupotą byłoby nie przechodząc na mniejszą proces technologiczny dublowania układów : mało opłacalne, wielkie bloki podatne na uszkodzenia termiczne i mechaniczne. Reasumując moc zapewne wzrośnie ale za sprawą sprawności jednostek zmianą technologii i procesu wykonania a nie na zasadzie zwiększania rdzenia którego dodatkowo podkręcimy generując duże zapotrzebowanie na prąd.
Nawet 400W to moim zdaniem abstrakcja, może dla najbardziej wydajnej jednostki z oznaczeniem TI. Pozostałe dostanę od 150-350W.
- tylko bardzo drogie MB mają rozbudowaną sekcje zasilania i chłodzenie
Widzę ALEX jak zwykle ekspert, co ma karta graficzna do sekcji zasilania na twojej płycie głównej, sekcja zasilania jest odpowiedzialna za twoje GPU i ewentualnie zasilanie 70W twojej karty graficznej.
Niczego nie wymienię, bo nie mam zamiaru płacić tyle za zabawki i jeszcze za prąd. Karta klasy 3060 spokojnie mi starczy i zasilacz 520W też.
Zasilacz za 2 koła, płyta główna za 2 koła do nowych intelów, chłodzenie wodne, energia droższa przez zasranego putlera i kilka innych politycznych czynników, karty graficzne dwukrotnie droższe niż w normalnych warunkach...
A postęp graficzny gier oferuje coraz mniej istotne usprawnienia. O ile można zobaczyć duże przeskoki jakości grafiki w przeszłości, tak teraz walka toczy się o detale i wodotryski, które mają niewielki wpływ na radość z gry. Mnie wystarcza poziom graficzny gier z 2017-2020 roku, za to można by się skupić na fizyce zniszczeń, AI npc, fabule, różnorodnym gameplayu, wpływie decyzji na świat etc, ewentualnie poprawić optymalizacje. Dla przeciętnego gracza, który gra w hd lub 1440p wystarczy w zupełności karta graficzna rangi 2060 - 2070. Większość zainteresowanych nawet nie kupiła nic z serii 30xx, bo niedostępne lub w absurdalnych cenach, także zamiast wypuszczać kolejną serię, powinni zadbać o dostęp i cenę kart ze średniej i niskiej półki.