Nvidia ma szykować potworną kartę graficzną z 48 GB VRAM
To co, pierwsza w historii karta w cenie miejskiego samochodu z salonu? :)
To co, pierwsza w historii karta w cenie miejskiego samochodu z salonu? :)
No takie przecieki o kartach Nvidii coraz bardziej potwierdzają że karty AMD rzeczywiście będą tak dobre jak mówią przecieki - czyli 100%+ wzrost wydajności w rasteryzacji i jeszcze większy wzrost w RT w porównaniu do rx 6900 xt, a to wszystko przy wydajności na wat znacznie lepszej niż w RDNA2. Wygląda na to że Nvidia wie co szykuje AMD i dlatego kręcą moc w kosmos - tak jak w przypadku serii 30xx, gdzie karty są tak wysoko wykręcone że obniżenie mocy o 10-15% skutkuje spadkiem wydajności na poziomie kilku procent.
Oswieccie mnie prosze, czy to ma jakis cel i sens poza siegnieciem do portfeli ludzi, ktorzy maja nie ograniczone mozliwosci finansowe a chca posiadac zawsze i w kazdym momencie topowy sprzet?
Piotr.
Nie rozumiem, pytasz się jaki jest cel tworzenia coraz lepszych kart graficznych? Znaczy rozwój powinien był stanąć na Riva TNT 2 czy jak?
Topowe karty są tworzone po to żeby być jak najwyżej w rankingach, nikt kto w jakimkolwiek stopniu przejmuje się budżetem nie powinien nawet patrzeć w stronę RTX xx90 i RX x9xx.
Nawet nie tylko większy pobór prądu, ale także dużo większa temperatura. Jak ty schłodzisz taką kartę pracującą pod maksymalnym obciążeniem z maksymalnym poborem prądu? Nie wiem nawet czy woda jest w stanie schłodzić tą kartę do optymalnej temperatury. Bez wątpienia wentylatory są wykluczone, woda da sobie radę, no ale jednak będzie problem, to prawdopodobnie będzie wymagać jeszcze lepszego chłodzenia XD.
Lepsze karty ok, ale nie kosztem wielu rzeczy. Wiesz co to znaczy rozwój? To po prostu ulepszanie! Nie zwiększanie wydajności i degradowanie pozostałych czynników. Proste, ale chyba tego nie ogarniesz, bo ogarniasz tylko tą wypaczoną filozofię: jak najwięcej wydajności jak to tylko się da, więcej więcej tego, nieważna reszta. Zresztą tak jak wielu innych graczy, którzy tym się kierują.
No jak chcesz mieć topowe to bierzesz XD Co za pytanie? Sens posiadania wtedy jest.
Ja jestem osobą która chce mieć topowe ale na tyle ile wystarczy do grania w maks detalach na 4k i - odważe się - 70fps - zresztą scappowałem sobie odświeżanie na 80fps bo szkoda mi prądu - a jeszcze bardziej ciepła w pokoju. gsync daje lepszą płynność w moim odczuciu i tak niż każdy fps powyżej 40tego jak mam gsynca włączonego (mówię o grach bezprzesady dynamicznych)
To durnota przepisywana z zagranicznych portali. 900W wynika z podwójnej 16 pinowej sekcji zasilania, która wraz z PCIE jest w stanie dostarczyć tak dużą moc... Taką sekcje zastosowali w testowym modelu tej karty.
Całkiem możliwe że testowano sekcje zasilania pod to, czy ścieżki na PCB i łączenie z chipem wytrzyma tak duże prądy....
To nie ma nic wspólnego z TDP nowych kart.
TDP nowych kart będzie pewnie w okolicach wcześniejszych oszacowań, czyli powiedzmy 450-600W. Zresztą nowa seria jest już w produkcji to profesjonalny H100, który w najmocniejszej konfiguracji jest w stanie pobrać 700W, ale wersja PCIE pobiera tylko 350W....
Z mocami rzędu 900W w jednym chipie pojawiają się niespotykane wcześniej problemy techniczne/fizyczne, jak przewodność cieplna na małym obszarze i to, że przy napięciach rzędu 1V, to jest 900A, czyli gigantyczny prąd, który potrzebuje gigantycznych przekrojów, by spadki napięć były akceptowalne i samo dostarczenie zasilania nie generowało gigantycznych ilości ciepła. Bo ilość ciepła wydzielanego na przewodniku zależy od kwadratu prądu. Czyli ścieżki pod kartą 900W wydzielają 9x tyle ciepła co pod 300W przy tym samym przekroju... teoretycznie można zwiększać przekrój, ale nie wiem, czy w kartach 450W nie doszliśmy do tego, żeby jakoś specjalnie projektowac PCB pod kartą. Bo prądy tego rzędu są już dość ekstremalnymi prądami. Co prawda w wielu dziedzinach występują wyższe prądy, ale nie w tak małych obszarach.
Testowanie kart w tę stronę ma sens, robienie fabrycznej karty pobierającej 900W moim zdaniem nie ma sensu. Szczególnie, gdyby wychodziło, że ma mniejsza efektywność energetyczną, niż karta ze starej serii.. Bo tam pojawia się sporo problemów technicznych, które nie koniecznie są przy produkcji seryjne tanie w rozwiązywaniu.
Ja rozumiem potrzebę tworzenia coraz bardziej wydajnych kart graficznych ale to zapotrzebowanie na energię też powinno iść wraz ich rozwojem i być coraz mniejsze, a nie coraz większe. Niedługo komputery będą wymagały przydomowych mini reaktorów.
Te 900W to będzie brał przyszły Geforce Titan, karta nie dla zwykłego śmiertelnika, dla nich będą RTX 4090Ti/90/80/70/60/50.
90 ani najdroższe 80 też nie są dla zwykłych śmiertelników, nie mierz swoją miarą i bierz pod uwagę średnią pensję statystycznych ludzi :P.
Nawet jeśli będzie ogromny wydajność i będzie kosztowało 2000 zł, to tak nie biorę, bo wysoki pobór prądu i wysoki temperatury to bardzo odczuwalna wada na dłuższy metę. :>
Wszystko fajnie, tylko jest jeden problem.
NIE MA W CO GRAĆ .
dobrze goda.....
Ja jestem wielkim zwolennikiem oszczędzania z głową, więc przyznam, że te pogłoski o serii 4000 są dla mnie lekko martwiące. Pobór prądu to dla mnie raczej wada niż zaleta kart graficznych — takie "zło konieczne" — więc wolałbym, żeby był jak najniższy. No ale, zobaczymy co to będzie dopiero, jak już będą miały premierę.
Moja teoria o zatrzymaniu się rozwoju technologii podzespołów się coraz bardziej sprawdza...
Jeśli wzrost mocy obliczeniowej = taki sam lub niewiele mniejszy wzrost zużycia energii to oznacza więcej tego samego w starej technologii.
Kartom RTX 30XX można trochę wybaczyć, bo wprowadziły osobne mikroczipy odpowiadające za Ray Tracing. Karty 40XX już tej wymówki nie będą miały.
Nie zaakceptuję niczego poniżej przynajmniej dwukrotnego wzrostu wydajności względem wzrostu zużycia energii - czyli np. 50% więcej mocy obliczeniowej i tylko 25% większy pobór energii względem starszych kart.
Fajnie, tylko, że nie mozna mieć więcej vram niz operacyjnej, bo będzie throtting . Dlatego nie ma osób, które tak mają
Może górnicy odpuszczą?
Mi wystarczy GF 4050, ale w normalnej cenie (nie udało się z GF 3060 przez tych terrorystów kopaczy) i niech Nvidia zrobi coś z tymi przeklętymi bandytami, którzy zdewastowali rynek i skrzywdzili miliony graczy.
Dopóki z tymi bandytami ktoś nie zrobi porządku, dopóki kart graficznych nie zobaczymy nawet w cenach premierowych.