RTX 4090 przytłacza rozmiarem, porównanie pokazuje problem
To nie ma problemu, słuchamy pomysłu na lepszy standard niż pci wymyślone przez tęgie głowy.
Problem jest też taki, że połączenie jest bardzo czułe na zakłócenia, tam idzie tona danych, wspomniane risery potrafią powodować przez to problemy, jakiekolwiek przedłużenie połączenia może powodować zakłócenia, generalnie zalecane są sztywne risery jeżeli już.
Taki riser to niby tylko kawałek płytki i złącza czy taśma, ale to wystarczy by stworzyć problem w złych warunkach. A im wyższy standard pci tym gorzej, bo coraz więcej danych.
I jak ostatnio sprawdzałem GPU jest nadal całkowicie opcjonalne.
Co by nie mówić, 4090 to straszne bydle, ale dobrze zamontowana raczej nie tworzy problemu, lepsze to niż riser czy egpu.
A wydzielić do osobnej obudowy jako serwer grafiki i postawić symetrycznie do bazowej jednostki centralnej po przeciwnej stronie biurka (kek)
Obudowy z leżącą płytą główną. Odpada problem dużej ciężkiej grafiki jak i ciężkiego masywnego chłodzenia CPU.
No, do pewnego stopnia, bo nacisk w dół może teoretycznie odkształcić płytę :)
Obudowy z leżącą płytą główną. Odpada problem dużej ciężkiej grafiki jak i ciężkiego masywnego chłodzenia CPU.
No, do pewnego stopnia, bo nacisk w dół może teoretycznie odkształcić płytę :)
Właśnie z tego powodu nie chłodzę mojego Ryzena 9 przy pomocy powietrza mimo że jest wydajniejsze, i tańsze (Noctua NH-D15). Jak by mi miał komputer leżeć pionowo to nie wiem gdzie bym położył nogi pod biurkiem/monitor na biurku.
No, to był problem kiedyś, ale teraz jak masz chajs na top-sprzęt, to masz i pokój, który zmieści budę szerokości 40-50 cm zamiast 20-23 cm pod biurkiem :)
Tak całkiem serio - to faktycznie nie jest idealne ergonomicznie rozwiązanie jeśli chodzi o przestrzeń, ale z drugiej strony z fajnym oknem sprzęt może się fajnie prezentować (jak stoi na podłodze to dla użytkownika przy biurku nawet lepiej, bo z góry wszystko widać :)), pod spodem można pięknie upchać kable, zasilacz, dyski ATA itp bez cudowania i gimnastyki z 2,2 cm przestrzeni za tacką... mocno się zastanawiam, czy nie poszukać do nowego sprzętu (ale to pewnie za kilka lat ;)) leżącej obudowy, nawet pomimo kosztów i trudności (w końcu to nisza).
A jak nie to, to zostają podpórki - gotowe albo zbudowane z LEGO ;)
Kolejne karty będą zajmować 6 slotów i będzie trzeba robić do nich nowe płyty i obudowy bo się pewnie nie zmieszczą do tych co są teraz.
W kwestii treści newsa, sprostuję tylko jedną rzecz. Otóż oddzielna karta graficzna w PC była od początku. A potem pojawiły się akceleratory 3D i to one były montowane obok karty graficznej. Podłączało się je na zewnątrz obudowy przez przewód, który szedł do wyjścia na monitor w karcie graficznej, a monitor podłączało się wtedy do akceleratora. Pierwszym (a przynajmniej pierwszym popularnym) akceleratorem 3D był Voodoo firmy 3Dfx Interactive. Jego następca, Voodoo 2, mógł nawet współpracować z drugim w trybie SLI. NVidia wykorzystała później sam skrót, ponieważ starszym graczom z tamtego czasu był on znany.
Pamiętacie w CP2077 karty graficzne wystające z budynków. W tamtym okresie się śmialiśmy ale patrząc jak każda następna generacja puchnie to w 2077 roku mogą to być rzeczywiście takie kolosy na całą ścianę.
Na WP dzisiaj widziałem "ceny prądu szaleją, jak się ratować?" w sam raz na coraz to większe zużycie nie tylko kart graficznych bo intel też nie jest bierny jeśli chodzi o coraz to nowsze procki.
i pobór prądu i przyszły rachunek za prądu na bonus. XD
świetna karta i już wiem po co są te podpórki ;) i dodatkowo się świecą więc +1 do mojego pięknego zestawu ;)
Mało kogo stać na taką kartę graficzną. Większość ludzi kupi karty z końcówką 60/70 i 80. 90 są nieopłacalne w stosunku ceny do jakości. Niech se jest długa. Limuzyny też są długie więc trzeba mieć odpowiedni garaż. Ktoś się tym przejmuje z nas? Raczej nie bo ludzie jeżdżą mniejszymi samochodami. Ci normalni ludzie, zwykli. To są karty dla streamerów i innych którzy nie są docelowym klientem.
Będą się krzywić jak każda karta o wielkości ok 3 wentylatorów i grubości 2 slotów - od 15 lat spokojnie tak jest
Ta karta zdaje się ma już w zestawie taką podpórką co nie pozwala na jej opadanie.
Właśnie planuję zastosować taśmę w planowanym za pół roku składaku (uwziąłem się na Thermaltake Core P3) i zamierzam użyć taśmę do pionowego ustawienia RTXa. Ma ktoś jakąś wiedzę lub/i doświadczenia z takimi łączami?
RTX 3080 TUF (350w) od Asusa jest tego samego rozmiaru co RTX 2070 Armor od MSI (180w) przy okazji posiadajac niższe temepratury niż MSI. Wychodzi na to ze jak sie chce to sie umie zrobić w miarę kompaktowe chłodzenie i wydajne.
z tym rozmiarem tylko się wszystko potwierdza oni się uwsteczniają...za nie długo może będą karty wielkie jak lodówka...
Nie wiem czy wiecie, ale ze 3/4 obudów w tym momencie odpada, bo RTX 4090 w tej konkretnej wersji się po prostu nie zmieści. I nie mówię tutaj o długości, ale o szerokości karty. Z podpiętą wtyczką PCI-E 12Pin masa pupularnych obudów odpada, bo boczny panel nie da się już domknąć.
Mam nadzieję, że chociaż 4070 i 4060 będą zauważalnie węższe.
Czyli o złożeniu mini komputera nie ma co marzyć.
Martwi mnie, że u zielonych upadł całkowicie ten segment tańszych kart graficznych.
RTX 4090 faktycznie wygląda potężnie jak tak przejrzałem foty i zapoznałem się z wymiarem wysokości. Ma wysokość 75mm, ale RTX4080 (16GB) ma 61mm (reszta tj. długość i szerokość ma mniejsze znaczenie), co daje nadzieję, że nie będzie trzeba rezygnować z innych podzespołów (bez Sound Blastera się nie obejdzie przynajmniej w moim wypadku). Ciekawe czy producenci (tu mam na myśli głównie ZOTACa) ich "dodatkowo nie powiększą" ze względu na instalowany system chłodzenia.
Coś widzę, że nowy standard płyt nas czeka przy następnej generacji kart.
Pamiętam jak kupiłem GF 7800GTX (GPU, które siedzi w PS3 swoją drogą), byłem zszokowany jakie to bydle przeogromne (coś jak dzisiaj PlayStation 5 w konsolach czy Steamdeck w handheldach).
Chyba coś musiałem wycinać w obudowie, żeby to się zmieściło.
Od tamtego czasu, karty tylko rosną głównie na szerokość.
Taka Riva TNT2 to była chyba 1/4 dzisiejszych kart graficznych.
Postęp w miniaturyzacji, a produkty rosną i współczesne PC są jeszcze większe i bardziej prądożerne niż te stare :)
Na szczęście nie w każdej branży tak jest, smartfony zrobiły gigantyczny postęp w miniaturyzacji i wydajności na jeden Wat energii.
A Kim jet ten Azjatycki Gandalf Szary na obrazku?
Czy to prezes tego przesadnie drogiego imperium?
Procesory, płyty główne, hdd też są drogie, ale nie aż tak.
wielkość tej karty tylko świadczy o jej prądożerności i nic z tym je robią.
Osobny podzespół w zewnętrznej obudowie. Przykładem stare wieże Ho-Fi które składało sie z leżących na sobie w osobnych obudowach: magnetofonu, wzmacniacza, tunera radiowego, equalizera a na samej górze z adaptera płyt winylowych? Obudowy były w standardowych rozmiarach więc układanie ich na sobie dawało przyzwoity efekt. Były nawet osobne szafki na takie wieże. Ale serio... zewnętrzny moduł - to chyba nieuchronne. No bo jaka kartą będzie kolejna generacja? Mniejszą ? Wątpię.
Gdzieś widziałem że jedna taka karta graficzna miała zewnętrzne wodne chłodzenie przez co była niższa ale co z tego jak i tak musiało się zarezerwować do tego chłodzenia dodatkowe miejsce.
Niedługo to będzie trzeba kupować osobną obudowę do kart graficznych bo do tych co są teraz się nie zmieszczą.
Mozna pokusic sie o granie w 4k z RT bez DLSS
40 fps to się grało na PC 20 lat temu
jeśli koniecznie ultra to idealnie 1440p dla 70-90 fps. poniżej to tragedia a nie granie w gry akcji na PCMR
Mowi sie, ze 40fps to taki sweet spot. Za dzieciaka jak chrupnelo ponizej 30 fps to nie bylo dramy. Teraz to bylby pokaz slajdow nie do zniesienia.
Przy tej karcie w limicie z użycia prądu chyba nikt się nie zmieści.
moim zdaniem tak, szczególnie że poza Total War Warhammerem praktycznie z SLI nie korzystałem tylko z jednej 3090 bo nowe gry w większości SLi nie obsługiwały. Moim zdaniem spokojnie 2-3 lata bez żadnego ale w 4K 60+ w maksymalnych trybach.
Na nowych sterownikach dodatkowo zyskała też seria 3xxx.
Ciekawe - seria 30xx tez zyskała
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-4090-game-ready-driver/