Ta karta jest lepsza od RTX-a 3090 Ti w QHD, a kosztuje znacznie mniej
Ta karta to największe gówno wydane przez invidie .Nie to ze okrojona od poprzedniej generacji to jeszcze dużo droższa. Zastanawiam się na jak długo starczy 12gb ramu w 1440p max ustawienia.
Fajna karta, szkoda tylko, że NVIDIA wymyśliła sobie nowy standard zasilania i trzeba się głowić z zasilaczem no bo w przejściówki się nie będę bawił przecież. A kabla 16 pin do zasilaczy nigdzie nie ma w polskich sklepach.
Też mi wielka "zabawa". Podpinasz przejściówkę do karty, wkładasz kartę do komputera, podpinasz 8-piny do przejściówki. Gotowe.
Po "akcji" gdzie jakieś 50 osób na 150 000 sprzedanych 4090 spaliło sobie wtyczkę bo źle ją wpięli, a mimo wszystko Nvidia i tak każdemu z nich wymieniła kartę?
Ja swoją 4090 używam z dołączoną przejściówką od kilku miesięcy i wszystko działa bez problemu. Nie ma się czego bać.
sadler
Bardzo dobrze ze jest nowy standard !
poprzedni jes z innej epoki !!
Z RTX4080 nie mam problemów, mimo że kabel do zasilacza mam zamówiony już od ponad miesiąca. Nic tylko czekać, bo jak na razie wymieniać mi się nie śpieszy.
To nie wina adapterów, a złego podłączania. Już udało się spalić fabryczne kable w zasilaczu czy nawet dedykowane kable od cablemod. Po prostu 8 pin były duże, toporne i miały spore ograniczenia mocy, a 16 pin są dużo mniejsze, sztywniejsze i mają dużą moc z jednej wtyczki. Przez to łatwiej je wygiąć (są fizycznie małe) i jednocześnie są bardziej podatne na przeciążenie przy wygięciu. 6 pin ma tylko 2x37,5W. 8 pin ma 3x50W. 16 pin ma 6x100W. To nie jest tak wielka różnica biorąc pod uwagę to, że mają większą powierzchnię styku. Adaptery to nie jest zlo, po prostu są brzydkie i dodają masę. Te 6-8 pin często były luźne i można było ostro zagiąć kabel, w 16 pin jest na sztywno i jest zbyt gruby aby go tak wygiąć. Stąd potrzeba że 4cm aby zrobić 90 stopni. To jest pierwszy problem i dotyczy każdego kabla, stąd powstają złączki kątowe. Adapter sam w sobie po prostu zajmuje miejsce i więcej waży, więc poza miejscem najlepiej go przymocować do obudowy tak, żeby nie przenosił naprężeń na wtyczkę. I to tyle. Kilka trytek czy opasek, ułożyć jak ma być i gotowe.
No chyba są https://www.komputronik.pl/product/798511/be-quiet-adapter-do-zasilania-kart-graficznych-12vhpwr.html
Wczoraj odebrałem Sapphire RX 6800XT za 1,5k mniej, więc dzięki ale nie chcę.
za tę cene wole wydajniejszego RTX3080, nie mówiąc o wsparciu dlss gdzie ta przepaść sie pogłębia.
LOL
i to ma być lepsze od RTX 4070 Ti? Wole dać te 1500 zł więcej, bo moc jest wręcz nieporównywalna.
Z Zotacami i Palitami mam jak najgorsze doświadczenia, wszystkie wcześniej czy później zdychały, mimo fabrycznych ustawień (żadnego OC), odpowiedniego przewiewu wnętrza obudowy i prawidłowej konserwacji. Natomiast z MSI i Gigabyte nigdy takich problemów nie miałem i w pełni sprawne, choć już nieużywane, posiadam do dzisiaj.
Dobre zdanie ''''w pełni sprawne, choć nieużywane'''' hahahaha.
Chodzi o to, że po kilku latach bezawaryjnej pracy zostały zastąpione przez nowszy komponent, pomimo zachowania sprawności (dlatego mam je do dzisiaj, choćby i na wypadek jakiejś niespodziewanej awarii). Inaczej niż Pality i Zotaci, które po prostu się zepsuły niedługo po wygaśnięciu gwarancji i trafiły do utylizacji.
Dokładnie tak.
Pality mam od GTX 970 przez 1070 i teraz 3080 i nigdy nie miałem z nimi problemów. Dlatego zawsze wybieram Palita. Mają super kulture pracy, są wydajne i bezawaryjne. Miałeś pecha, a co do Gigabyte miałem niegdyś Radeona 7970 i padł także tak to z tymi Gigabytami
To nie tylko już wyszło, ale nawet zdążyło zdrożeć?
Super karta, świetna, tańsza od najdroższej karty z poprzedniej generacji... 12 giga vramu wystarczy do grania w 1440p z włączonym rt, chociaż i to nie zawsze.
Super okazja, co prawda w outlecie można w tej cenie dotrwać 3090 które posłuży znacznie dłużej, a i zapewni zabawę w 4k.
Co prawda da się za tyle kupić używanego 3090ti, ale super okazja i gorąco polecam.
Najlepsza karta 10/10 nie polecam
w tej cenie dotrwać 3090 które posłuży znacznie dłużej, a i zapewni zabawę w 4k
Ta, chyba w grach które wychodziły jeszcze przed Turingami.
3090 to nigdy nie była karta do 4K.
To jest całkiem spoko karta, ale wyszła tak że 2-3 lata zbyt późno i jest zbyt droga. Takie to powinny być 3070 Ti czy bazowe 3080 na premierę. Obecnie 4070 Ti powinna mieć już 16GB, a 4080 Ti bliżej 20. To jest jakieś kuriozum, że mój wysłużony 1070 osiągami dorównywał 3060 i miał te 8GB pamięci. W dwie generacje zszedł ledwie o półkę niżej. Miałem zamiar zmienić na 3070, ale bym nie miał ani grama pamięci więcej. Znowu teraz po 6-7 latach wymieniać 8GB na 12GB za taką cenę to też kpina. NVIDIA poszła z cenami mocno w górę i próbują sobie usprawiedliwiać to podbijaniem numerków, ledwie się udało zepchnąć to z kategorii 4080. W praktyce obecne 4080 powinno być 4070 Ti, a 4070 Ti co najwyżej 4070 albo wręcz 4060 Ti. Jedynie 4090 robi tu robotę i pomiędzy powinien powstać faktyczny 4080 z 16GB i bliżej 12k rdzeni oraz 4080 Ti z 20GB i koło 14k rdzeni. I wtedy 4090 24GB z 16k i może 4090 Ti z 24-36GB i 18k+ rdzeni by się ładnie wpasowały. Nie bez powodu 4090 schodził jak na pniu. Nie ma realnego 4080 i wielu ludzi woli kupić 4090 i zrobić UV niż kupić niby 4080.
wszystkie istniejace gry na 3090 dzialaja w 4k@60 fps@max. Niektore spokojnie 120fps z dlss. wiec co ty pierdzielisz lol
RT to jest totalne gowno w kazdej grze i tylko nieogarnieci typi to wlaczaja (tankujac FPSy o *polowe*). Screenspacing , hbao i oswietlenie w takim Hogwart Legacy wyglada lepiej (wystarczy wejsc s do lasu) bez na sile wrzucanego bezsensownie RT.
RT wyłączają tylko typy, które się rzucają na zbyt dużą rozdzielczość dla swojej kraty. Jak np. na 4K z 3090.
Nie wiem jakim trzeba być ignorantem, żeby nazwać największy przeskok graficzny ostatniej dekady słowami, cytuję: "totalne gowno".
Nie wiem w jakim wszechświecie GTX1070 dorównuje RTX3060, ale na pewno nie w naszym. GTX1070 to co najwyżej poziom RTX3050, czyli dalej jakieś 10% poniżej RTX2060.
RTX3060 to poziom GTX1080Ti.
Mam wrażenie, że potrzeba jakieś iskry aby technologia poszła do przodu. Już od dobrych kilku lat postępy są raczej znikome jeśli chodzi o karty, biorąc pod uwagę cenę tych z wyższej półki.
Dla mnie ten artykuł to kryptoreklama karty Zotac. Nie wiem, czy ona jest lepsza, czy gorsza od innych, ale artykuł wywołuje u mnie co najmniej niesmak. Stwierdzenia typu cyt. "Niemal każdy, kto zakupił kartę, jest bardzo zadowolony z tego wyboru" czy "jedne z najbardziej podstawowych wariantów, tak jak prezentowany Zotac, w dalszym ciągu są możliwe do nabycia za niewiele więcej niż słabsze i bardziej prądożerne karty poprzedniej generacji" sugerują jednoznacznie, że "prezentowany Zotac" to najlepsza opcja.I pewnie tak się teraz zarabia na reklamie.
Co za bzdury wypisujecie, ta karta nie nadaje się do gry w rozdzielczości 4k, od razu widać ograniczenia szyny danych do 192bit, każda 4070ti dławi się w tej rozdzielczości gdzie 3090ti działa płynnie. Zotac to najgorszy budżetowy chłam i dziadostwo głośny i gorący o piszczących cewkach nie wspominając i szczerze odradzam karty tej pseudo firmy.
gdzie ci się niby dławi ?
w cyberpanku w 4k ok są spadki do 27 klatek ale reszta gierek z nowej generacji chodzi ładnie !
Hogwarts Legacy też jest problem w 4k . Ta karta na start nie wyrabia w wymagających tytułach , a co będzie dalej.
Bzdury opowiadasz, mam tę kartę i nie spotkałem jeszcze gry która nie działałby w 4K, oczywiście gdzieniegdzie trzeba użyć DLSS ale na TV 4K różnica między obrazem natywnym, a DLSS Quality czy nawet Balanced jest niedostrzegalna gołym okiem, a na pewno nie z poziomu kanapy.
Jeśli ktoś chce bezkompromisowe 4K bez DLSS to kupuje 4090, a nie kartę ze średniej półki.
A Cyberpunk działa w 60 fps w 4K Ultra z RT z DLSS Balanced lub bez RT w DLSS Quality i wyglada obłędnie.
Hogwarts Legacy działa w 60 fps w 4K Ultra bez RT z DLSS Quality i tez wyglada świetnie, RT w tej grze jest skopane i wyglada słabo (jakby ktoś wszędzie porozlewal wodę) wiec nie warto go nawet włączać.
Tak, jeżeli topowa półka kosztuje 2000 dolarów, to karta za 1000 to jest półka średnia.
Ja za tyle co ta karta kosztuje złożyłem peceta gdzie mam po 60klatek w 1440p w większości najnowszych gier
Ta, w Skyrimie, GTA V i innych hitach graficznych sprzed dekady.
Do 1440p karta super.
https://www.youtube.com/watch?v=0JoWbiayc4M&ab_channel=ClassicalTechnology Proszę bardzo gościu ma testował i długo siedzi w temacie kart graficznych.
Coś mi się wydaje, że te coraz nowsze zalecenia co do zasilaczy były mocno przesadzone, przynajmniej w przypadku Nvidii. Ileż to się naczytałem ile to prądu bierze, że trzeba własną elektrownię mieć, jakie to przerośnięte te sprzęty są. O ile faktycznie wiele rozwiązań ma bardzo przesadzone chłodzenie (za to jakie cichutkie), to TGP jest tu mocno przesadzone i ludzie na to źle patrzą. Te karty spokojnie pracują na dużo niższych napięciach i dużo niższym zużyciu prądu. Dawniej jedynie pasjonaci OC pchali karty do kuriozalnych wartości rzędu 500W+ na kartę. Dopiero z kartami 3090 i 4090 NVIDIA zaczęła je robić tak, aby nie było potrzeby modyfikowania kart i obchodzenia zabezpieczeń, są w stanie wykręcić się tak samo mocno w seryjnej wersji jeśli chcemy. Sęk w tym, że zupełnie nie musimy tego robić. Sam bawię się właśnie Strixem 4090. Jak ktoś jest leniwy, to wystarczy wpiąć 3 wtyczki i już karta nie przekroczy 450W bez żadnego spadku wydajności. Owszem, z 4 wtyczkami na 600W wyciągniemy kilka klatek więcej i jest zaprojektowana aby dać radę jeśli tyle mamy, ale to nie jest optimum, to jest max. Do tego stopnia, że o ile dawniej mogliśmy śmiało dowalić większe chłodzenie i obejść limity zasilania aby wyciągnąć trochę więcej, to obecne wersje tego nie potrafią. Możesz założyć chłodzenie ciekłym azotem, możesz dać jej i kilowat, a i tak się odbije od maksymalnych napięć z przyrostem rzędu najwyżej kilku procent. Inaczej mówiąc, obecne limity nie są dla optymalnej pracy, a do wyciśnięcia z kart ile tylko się da. Natomiast wystarczy obniżyć limity zasilania i tracimy ledwie 1-2% obniżając zużycie prądu często o 100-200W. I to bez żadnej wiedzy ani czasu na ręczne sterowanie zegarami. Sprawdzałem sam, RTX 4090 na 350W ma utratę rzędu 1,5% wydajności w stosunku do 450W. Więcej nie próbowałem, bo mam tylko 750W zasilacz i procesor jest wykrecony do 200W (typowo 100-140W). Do tego po ręcznym dostrojeniu wyciągnąłem jeszcze kilka procent lepsze osiągi pomimo ograniczenia do 350W. Skoro 4090 to potrafi, to dlaczego 4080 czy 4070 Ti miałby być inny? Może i producent zaleca 750W, ale to zakładając prądożerny CPU, inne osprzętu i wyciskanie z karty ile tylko ona potrafi (ekwiwalent dawnego podkręcania napięć). Natomiast jak chcesz mieć tą kartę z czymś mniejszym rzędu 600W zasilacza, też da radę, stracisz najwyżej kilka procent mocy, a jeśli jeszcze poświęcisz czas na ręczną kalibrację, to może nawet nic nie stracisz. To jes bardziej straszeniem konsumentów. Od dawna tak było, że do konkretnego OC potrzeba 1kW lub więcej, po prostu nowe karty dają taką opcję szaremu użytkownikowi, a nie tylko nielicznym.
Jest dokladnie jak mowisz - ale wynika to z tego, aby producent mial spokoj. Jakby podal mniejsze wymagania, to zeraz pokolenie Z aka platni sniegu bedzie robic dym w sieci, ze mu sie karta wylacza (bo sobie walnal auto OC i nagle bierze 500W). Chca miec teza spokoj wiec napiecie jest 1-1.1mv.
Moj 4090 przy 100% obciazeniu pobiera 310W. Zasilacz corsair 750W (ktory uzywalem przy 2070, 3060 i 3080). Laczny pobor kompa ok 500W. Powerlimit 100%, zrobilem tylko undervolt do 0.925 (i przy okazji OC do 2700 Mhz).
Ostatnio Lipton zrobił testy 4070Ti i Zotac wyszedł w nim bardzo słabo jeśli chodzi o kulturę pracy. Płacić tyle za grzałkę i dostać gorącą suszarkę to trochę niewłaściwa droga. Płacąc 4500 - 5000 zł za kartę, to i tak bym dołożył do lepszego chłodzenia niż na siłę oszczędzał aby mieć 4070Ti. Zotac, Palit można brać ale w słabszych układach z mniejszym TDP, w których chłodzenie nie musi być super wydajne.
Wiecie, co to jest postęp i rozwój? To jest wtedy, gdy po dwóch latach dostajemy kolejną generację sprzętu, która kosztuje tyle samo, co poprzednia - ale jest od niej wydajniejsza i/lub pobiera wyraźnie mniej prądu.
To, co mamy teraz to jest g***o, a nie postęp.
Wystarczy spojrzeć na wskaźnik "cost per frame", czyli ile kosztuje nas jedna przeciętna klatka w grach. Gdy mamy postęp - to dla nowej generacji ten wskaźnik ostro spada, tj. dostajemy więcej fps w przeliczeniu na dolara.
Tymczasem w nowych konstrukcjach ten wskaźnik w ogóle nie spada!
RTX 4090 w tym wskaźniku wypada znacznie gorzej od 3090 Ti. RTX 4070 Ti lest lepsze o grubość włosa od 3070 Ti. Co mi z tego, że dostajemy wyższą wydajność, jeśli trzeba za nią zapłacić znacznie więcej?! To nie jest żaden "postęp", to jest narost!
Ciekawostka: jeśli chodzi o wyniki bez RT, to dwuletnie Radeony 6800 (zwykłe i XT) są nadal najbardziej opłacalnymi kartami, tj. dostaniemy najwięcej wydajności w stosunku do wydanych pieniędzy.
Czyli jak 4070ti wypada wzgledem 4080? Bo cenowo to taki Asus 4080 jest 40% drozszy.
RTX 4080 jest ok 30% wydajniejszy, jeśli ktoś szuka karty do 4K to 4080 będzie lepszym wyborem, 4070 Ti też w miarę daje radę ale trzeba się posiłkować DLSS no i w przyszłości te 12 GB VRAM może się okazać zbyt małą ilością.
Jak ktoś chce grać w 4K to niech lepiej dopłaci do 4090.
4070Ti i 4080 to świetne karty do 1440p, w szczególności ta druga.
RTX 4070 Ti vs RTX 4090
47% CUDA Cores
47% RT Cores
47% Tensor Cores
RTX 4080 vs RTX 4090
59% CUDA Cores
59% RT Cores
59% Tensor Cores
Analizując teraz najniższe ceny z Ceneo (na dzien 28.02.2023):
RTX 4090 - 8599 - płacisz 100% - dostajesz 100%
RTX 4080 - 6155 - płacisz 72% ceny RTX 4090 - dostajesz 59% karty RTX 4090
RTX 4070 Ti - 4249 - płacisz 49% - dostajesz 47%
RTX 4080 jest najmniej opłacalny. Ameryki nie odkryłem, ale nic się nie zmienia w tej kwestii. Pominąłem kwestię pamięci bo tu w przypadku 4080 dostajesz więcej jak 59%, bo 67% pamięci 90-tki, ale to i tak już za mało do 4K z FG bez DLSS czy teksturami ULTRA-RES, a do 1440p płacić ponad 6k to przerost formy na treścią, więc liderem do 1440p zostaje 4070 Ti, a do 4K 4090. Gdzie jest 4080? W du..
A szybszy w 4K , z normalną ilością pamięci, normalną szyną kosztuje 2800 zł trudny wybór
Układ jako taki nie jest zły, choć mocno okrojony. Ale szynę 256bit i 16GB RAM to spokojnie mogli zrobić....No i cena - tak do 4000zł.
Dobra, koniec koncertu życzeń ;)
Seria 4xxx to jedna wielka porażka. Nic poniżej 4090 nie opłaca się kupować a wydawać 10k na kartę to wariactwo. No chyba, ze do renderu gdzie się zwróci po miesiącu.
NV bardzo zależy na spuszczeniu zegających GPU przeznaczonych dla górników. Skitrali z myślą o krociach z zysków a teraz walą głupa robiąć z serii 40xx zasłonę cenową by poprzednia seria wydawała się nie lada okazją. Zwykłe cwaniactwo.. Poziom level Janusz ultra insane unreal nightmare XD
Zobaczycie o ile stado matołów nie będzie łykało 40xx do użytku domowego z przeznaczeniem ka gry to kolejna generacja zawita w cenach realnych wyższych o inflację i rozbudowane funkcje a nie tylko wyższą wydajność mającą usprawiedliwiać monopolistyczne sztuczki. A resztki magazynowe spadną jak nadgniłe ulęgałki tylko już mało kto to będzie chciał bo nowe gry zwyczajnie będą chciały więcej. wykli gracze dalej bčdŕ hasaç na starych modelach w gierkach frajer to pay. Chyba, że ich akcjonariusze wcześniej przycisną to będzie znacznie taniej i o wiele wcześniej.
Niby to seria 70 i to w wydaniu "Tiaj" "Taj" ale szyna pamięci prawie jak w najniższych dawnych budżetowych seriach typu GTX 450 650, 1030 1050... Już mogli zostawić te 256 bit ale dać słabsze pamięci 21Gbps zamiast 22 jak w 4080. Cenowo to top modele 1080Ti, 2080Ti czy 3080. Co z tego, że ta wykastrowana 4080 wydajniejsza od 3090Ti? Gdzie tu logika tworzenia wydajniejszych komponentów w odniesieniu do poprzedniej generacji? Gdzie w takim razie postęp? Skoro nv pomieszała nazewnictwo rynku produktów konsumenckich z tymi do zadań profesjonalnych... ale zaraz zaraz te karty jak leci można profesjonalnie używać... Hmmm no to mam przyczynę zawyżonych wyceny serii 40xx. To sprzęt do pracy a nie do zabawy. Więc płać jak pro narzędzia Do!!!
Do grania i zabawy są konsole lubaptopy z jeszcze mocniej wykastrowanymi GPU.
Chcesz dalej sobie pecetować to płać jak za super profesjonalne narzędzia...
Ale serio argument o większej wydajności chipu ze średniej półki wydajnościowej najnowszej generacji usprawiedliwiający zawyżoną mocno cenę jest pokrętny. Chip ma o wiele mniejszą powierzchnię, więc z wafla wychodzi więcej układów. To, że proces niski, kosztowny i ekstremalnie i trudny w realizacji i tylko jedna fabryka już tak drukuje daje właśnie taki efekt dla klienta w postaci dzikiego półprzewodnikowego zachodu. Jeśli inne firmy jak Intel, Samsung, Micron nie zaczną masowo produkować też CPU i GPU to TSMC i jego zleceniodawcy będą tylko podwyższali ceny za kolejne produkty w niższej litografii. Kierunek jest taki wyssać z rynku ile wlezie zanim dobijemy technologicznego dna litografi półprzewodników... A później już tylko cuda wianki, optymalizacje i kombinacje. To już praktycznie koniec krzemu. 2nm może 1 jeszcze ale za jaką cenę...?
Ta karta do 4k nadaje się ale nie w każdej grze. A tam gdzie daje radę to i poprzednia generacja sobie radzi. 12GB VRAMu to już słabo. Karta taka do komfortowego 1440p z RT do przeczekania na kolejną generację.
Do pracy zawodowej nadal 24GB VRAMu lepiej się sprawdzą niż wydajniejszy chip!!! Ale wtedy to już lepiej 4090 czy 4090 taj zanabyć XD
Ta karta 4070Ti po max 2400-2500zł powinna śmigać już z uwzględnieniem inflacji plus za 4GB dodatkowej pamięci 400zł no to max 2800-2900zł. I tak to wymyślili, że nawet 4080 jest nieopłacalna bo na swoją wydajność ma zbyt mało pamięci a ta jednak znów słabsza. Kto ma środki to bez większego marudzenia i tak weźmie 4090. Mocnoe GPU powinny mieć 4080 i 4070 po 16GB lub bardziej w ten deseń 4080 288bit 18 GB, 4070 256bit 16GB, 4060 nawet 18GB , 4060 192 12 GB. Ti przy 2GB kostkach przy 1 GB (o ile to się jeszcze opłaca) można dać po obu stronach pcb. w tej samej szerokości magistrali. Czemu niby tak mocne karty skazywane są sztucznie na przycinanie wydajności szyną PCIe? Jeśli jej obciążenie zbliża się do ok 45-50% wydajność potrafi lecieć na łeb na szyję nawet o 50%. Więc czasem można by użyć lepszych tekstur ale to spowoduje znaczny spadek wydajności mimo nie obciążonego GPU. I to bardzo często już widać w starych i nowszych grach. VRAM niby jeszcze ciut ma wolnej przestrzeni ale już sporo danych siedzi w RAM i po PCIe jest doczytywane zamiast z VRAMu. Sam się z tym barowałem na laptopie (nie nie grzeje się ani nie ma throtlingu) czemu gra przez chwilę działa super z max detalami po czym znacznie zwalnia. RTX 3060 6GB. Stery producenta umożliwiały używanie niby większej ilości VRAMu bo z RAMU sobie wydzielały na sztywno przestrzeń. Te oficjalne NV już pozwalały na ustawienia zgodnie ze stanem fizycznym i tutaj było mniej przypadków zwalniania. Optymalnie do 1080p potrzeba na dzisiaj 6, 8 lub nawet ok 12GB. Do wyższych rozdzielczości o wiele więcej. Optimum na dzisiaj było by 16-18GB i to tylko do obecnie wydanych gier. Sam taki RE Village ponad 12GB łyka w 1080p!!! Kolejne tytuły na UE5 mogą znacząco zwiększać zapotrzebowanie na pamięć układu graficznego. Więc ta seria 40xx to tylko tymczasowo i raczej pod pro usera zarabiającego tym narzędziem. Zapasy poprzedniej generacji 30xx muszą poznikać z magazynów i dopiero NV puści w cenie dla ludu kolejne generacje. A tak miało brakować CHIPÓW a tu natłukli i tylko fabryki kart nie dawały rady z produkcją bo im innych komponentów brakowało.
Słyszałeś o czymś takim jak redagowanie tekstu? Nikt nie będzie czytał takich ścian.
Nie czytałem wszystkiego ale największy problem mają osoby co chcą wszystko na ULTRA w 4k i to one muszą płacić. Mając 3080 schodzę z kilku pozycji na wysokie + DLSS i grafika mi się podoba. Nie ma wielkiej różnicy między ultra/wysokie. Na ultra cienie są tylko trochę ciemniejsze i nic po za tym.
Kolejna grafika jaką kupię to 5080 lub od bidy 5070ti (o ile cena nie wystrzeli na 10 tys). Nie ma sensu obecnie przesiadać się z jednej generacji na drugą. Grafiki kupuje się co 2 generacje żeby poczuć moc i korzyści z przesiadki. Napaleńcy kupują nowe procki i nowe grafiki zaraz po premierze.