Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Futurebeat Ta karta jest lepsza od RTX-a 3090 Ti w QHD, a kosztuje znacznie mniej

02.03.2023 16:21
Sasori666
2
17
odpowiedz
1 odpowiedź
Sasori666
192
Korneliusz

Łapka w dół za takie manipulacyjne tytuły.

02.03.2023 16:21
1
4
premium168159954
21
Centurion

Ta karta to największe gówno wydane przez invidie .Nie to ze okrojona od poprzedniej generacji to jeszcze dużo droższa. Zastanawiam się na jak długo starczy 12gb ramu w 1440p max ustawienia.

post wyedytowany przez premium168159954 2023-03-02 16:22:33
02.03.2023 16:21
Sasori666
2
17
odpowiedz
1 odpowiedź
Sasori666
192
Korneliusz

Łapka w dół za takie manipulacyjne tytuły.

02.03.2023 16:24
2.1
6
premium168159954
21
Centurion

Bo to sponsoring to musza jakoś manipulować ludźmi.

02.03.2023 16:24
3
odpowiedz
7 odpowiedzi
sadler
133
Konsul

Fajna karta, szkoda tylko, że NVIDIA wymyśliła sobie nowy standard zasilania i trzeba się głowić z zasilaczem no bo w przejściówki się nie będę bawił przecież. A kabla 16 pin do zasilaczy nigdzie nie ma w polskich sklepach.

02.03.2023 17:10
3.1
rlistek
88
Konsul

Też mi wielka "zabawa". Podpinasz przejściówkę do karty, wkładasz kartę do komputera, podpinasz 8-piny do przejściówki. Gotowe.

02.03.2023 17:34
3.2
sadler
133
Konsul

Nie mam do tych przejściówek zaufania po akcji z RTX 4090.

02.03.2023 18:58
3.3
1
rlistek
88
Konsul

Po "akcji" gdzie jakieś 50 osób na 150 000 sprzedanych 4090 spaliło sobie wtyczkę bo źle ją wpięli, a mimo wszystko Nvidia i tak każdemu z nich wymieniła kartę?

Ja swoją 4090 używam z dołączoną przejściówką od kilku miesięcy i wszystko działa bez problemu. Nie ma się czego bać.

02.03.2023 18:59
Tomek465
3.4
Tomek465
87
Konsul

sadler
Bardzo dobrze ze jest nowy standard !
poprzedni jes z innej epoki !!

post wyedytowany przez Tomek465 2023-03-02 18:59:57
02.03.2023 21:05
animatiV
3.5
animatiV
96
Generał

Z RTX4080 nie mam problemów, mimo że kabel do zasilacza mam zamówiony już od ponad miesiąca. Nic tylko czekać, bo jak na razie wymieniać mi się nie śpieszy.

03.03.2023 02:50
3.6
Bonaducci
24
Chorąży

To nie wina adapterów, a złego podłączania. Już udało się spalić fabryczne kable w zasilaczu czy nawet dedykowane kable od cablemod. Po prostu 8 pin były duże, toporne i miały spore ograniczenia mocy, a 16 pin są dużo mniejsze, sztywniejsze i mają dużą moc z jednej wtyczki. Przez to łatwiej je wygiąć (są fizycznie małe) i jednocześnie są bardziej podatne na przeciążenie przy wygięciu. 6 pin ma tylko 2x37,5W. 8 pin ma 3x50W. 16 pin ma 6x100W. To nie jest tak wielka różnica biorąc pod uwagę to, że mają większą powierzchnię styku. Adaptery to nie jest zlo, po prostu są brzydkie i dodają masę. Te 6-8 pin często były luźne i można było ostro zagiąć kabel, w 16 pin jest na sztywno i jest zbyt gruby aby go tak wygiąć. Stąd potrzeba że 4cm aby zrobić 90 stopni. To jest pierwszy problem i dotyczy każdego kabla, stąd powstają złączki kątowe. Adapter sam w sobie po prostu zajmuje miejsce i więcej waży, więc poza miejscem najlepiej go przymocować do obudowy tak, żeby nie przenosił naprężeń na wtyczkę. I to tyle. Kilka trytek czy opasek, ułożyć jak ma być i gotowe.

03.03.2023 18:36
VanDust
02.03.2023 16:32
Diobeuek
😂
4
3
odpowiedz
3 odpowiedzi
Diobeuek
200
Quid est veritas?

Wczoraj odebrałem Sapphire RX 6800XT za 1,5k mniej, więc dzięki ale nie chcę.

post wyedytowany przez Diobeuek 2023-03-02 16:37:41
02.03.2023 20:32
Korposzczurek
😂
4.1
2
Korposzczurek
34
Pretorianin

za tę cene wole wydajniejszego RTX3080, nie mówiąc o wsparciu dlss gdzie ta przepaść sie pogłębia.

02.03.2023 20:41
4.2
1
TobiAlex
200
Legend
Wideo

LOL

https://youtu.be/sSqTEkuO7SM

i to ma być lepsze od RTX 4070 Ti? Wole dać te 1500 zł więcej, bo moc jest wręcz nieporównywalna.

02.03.2023 21:31
Slasher11
4.3
Slasher11
190
Legend

Przecież to zupełnie inna liga

02.03.2023 17:04
Persecuted
5
3
odpowiedz
4 odpowiedzi
Persecuted
148
Adeptus Mechanicus

Z Zotacami i Palitami mam jak najgorsze doświadczenia, wszystkie wcześniej czy później zdychały, mimo fabrycznych ustawień (żadnego OC), odpowiedniego przewiewu wnętrza obudowy i prawidłowej konserwacji. Natomiast z MSI i Gigabyte nigdy takich problemów nie miałem i w pełni sprawne, choć już nieużywane, posiadam do dzisiaj.

post wyedytowany przez Persecuted 2023-03-02 18:02:51
02.03.2023 17:11
😁
5.1
dareqe
46
Pretorianin

Dobre zdanie ''w pełni sprawne, choć nieużywane'' hahahaha.

02.03.2023 17:19
5.2
zanonimizowany1245771
54
Konsul

dareqe nie wiem czy zalapales badz nie to on pewnie mial na mysli ze poprzednio uzywane karty od wspomnianych firm juz nie uzywa, to w czasach ich uzywania nie sprawialy mu problemu.

02.03.2023 17:22
Persecuted
5.3
Persecuted
148
Adeptus Mechanicus

dareqe

Dobre zdanie ''''w pełni sprawne, choć nieużywane'''' hahahaha.

Chodzi o to, że po kilku latach bezawaryjnej pracy zostały zastąpione przez nowszy komponent, pomimo zachowania sprawności (dlatego mam je do dzisiaj, choćby i na wypadek jakiejś niespodziewanej awarii). Inaczej niż Pality i Zotaci, które po prostu się zepsuły niedługo po wygaśnięciu gwarancji i trafiły do utylizacji.

VortexSky

Dokładnie tak.

post wyedytowany przez Persecuted 2023-03-02 17:28:18
04.03.2023 00:09
Ziemas
5.4
Ziemas
114
Drummer

Pality mam od GTX 970 przez 1070 i teraz 3080 i nigdy nie miałem z nimi problemów. Dlatego zawsze wybieram Palita. Mają super kulture pracy, są wydajne i bezawaryjne. Miałeś pecha, a co do Gigabyte miałem niegdyś Radeona 7970 i padł także tak to z tymi Gigabytami

post wyedytowany przez Ziemas 2023-03-04 00:10:30
02.03.2023 17:25
Herr Pietrus
😱
6
odpowiedz
Herr Pietrus
230
Ficyt

To nie tylko już wyszło, ale nawet zdążyło zdrożeć?

post wyedytowany przez Herr Pietrus 2023-03-02 17:25:44
02.03.2023 17:31
7
odpowiedz
6 odpowiedzi
P.Cynglowsky
13
Legionista

Super karta, świetna, tańsza od najdroższej karty z poprzedniej generacji... 12 giga vramu wystarczy do grania w 1440p z włączonym rt, chociaż i to nie zawsze.
Super okazja, co prawda w outlecie można w tej cenie dotrwać 3090 które posłuży znacznie dłużej, a i zapewni zabawę w 4k.
Co prawda da się za tyle kupić używanego 3090ti, ale super okazja i gorąco polecam.
Najlepsza karta 10/10 nie polecam

02.03.2023 22:15
7.1
rlistek
88
Konsul

P.Cynglowsky
w tej cenie dotrwać 3090 które posłuży znacznie dłużej, a i zapewni zabawę w 4k
Ta, chyba w grach które wychodziły jeszcze przed Turingami.
3090 to nigdy nie była karta do 4K.

03.03.2023 02:59
7.2
Bonaducci
24
Chorąży

To jest całkiem spoko karta, ale wyszła tak że 2-3 lata zbyt późno i jest zbyt droga. Takie to powinny być 3070 Ti czy bazowe 3080 na premierę. Obecnie 4070 Ti powinna mieć już 16GB, a 4080 Ti bliżej 20. To jest jakieś kuriozum, że mój wysłużony 1070 osiągami dorównywał 3060 i miał te 8GB pamięci. W dwie generacje zszedł ledwie o półkę niżej. Miałem zamiar zmienić na 3070, ale bym nie miał ani grama pamięci więcej. Znowu teraz po 6-7 latach wymieniać 8GB na 12GB za taką cenę to też kpina. NVIDIA poszła z cenami mocno w górę i próbują sobie usprawiedliwiać to podbijaniem numerków, ledwie się udało zepchnąć to z kategorii 4080. W praktyce obecne 4080 powinno być 4070 Ti, a 4070 Ti co najwyżej 4070 albo wręcz 4060 Ti. Jedynie 4090 robi tu robotę i pomiędzy powinien powstać faktyczny 4080 z 16GB i bliżej 12k rdzeni oraz 4080 Ti z 20GB i koło 14k rdzeni. I wtedy 4090 24GB z 16k i może 4090 Ti z 24-36GB i 18k+ rdzeni by się ładnie wpasowały. Nie bez powodu 4090 schodził jak na pniu. Nie ma realnego 4080 i wielu ludzi woli kupić 4090 i zrobić UV niż kupić niby 4080.

03.03.2023 08:25
7.3
1
realsolo
218
Generał

rlistek:
wszystkie istniejace gry na 3090 dzialaja w 4k@60 fps@max. Niektore spokojnie 120fps z dlss. wiec co ty pierdzielisz lol

RT to jest totalne gowno w kazdej grze i tylko nieogarnieci typi to wlaczaja (tankujac FPSy o *polowe*). Screenspacing , hbao i oswietlenie w takim Hogwart Legacy wyglada lepiej (wystarczy wejsc s do lasu) bez na sile wrzucanego bezsensownie RT.

post wyedytowany przez realsolo 2023-03-03 08:25:49
03.03.2023 11:52
7.4
rlistek
88
Konsul

RT wyłączają tylko typy, które się rzucają na zbyt dużą rozdzielczość dla swojej kraty. Jak np. na 4K z 3090.

Nie wiem jakim trzeba być ignorantem, żeby nazwać największy przeskok graficzny ostatniej dekady słowami, cytuję: "totalne gowno".

post wyedytowany przez rlistek 2023-03-03 12:39:46
03.03.2023 13:53
7.5
Wenlok
29
Centurion

Bonaducci
Nie wiem w jakim wszechświecie GTX1070 dorównuje RTX3060, ale na pewno nie w naszym. GTX1070 to co najwyżej poziom RTX3050, czyli dalej jakieś 10% poniżej RTX2060.
RTX3060 to poziom GTX1080Ti.

03.03.2023 21:58
7.6
ModującySam
9
Legionista

Mam wrażenie, że potrzeba jakieś iskry aby technologia poszła do przodu. Już od dobrych kilku lat postępy są raczej znikome jeśli chodzi o karty, biorąc pod uwagę cenę tych z wyższej półki.

02.03.2023 17:46
Rumcykcyk
😂
8
1
odpowiedz
Rumcykcyk
120
Głębinowiec

Jak tak dalej pójdzie to 5060 będzie od 4,500 zł startować.

02.03.2023 17:49
kmicic66
9
2
odpowiedz
kmicic66
32
Centurion

Dla mnie ten artykuł to kryptoreklama karty Zotac. Nie wiem, czy ona jest lepsza, czy gorsza od innych, ale artykuł wywołuje u mnie co najmniej niesmak. Stwierdzenia typu cyt. "Niemal każdy, kto zakupił kartę, jest bardzo zadowolony z tego wyboru" czy "jedne z najbardziej podstawowych wariantów, tak jak prezentowany Zotac, w dalszym ciągu są możliwe do nabycia za niewiele więcej niż słabsze i bardziej prądożerne karty poprzedniej generacji" sugerują jednoznacznie, że "prezentowany Zotac" to najlepsza opcja.I pewnie tak się teraz zarabia na reklamie.

02.03.2023 17:55
10
2
odpowiedz
7 odpowiedzi
Firefox200
3
Junior

Co za bzdury wypisujecie, ta karta nie nadaje się do gry w rozdzielczości 4k, od razu widać ograniczenia szyny danych do 192bit, każda 4070ti dławi się w tej rozdzielczości gdzie 3090ti działa płynnie. Zotac to najgorszy budżetowy chłam i dziadostwo głośny i gorący o piszczących cewkach nie wspominając i szczerze odradzam karty tej pseudo firmy.

02.03.2023 19:06
Tomek465
10.1
Tomek465
87
Konsul

gdzie ci się niby dławi ?
w cyberpanku w 4k ok są spadki do 27 klatek ale reszta gierek z nowej generacji chodzi ładnie !

02.03.2023 19:23
10.2
1
premium168159954
21
Centurion

Hogwarts Legacy też jest problem w 4k . Ta karta na start nie wyrabia w wymagających tytułach , a co będzie dalej.

03.03.2023 08:58
Kajzerken
10.3
Kajzerken
70
Konsul

Firefox200 W artykule jest o QHD, czyli błędnie zapisywanym WQHD. UHD tam nie ma, ta karta nie nadaje się do 4K.

03.03.2023 09:24
10.4
Kuba_3
191
Generał

Bzdury opowiadasz, mam tę kartę i nie spotkałem jeszcze gry która nie działałby w 4K, oczywiście gdzieniegdzie trzeba użyć DLSS ale na TV 4K różnica między obrazem natywnym, a DLSS Quality czy nawet Balanced jest niedostrzegalna gołym okiem, a na pewno nie z poziomu kanapy.

Jeśli ktoś chce bezkompromisowe 4K bez DLSS to kupuje 4090, a nie kartę ze średniej półki.

A Cyberpunk działa w 60 fps w 4K Ultra z RT z DLSS Balanced lub bez RT w DLSS Quality i wyglada obłędnie.

Hogwarts Legacy działa w 60 fps w 4K Ultra bez RT z DLSS Quality i tez wyglada świetnie, RT w tej grze jest skopane i wyglada słabo (jakby ktoś wszędzie porozlewal wodę) wiec nie warto go nawet włączać.

post wyedytowany przez Kuba_3 2023-03-03 09:28:45
03.03.2023 11:28
10.5
SylwesterZ
68
Konsul

Kuba_3 : Powtórz kilka razy: średnia półka za 1000$. Brawo Ty!

03.03.2023 11:33
10.6
Kuba_3
191
Generał

Tak, jeżeli topowa półka kosztuje 2000 dolarów, to karta za 1000 to jest półka średnia.

03.03.2023 18:50
Kajzerken
10.7
Kajzerken
70
Konsul

Działa oraz 60 fps obok siebie hm...

02.03.2023 18:46
11
1
odpowiedz
2 odpowiedzi
kozov
45
Centurion

Ja za tyle co ta karta kosztuje złożyłem peceta gdzie mam po 60klatek w 1440p w większości najnowszych gier

02.03.2023 22:18
11.1
rlistek
88
Konsul

Ta, w Skyrimie, GTA V i innych hitach graficznych sprzed dekady.

post wyedytowany przez rlistek 2023-03-02 22:19:13
03.03.2023 09:53
SpoconaZofia
11.2
SpoconaZofia
80
Legend

Na 4090 nie ma żadnych problemów. I tylko to się obecnie opłaca. Dodatkowo mamy 2023 rok, a nie 2020 i karty z serii 3xxx to już niestety niski segment.

02.03.2023 19:24
12
odpowiedz
zanonimizowany707426
47
Generał

Do 1440p karta super.

02.03.2023 21:28
13
odpowiedz
premium168159954
21
Centurion
Wideo

https://www.youtube.com/watch?v=0JoWbiayc4M&ab_channel=ClassicalTechnology Proszę bardzo gościu ma testował i długo siedzi w temacie kart graficznych.

03.03.2023 02:40
14
odpowiedz
2 odpowiedzi
Bonaducci
24
Chorąży

Coś mi się wydaje, że te coraz nowsze zalecenia co do zasilaczy były mocno przesadzone, przynajmniej w przypadku Nvidii. Ileż to się naczytałem ile to prądu bierze, że trzeba własną elektrownię mieć, jakie to przerośnięte te sprzęty są. O ile faktycznie wiele rozwiązań ma bardzo przesadzone chłodzenie (za to jakie cichutkie), to TGP jest tu mocno przesadzone i ludzie na to źle patrzą. Te karty spokojnie pracują na dużo niższych napięciach i dużo niższym zużyciu prądu. Dawniej jedynie pasjonaci OC pchali karty do kuriozalnych wartości rzędu 500W+ na kartę. Dopiero z kartami 3090 i 4090 NVIDIA zaczęła je robić tak, aby nie było potrzeby modyfikowania kart i obchodzenia zabezpieczeń, są w stanie wykręcić się tak samo mocno w seryjnej wersji jeśli chcemy. Sęk w tym, że zupełnie nie musimy tego robić. Sam bawię się właśnie Strixem 4090. Jak ktoś jest leniwy, to wystarczy wpiąć 3 wtyczki i już karta nie przekroczy 450W bez żadnego spadku wydajności. Owszem, z 4 wtyczkami na 600W wyciągniemy kilka klatek więcej i jest zaprojektowana aby dać radę jeśli tyle mamy, ale to nie jest optimum, to jest max. Do tego stopnia, że o ile dawniej mogliśmy śmiało dowalić większe chłodzenie i obejść limity zasilania aby wyciągnąć trochę więcej, to obecne wersje tego nie potrafią. Możesz założyć chłodzenie ciekłym azotem, możesz dać jej i kilowat, a i tak się odbije od maksymalnych napięć z przyrostem rzędu najwyżej kilku procent. Inaczej mówiąc, obecne limity nie są dla optymalnej pracy, a do wyciśnięcia z kart ile tylko się da. Natomiast wystarczy obniżyć limity zasilania i tracimy ledwie 1-2% obniżając zużycie prądu często o 100-200W. I to bez żadnej wiedzy ani czasu na ręczne sterowanie zegarami. Sprawdzałem sam, RTX 4090 na 350W ma utratę rzędu 1,5% wydajności w stosunku do 450W. Więcej nie próbowałem, bo mam tylko 750W zasilacz i procesor jest wykrecony do 200W (typowo 100-140W). Do tego po ręcznym dostrojeniu wyciągnąłem jeszcze kilka procent lepsze osiągi pomimo ograniczenia do 350W. Skoro 4090 to potrafi, to dlaczego 4080 czy 4070 Ti miałby być inny? Może i producent zaleca 750W, ale to zakładając prądożerny CPU, inne osprzętu i wyciskanie z karty ile tylko ona potrafi (ekwiwalent dawnego podkręcania napięć). Natomiast jak chcesz mieć tą kartę z czymś mniejszym rzędu 600W zasilacza, też da radę, stracisz najwyżej kilka procent mocy, a jeśli jeszcze poświęcisz czas na ręczną kalibrację, to może nawet nic nie stracisz. To jes bardziej straszeniem konsumentów. Od dawna tak było, że do konkretnego OC potrzeba 1kW lub więcej, po prostu nowe karty dają taką opcję szaremu użytkownikowi, a nie tylko nielicznym.

03.03.2023 08:27
14.1
realsolo
218
Generał

Jest dokladnie jak mowisz - ale wynika to z tego, aby producent mial spokoj. Jakby podal mniejsze wymagania, to zeraz pokolenie Z aka platni sniegu bedzie robic dym w sieci, ze mu sie karta wylacza (bo sobie walnal auto OC i nagle bierze 500W). Chca miec teza spokoj wiec napiecie jest 1-1.1mv.

Moj 4090 przy 100% obciazeniu pobiera 310W. Zasilacz corsair 750W (ktory uzywalem przy 2070, 3060 i 3080). Laczny pobor kompa ok 500W. Powerlimit 100%, zrobilem tylko undervolt do 0.925 (i przy okazji OC do 2700 Mhz).

post wyedytowany przez realsolo 2023-03-03 08:28:54
03.03.2023 11:46
Sasori666
14.2
Sasori666
192
Korneliusz

realsolo
Jeśli ci pobiera tylko 310W, to znaczy, że nie wykorzystujesz tej karty. Nie grasz w 4K, albo masz za wolny procesor, bo ta karta nawet na stocku potrafi pobierać ponad 400W.

03.03.2023 09:03
Kajzerken
15
odpowiedz
Kajzerken
70
Konsul

Masakra żeby za serię 70 płacić ponad 4k pln brutto.

03.03.2023 09:35
marcing805
16
odpowiedz
marcing805
193
PC MASTER RACE

Ostatnio Lipton zrobił testy 4070Ti i Zotac wyszedł w nim bardzo słabo jeśli chodzi o kulturę pracy. Płacić tyle za grzałkę i dostać gorącą suszarkę to trochę niewłaściwa droga. Płacąc 4500 - 5000 zł za kartę, to i tak bym dołożył do lepszego chłodzenia niż na siłę oszczędzał aby mieć 4070Ti. Zotac, Palit można brać ale w słabszych układach z mniejszym TDP, w których chłodzenie nie musi być super wydajne.

03.03.2023 12:12
17
3
odpowiedz
stud3nciq
74
Centurion

Wiecie, co to jest postęp i rozwój? To jest wtedy, gdy po dwóch latach dostajemy kolejną generację sprzętu, która kosztuje tyle samo, co poprzednia - ale jest od niej wydajniejsza i/lub pobiera wyraźnie mniej prądu.

To, co mamy teraz to jest g***o, a nie postęp.

Wystarczy spojrzeć na wskaźnik "cost per frame", czyli ile kosztuje nas jedna przeciętna klatka w grach. Gdy mamy postęp - to dla nowej generacji ten wskaźnik ostro spada, tj. dostajemy więcej fps w przeliczeniu na dolara.

Tymczasem w nowych konstrukcjach ten wskaźnik w ogóle nie spada!

RTX 4090 w tym wskaźniku wypada znacznie gorzej od 3090 Ti. RTX 4070 Ti lest lepsze o grubość włosa od 3070 Ti. Co mi z tego, że dostajemy wyższą wydajność, jeśli trzeba za nią zapłacić znacznie więcej?! To nie jest żaden "postęp", to jest narost!

Ciekawostka: jeśli chodzi o wyniki bez RT, to dwuletnie Radeony 6800 (zwykłe i XT) są nadal najbardziej opłacalnymi kartami, tj. dostaniemy najwięcej wydajności w stosunku do wydanych pieniędzy.

03.03.2023 12:25
Drackula
18
odpowiedz
3 odpowiedzi
Drackula
237
Bloody Rider

Czyli jak 4070ti wypada wzgledem 4080? Bo cenowo to taki Asus 4080 jest 40% drozszy.

03.03.2023 13:49
18.1
Kuba_3
191
Generał

RTX 4080 jest ok 30% wydajniejszy, jeśli ktoś szuka karty do 4K to 4080 będzie lepszym wyborem, 4070 Ti też w miarę daje radę ale trzeba się posiłkować DLSS no i w przyszłości te 12 GB VRAM może się okazać zbyt małą ilością.

03.03.2023 15:07
18.2
rlistek
88
Konsul

Jak ktoś chce grać w 4K to niech lepiej dopłaci do 4090.
4070Ti i 4080 to świetne karty do 1440p, w szczególności ta druga.

03.03.2023 17:01
18.3
zanonimizowany707426
47
Generał
Image

RTX 4070 Ti vs RTX 4090

47% CUDA Cores

47% RT Cores

47% Tensor Cores

RTX 4080 vs RTX 4090

59% CUDA Cores

59% RT Cores

59% Tensor Cores


Analizując teraz najniższe ceny z Ceneo (na dzien 28.02.2023):

RTX 4090 - 8599 - płacisz 100% - dostajesz 100%

RTX 4080 - 6155 - płacisz 72% ceny RTX 4090 - dostajesz 59% karty RTX 4090

RTX 4070 Ti - 4249 - płacisz 49% - dostajesz 47%

RTX 4080 jest najmniej opłacalny. Ameryki nie odkryłem, ale nic się nie zmienia w tej kwestii. Pominąłem kwestię pamięci bo tu w przypadku 4080 dostajesz więcej jak 59%, bo 67% pamięci 90-tki, ale to i tak już za mało do 4K z FG bez DLSS czy teksturami ULTRA-RES, a do 1440p płacić ponad 6k to przerost formy na treścią, więc liderem do 1440p zostaje 4070 Ti, a do 4K 4090. Gdzie jest 4080? W du..

post wyedytowany przez zanonimizowany707426 2023-03-03 20:07:03
03.03.2023 17:46
😂
19
odpowiedz
Benekchlebek
19
Generał

A szybszy w 4K , z normalną ilością pamięci, normalną szyną kosztuje 2800 zł trudny wybór

post wyedytowany przez Benekchlebek 2023-03-03 17:46:43
03.03.2023 18:39
VanDust
😊
20
1
odpowiedz
1 odpowiedź
VanDust
119
Generał

Układ jako taki nie jest zły, choć mocno okrojony. Ale szynę 256bit i 16GB RAM to spokojnie mogli zrobić....No i cena - tak do 4000zł.
Dobra, koniec koncertu życzeń ;)

03.03.2023 19:59
20.1
Kuba_3
191
Generał

Wtedy byłaby niewiele mniej wydajna niż 4080 i ten ostatni straciłby sens.

03.03.2023 21:26
Man From The Moon
21
odpowiedz
Man From The Moon
45
Pretorianin

Seria 4xxx to jedna wielka porażka. Nic poniżej 4090 nie opłaca się kupować a wydawać 10k na kartę to wariactwo. No chyba, ze do renderu gdzie się zwróci po miesiącu.

03.03.2023 23:58
22
1
odpowiedz
1 odpowiedź
Voltron
109
Konsul

Zotac czy NVIDIA posmarowały?

04.03.2023 03:52
22.1
QuantumNobinium
16
Chorąży

NV bardzo zależy na spuszczeniu zegających GPU przeznaczonych dla górników. Skitrali z myślą o krociach z zysków a teraz walą głupa robiąć z serii 40xx zasłonę cenową by poprzednia seria wydawała się nie lada okazją. Zwykłe cwaniactwo.. Poziom level Janusz ultra insane unreal nightmare XD
Zobaczycie o ile stado matołów nie będzie łykało 40xx do użytku domowego z przeznaczeniem ka gry to kolejna generacja zawita w cenach realnych wyższych o inflację i rozbudowane funkcje a nie tylko wyższą wydajność mającą usprawiedliwiać monopolistyczne sztuczki. A resztki magazynowe spadną jak nadgniłe ulęgałki tylko już mało kto to będzie chciał bo nowe gry zwyczajnie będą chciały więcej. wykli gracze dalej bčdŕ hasaç na starych modelach w gierkach frajer to pay. Chyba, że ich akcjonariusze wcześniej przycisną to będzie znacznie taniej i o wiele wcześniej.

04.03.2023 03:25
23
odpowiedz
2 odpowiedzi
QuantumNobinium
16
Chorąży

Niby to seria 70 i to w wydaniu "Tiaj" "Taj" ale szyna pamięci prawie jak w najniższych dawnych budżetowych seriach typu GTX 450 650, 1030 1050... Już mogli zostawić te 256 bit ale dać słabsze pamięci 21Gbps zamiast 22 jak w 4080. Cenowo to top modele 1080Ti, 2080Ti czy 3080. Co z tego, że ta wykastrowana 4080 wydajniejsza od 3090Ti? Gdzie tu logika tworzenia wydajniejszych komponentów w odniesieniu do poprzedniej generacji? Gdzie w takim razie postęp? Skoro nv pomieszała nazewnictwo rynku produktów konsumenckich z tymi do zadań profesjonalnych... ale zaraz zaraz te karty jak leci można profesjonalnie używać... Hmmm no to mam przyczynę zawyżonych wyceny serii 40xx. To sprzęt do pracy a nie do zabawy. Więc płać jak pro narzędzia Do!!!
Do grania i zabawy są konsole lubaptopy z jeszcze mocniej wykastrowanymi GPU.
Chcesz dalej sobie pecetować to płać jak za super profesjonalne narzędzia...
Ale serio argument o większej wydajności chipu ze średniej półki wydajnościowej najnowszej generacji usprawiedliwiający zawyżoną mocno cenę jest pokrętny. Chip ma o wiele mniejszą powierzchnię, więc z wafla wychodzi więcej układów. To, że proces niski, kosztowny i ekstremalnie i trudny w realizacji i tylko jedna fabryka już tak drukuje daje właśnie taki efekt dla klienta w postaci dzikiego półprzewodnikowego zachodu. Jeśli inne firmy jak Intel, Samsung, Micron nie zaczną masowo produkować też CPU i GPU to TSMC i jego zleceniodawcy będą tylko podwyższali ceny za kolejne produkty w niższej litografii. Kierunek jest taki wyssać z rynku ile wlezie zanim dobijemy technologicznego dna litografi półprzewodników... A później już tylko cuda wianki, optymalizacje i kombinacje. To już praktycznie koniec krzemu. 2nm może 1 jeszcze ale za jaką cenę...?
Ta karta do 4k nadaje się ale nie w każdej grze. A tam gdzie daje radę to i poprzednia generacja sobie radzi. 12GB VRAMu to już słabo. Karta taka do komfortowego 1440p z RT do przeczekania na kolejną generację.
Do pracy zawodowej nadal 24GB VRAMu lepiej się sprawdzą niż wydajniejszy chip!!! Ale wtedy to już lepiej 4090 czy 4090 taj zanabyć XD
Ta karta 4070Ti po max 2400-2500zł powinna śmigać już z uwzględnieniem inflacji plus za 4GB dodatkowej pamięci 400zł no to max 2800-2900zł. I tak to wymyślili, że nawet 4080 jest nieopłacalna bo na swoją wydajność ma zbyt mało pamięci a ta jednak znów słabsza. Kto ma środki to bez większego marudzenia i tak weźmie 4090. Mocnoe GPU powinny mieć 4080 i 4070 po 16GB lub bardziej w ten deseń 4080 288bit 18 GB, 4070 256bit 16GB, 4060 nawet 18GB , 4060 192 12 GB. Ti przy 2GB kostkach przy 1 GB (o ile to się jeszcze opłaca) można dać po obu stronach pcb. w tej samej szerokości magistrali. Czemu niby tak mocne karty skazywane są sztucznie na przycinanie wydajności szyną PCIe? Jeśli jej obciążenie zbliża się do ok 45-50% wydajność potrafi lecieć na łeb na szyję nawet o 50%. Więc czasem można by użyć lepszych tekstur ale to spowoduje znaczny spadek wydajności mimo nie obciążonego GPU. I to bardzo często już widać w starych i nowszych grach. VRAM niby jeszcze ciut ma wolnej przestrzeni ale już sporo danych siedzi w RAM i po PCIe jest doczytywane zamiast z VRAMu. Sam się z tym barowałem na laptopie (nie nie grzeje się ani nie ma throtlingu) czemu gra przez chwilę działa super z max detalami po czym znacznie zwalnia. RTX 3060 6GB. Stery producenta umożliwiały używanie niby większej ilości VRAMu bo z RAMU sobie wydzielały na sztywno przestrzeń. Te oficjalne NV już pozwalały na ustawienia zgodnie ze stanem fizycznym i tutaj było mniej przypadków zwalniania. Optymalnie do 1080p potrzeba na dzisiaj 6, 8 lub nawet ok 12GB. Do wyższych rozdzielczości o wiele więcej. Optimum na dzisiaj było by 16-18GB i to tylko do obecnie wydanych gier. Sam taki RE Village ponad 12GB łyka w 1080p!!! Kolejne tytuły na UE5 mogą znacząco zwiększać zapotrzebowanie na pamięć układu graficznego. Więc ta seria 40xx to tylko tymczasowo i raczej pod pro usera zarabiającego tym narzędziem. Zapasy poprzedniej generacji 30xx muszą poznikać z magazynów i dopiero NV puści w cenie dla ludu kolejne generacje. A tak miało brakować CHIPÓW a tu natłukli i tylko fabryki kart nie dawały rady z produkcją bo im innych komponentów brakowało.

04.03.2023 08:14
23.1
Kuba_3
191
Generał

Słyszałeś o czymś takim jak redagowanie tekstu? Nikt nie będzie czytał takich ścian.

04.03.2023 15:29
Rumcykcyk
23.2
Rumcykcyk
120
Głębinowiec

Nie czytałem wszystkiego ale największy problem mają osoby co chcą wszystko na ULTRA w 4k i to one muszą płacić. Mając 3080 schodzę z kilku pozycji na wysokie + DLSS i grafika mi się podoba. Nie ma wielkiej różnicy między ultra/wysokie. Na ultra cienie są tylko trochę ciemniejsze i nic po za tym.

Kolejna grafika jaką kupię to 5080 lub od bidy 5070ti (o ile cena nie wystrzeli na 10 tys). Nie ma sensu obecnie przesiadać się z jednej generacji na drugą. Grafiki kupuje się co 2 generacje żeby poczuć moc i korzyści z przesiadki. Napaleńcy kupują nowe procki i nowe grafiki zaraz po premierze.

04.03.2023 23:57
24
odpowiedz
czapa666
4
Junior

Haha ta karta nie jest warta więcej jak 3400 zl xd

Futurebeat Ta karta jest lepsza od RTX-a 3090 Ti w QHD, a kosztuje znacznie mniej