Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Futurebeat AMD przyznaje, że nie ma konkurenta dla RTX 4090

06.11.2022 16:19
marcing805
6
13
odpowiedz
2 odpowiedzi
marcing805
193
PC MASTER RACE

AMD nie musi się bić z Nvidią o cyferki i wydajność. Powinni zawalczyć o segment mainstreamowy, czyli ten średnio budżetowy w przedziale 300-450 $, który interesuje najwiecej osób. To tu mogą najwiecej ugrać i dać pstryczka w nos Nvidii.

06.11.2022 15:03
Sasori666
1
Sasori666
192
Korneliusz

AMD musi odzyskać zaufanie graczy, bo oni sprzedawali masę kart górnikom i potem nic nie zostawało zwykłym klientom, przez co mało kto posiadał Radeona.
Teraz nawet jak karta oferuje lepszą wydajność za mniejszą cenę, to gracze wybierają geforca.

Statystyki steama są miażdżące.

06.11.2022 15:15
2
odpowiedz
2 odpowiedzi
wooda
99
Konsul

Dla Amd najwazniejsze rynki to:
1. Data Center
2. Mobilny
3. Konsole
4. Desktop Pc
Dlatego nie ma co sie spodziewac cudow. Amd bez problemu mogla zrobic konkurenta dla 4090, GDC w ich kartach to zaledwie 300mm^2, gdy powierzchnia 4090 to ponad 600mm^2. Mogli spokojnie wypusic karte z GDC 500mm^2 + 6xMCD 37mm^2, karta mialaby tdp 500-550W, ale wygralaby zdecydowanie z karta nvidia w rasteryzacji, a w raytracingu bylaby co najmniej na rowni.
Amd woli wafle u TSMC przeznaczyc na procesory EPYC, gdzie gwaltownie odbieraja rynek Data Center Intelowi i gdzie maja bardzo duze marze.

post wyedytowany przez wooda 2022-11-06 15:24:19
06.11.2022 16:07
2.1
pawel1812
62
Generał

Nie wiem, czy procesy stosowane w grafikach są kompatybilne z procesorami. Ogólnie w TSMC się zrobiło tłoczno, bo Nvidia sobie wykupiła zdolności produkcyjne za gotówkę i pojawił sie Intel. AMD produkuje raczej sporo chipów w tym nowym procesie, ale to nie procesory, a MI250X. Które pewnie kosztują kilkukrotnie więcej od kart graficznych.
W kartach AMD wie, że musi walczyć ceną, bo zaniedbała swoją konkurencyjność i nawet jakby był konkurent dla 4090, to jest to gra nie warta świeczki. Bo mniejszy chip taniej sie produkuje, a uzysk tak dużych chipów nie koniecznie jest duży.
Więc teoretycznie RTX4090 będzie najmocniejszą kartą, ale głównie na papierze, w Polsce pewnie będzie w sklepach kilka sztuk.
Poza tym, przy tak wysokich mocach pojawiają się wcześniej niespotykane problemy przy kartach (jak to złącze zasilania, ale nie wydaje mi się, by to był jedyny potencjalny problem w RTX4090). Nie sądzę, też że ta karta będzie w stanie długowiecznie pracować, gdy będzie długotrwale wykorzystywana w 100%.

Poczekałbym jeszcze na niezależne testy, bo różnie w przeszłości bywało ze slajdami i TFLOPSami, ale wydaje mi się, że AMD będzie ciekawą opcją na w miarę tanią kartę, ale ja pewnie będę celował w te niższe modele.

post wyedytowany przez pawel1812 2022-11-06 16:13:04
06.11.2022 17:15
2.2
1
wooda
99
Konsul

pawel1812 Amd uzywa tego samego procesu dla swoich grafik i procesorow to jest 5nm od TSMC.

06.11.2022 15:49
dj_sasek
3
2
odpowiedz
1 odpowiedź
dj_sasek
160
Freelancer

Najważniejszy jest wskaźnik fps/cena. Jak na razie RTX 4090 za to ile kosztuje nie oferuje takiej wydajności jak powinien. Jak na razie każde słupki jakie oglądałem to potwierdzają. Niech AMD zaprezentuje się z tej lepszej strony, że rzeczywiście fps/cena będzie na dobrym poziomie oraz lepiej od poprzedniej generacji i więcej nie muszą robić.

06.11.2022 19:06
3.1
Procne
74
Generał

Ale najwyższy wskaźnik fps/cena zawsze miały karty budżetowe, z najniższych półek. Za lepszą wydajność trzeba płacić nieproporcjonalnie więcej.

Karty pokroju RTX 4090 są dla ludzi z zasobnym portfelem, którzy po prostu chcą mieć najlepszy sprzęt.

06.11.2022 16:01
4
4
odpowiedz
2 odpowiedzi
siera97
53
Senator

Sasori666
Oni? Nie sprzedawali górnikom, tylko dystrybutorom. Dystrybutorzy sprzedawali natomiast klientom, to czy ten klient był górnikiem, czy graczem różnicy dla nich nie robiło. Górnicy woleli natomiast Radeony, ze względu na lepszą wydajność w kopaniu, oraz przynajmniej początkowo, niższą cenę zakupu karty.

Ludzie zawsze wybierali Geforce, nawet jeśli AMD miało lepszą wydajność za cenę, bo Nvidia ma lepszy marketing, oraz umowy z producentami laptopów. Idę o zakład, że większość posiadaczy kart graficznych, nawet nie wie jaki konkretny model posiada, wiedzą tyle, że w reklamie było "Karta Geforce!".

06.11.2022 16:04
Dead Men
4.1
Dead Men
179
Senator

Bo ja wiem ja Radeona 4870 HD katowałem długo

07.11.2022 09:55
Sasori666
4.2
Sasori666
192
Korneliusz

No tak. Przez to, że były dobre w kopaniu, to potem nic nie była dla graczy, przez co nikt ich nie kupował. AMD nic z tym nie robiło. Mogli dać jakieś głupie limity, albo cokolwiek, a oni nie robili nic.

Wcześniej wśród najpopularniejszych kart były Radeony RX580/480, a teraz nie ma nic.
Po tylu latach ten RX580 to nadal najpopularniejszy Radeon, nie licząc integry.
To 22 najpopularniejsza karta. Wszystko wyżej to same Nvidie.

Fakt jest taki, że AMD radzi sobie coraz gorzej na rynku PC, bo oni nawet powoli tracą na rynku CPU. Mieli dobry okres i teraz ludzie znowu wybierają Intela.

06.11.2022 16:07
Persecutor
5
odpowiedz
Persecutor
44
Tosho Daimosu

No nie wiem różnica w grach szacowana jest na +-10% wydajności, a w RT trochę więcej, a wszystko za 600$, do tego nic się nie zapali :P Jak AMD pójdzie tak cenowo w mid i low end to pozamiata nvidie aż miło :) Wszystko to zasługa chipletów i nie pchanie się w najlepszy proces technologiczny.

post wyedytowany przez Persecutor 2022-11-06 16:09:44
06.11.2022 16:19
marcing805
6
13
odpowiedz
2 odpowiedzi
marcing805
193
PC MASTER RACE

AMD nie musi się bić z Nvidią o cyferki i wydajność. Powinni zawalczyć o segment mainstreamowy, czyli ten średnio budżetowy w przedziale 300-450 $, który interesuje najwiecej osób. To tu mogą najwiecej ugrać i dać pstryczka w nos Nvidii.

07.11.2022 01:50
6.1
Czifu z Bunkra
23
Pretorianin

Nie tak działa biznes, marketing i świat.
Każda marka każdego produktu stara się mieć coś topowego do pochwalenia się. Nawet gdy kupi to ułamek % klientów i poniesie się straty.
Dla przykładu formuła f1 gdzie pompuje się miliardy tylko po to by jakaś marka pochwaliła się najszybszym samochodem w wyścigu.

07.11.2022 11:09
marcing805
6.2
marcing805
193
PC MASTER RACE

Widocznie AMD zdaje sobie sprawę, że nie ma realnej alternatywy dla bardzo mocnych układów Nvidii. Oczywiście zdaje sobie sprawę, że pewnie jakaś cześć ich inżynierów pracuje nad rewolucyjnymi rozwiązaniami, które miałaby zwrócić oczy na ich firmę ale widocznie na tu i teraz nie mają takich produktów. Mogą sobie pracował nad swoim świętym Graalem a jednocześnie dużych zysków upatrywać w innym segmencie, jak ten konsolowy, mobilny czy średnio-budżetowych GPU. Sama Nvidia też jest tu dla nich wyzwaniem, bo od lat zieloni są bardzo mocni w tworzeniu wydajnych i często rewolucyjnych rozwiązań w dziedzinie SI i grafiki komputerowej.

06.11.2022 16:31
Persecuted
7
3
odpowiedz
Persecuted
148
Adeptus Mechanicus

Zamiast się bić w segmencie ultra premium (z kartami za 1000 dolarów i więcej), powinni zadbać o GPU dla "ludu grającego", takie za max 500 dolców. Przecież koniec końców muszą mieć jakiś rynek zbytu, bo jak nie gracze, to kto będzie od nich kupował? Jasne, są górnicy, profesjonaliści albo uczelnie czy instytuty badawcze, tylko czy to są wystarczająco stabilne i pewne źródła dochodu, by opierać na nich cały swój byt? Zwłaszcza, że z PCtowym gamingiem może być jak z pracą zdalną, tzn. jeżeli ludzie zobaczą, że da się inaczej, to mogą nie chcieć wracać do dawnego porządku. W tym kontekście może być tak, że PCtowcy przerzucą się na konsole i nie będą już chcieli grać na blaszaku, nawet jeżeli ceny kiedyś się unormują. Bo jednak high-endowy PC (ale nawet nie z najwyższej półki) za ponad 10 klocków to "trochę" dużo, w porównaniu do konsoli za 4-5 razy mniej...

post wyedytowany przez Persecuted 2022-11-06 16:32:54
06.11.2022 16:34
📄
8
1
odpowiedz
4 odpowiedzi
Dragoon84
105
Generał

Czyli Henry może jednak spokojnie kupić 4090-tkę xD

post wyedytowany przez Dragoon84 2022-11-06 16:38:29
06.11.2022 16:51
😐
8.1
6
rubensik11
41
Chorąży

Pewnie jutro na golu będzie o tym artykuł.

06.11.2022 17:40
bmwbmw2
8.2
bmwbmw2
68
PAPIEŻ GIER IV

henry stwierdzi że jako konsument nie chce być dymany za 30 % za dużą cene i kupi radona xD zostanie mu jeszcze hajsu na apartament

post wyedytowany przez bmwbmw2 2022-11-06 17:40:57
06.11.2022 19:33
retruśgejmer
😂
8.3
retruśgejmer
32
Konsul

Dziwne, że od razu tego nie zrobił, skoro Radeony nie mają z 4090 :D

06.11.2022 19:44
retruśgejmer
8.4
retruśgejmer
32
Konsul

Nie mają szans* korekta.

06.11.2022 16:56
9
odpowiedz
Twoja stara 1993
52
Generał

W sumie jeśli będą dobrze wycenione to nie ma znaczenia że przegrywają z NVIDIĄ o kilkanaście procent dla większości i tak karta raczej nie do zdobycia.

Radeon ma mniejsze TDP o 100W to też trzeba zaznaczyć NVIDIA pot tym względem trochę się poprawił ale dalej niestety jest daleko w tyle.

06.11.2022 17:35
10
2
odpowiedz
Hitman '73
12
Legionista

Tragiczne macie te tytuły artykułów. AMD nie przyznaje, że nie ma konkurenta dla 4090. Jedyne, co powiedzieli to, że 7900 XTX nie jest konkurentem 4090 tylko 4080. AMD ma jeszcze nieogłoszonego 7950 XT (może XTX?), które już będą konkurencją dla 4090 i może Tytana (XTX)...

06.11.2022 18:07
Last_Redemption
11
odpowiedz
Last_Redemption
47
Senator

4090 to taki tytan w sumie, a tutaj AMD jeżeli konkurowało to dwurdzeniowymi kartami (6990 na przykład)

06.11.2022 18:34
retruśgejmer
👍
12
odpowiedz
8 odpowiedzi
retruśgejmer
32
Konsul

NVIDIA > AMD i nawet z tym nie dyskutujcie. Lepsza wydajność w RT oraz DLSS, który zamiata ten śmieszny FSR.

06.11.2022 19:26
12.1
4
Twoja stara 1993
52
Generał

Śmieszny to jesteś ty
Wielka NVIDIA która olała starsze generację kart nie dając im dodatkowych funkcji jak właśnie FSR.
mając GTX 1070 dziękuję AMD za FSR i kij w oko zielonym.

AMD miało świetne technologie chociaż by
TressFX przykład Tomb Raider 2013 i teraz porównaj sobie włosy Geralta z Hairworks Wiesiek 2015 vs TressFX Tomb Raider

06.11.2022 19:32
retruśgejmer
😂
12.2
retruśgejmer
32
Konsul

Olała, bo trzeba iść do przodu, a nie tkwić na starociach sprzed 10 lat. Dodatkowo to ten FSR (na ten moment, bo w sumie jestem ciekawy 3 wersji) ustępuje technologii DLSS, gdzie 3 wersja daje tak niesamowity boost wydajności, jaki prawdopodobnie długo u AMD nie zobaczymy. A włosy.... wow, 1 technologia i co? Dało to coś AMD? :)

06.11.2022 19:48
12.3
4
Twoja stara 1993
52
Generał

retruśgejmer
Jeszcze gówno wiesz
karta GTX 1660 SUPER z 2019 nie otrzymała DLSS to też stara karta XD
Po czym układy zintegrowne w prockach od AMD mają wsparcie FSR.

DLSS było zarezerwowane dla droższych kart tak Nvidia dyma swoich klientów.

To samo było G-Sync co prawda jest ciutkę lepszą technologią ale ile Nvida sobie za to brała ale przyszedł Freesync darmowy który dużo nie ustaje drogiemu G-Sync która Nvidia sobie za licencje liczyła w monitorach.

06.11.2022 19:55
retruśgejmer
😂
12.4
retruśgejmer
32
Konsul

Dobra, po kolei, bo coś kręcisz.

"karta GTX 1660 SUPER z 2019 nie otrzymała DLSS to też stara karta XD"
Ale wiesz, że DLSS wykorzystuje SI w oparciu o rdzenie Tensor, których nie ma w GTX'ach, więc jak niby mieli ci to zaimplementować? XD

"Po czym układy zintegrowne w prockach od AMD mają wsparcie FSR."
Fajnie, oprócz tego że obraz jest bardziej rozmazany, ale co to ma DLSS, skoro działa tak jak wyżej napisałem?

"DLSS było zarezerwowane dla droższych kart tak Nvidia dyma swoich klientów."
Opiera się na rdzeniach Tensor. Oferuje znaczy wzrost wydajności z niewielkim pogorszeniem jakości obrazu (czasami nawet niezauważalnym, a nawet lepszym jak w, np. Death Stranding) w porównaniu do FSR (do aktualnej wersji, nie wiem jak będzie z 3), więc wytłumacz mi, gdzie tu NVIDIA dyma klientów?

"To samo było G-Sync co prawda jest ciutkę lepszą technologią ale ile Nvida sobie za to brała ale przyszedł Freesync darmowy który dużo nie ustaje drogiemu G-Sync która Nvidia sobie za licencje liczyła w monitorach."
Brała ile chciała, więc z czym masz problem? Chciałeś Free-Sync to brałeś. Ktoś, kto był bardziej majętny brał G-Sync i tyle :)

post wyedytowany przez retruśgejmer 2022-11-06 19:56:51
06.11.2022 20:24
12.5
1
Twoja stara 1993
52
Generał

retruśgejmer
A tak dyma że do tańszych kart nie dali żadnej technologii zastępczej skalowania dobrze że karty korzystają z otwartej technologi AMD.

Taka dobra Nvidia nie dała rdzeni trensor do kart tańszych to już AMD dało wsparcie Raytracing do tanieego modelu 6500Xt
Xd

Oczywiście u NVIDIA trzeba wydać kupę kasy by dostać technologie .

No i ostatnie zdanie jest śmieszne

Brała ile chciała, więc z czym masz problem? Chciałeś Free-Sync to brałeś. Ktoś, kto był bardziej majętny brał G-Sync i tyle :)
No i oto cała NVIDIA i rozumowanie wiernych

Fresync wyszedł później gdyby nie AMD i darmwo technologia NVIDIA dalej rypala by klientów.

post wyedytowany przez Twoja stara 1993 2022-11-06 20:31:22
06.11.2022 20:45
retruśgejmer
12.6
retruśgejmer
32
Konsul

Lecimy dalej.

"A tak dyma że do tańszych kart nie dali żadnej technologii zastępczej skalowania dobrze że karty korzystają z otwartej technologi AMD."
Gdzie FSR to syf, który rozmazuje obraz, więc lepiej korzystać z rozwiązań, które są zaimplementowane w grach :)

"Taka dobra Nvidia nie dała rdzeni trensor do kart tańszych to już AMD dało wsparcie Raytracing do tanieego modelu 6500Xt
Xd"
A czy czasem 6500 XT nie miał właśnie rdzeni pod raytracing, hmm? Zresztą ja ci pisałem jak to wygląda z DLSS. Zaimplementowali po swojemu, a to że wymaga rdzenie to taka ich wola ;)

"Oczywiście u NVIDIA trzeba wydać kupę kasy by dostać technologie ."
Jeju.... i co ja mam ci na to poradzić? Też mnie ceny bolą, ale...

"No i oto cała NVIDIA i rozumowanie wiernych"
No i co jest nie tak tutaj, hmm?

"Fresync wyszedł później gdyby nie AMD i darmwo technologia NVIDIA dalej rypala by klientów."
Ale przyznam, że ogólnie konkurencja jest potrzeba, bo gdyby nie AMD to faktycznie byłby tylko G-Sync ;P

06.11.2022 21:31
kęsik
😂
12.7
3
kęsik
155
Legend

retruśgejmer Gdzie FSR to syf, który rozmazuje obraz, więc lepiej korzystać z rozwiązań, które są zaimplementowane w grach :)

Głupoty gadasz i tyle. FSR 2 nawet w trybie zrównoważonym wcale nie wygląda zauważalnie gorzej niż natywna rozdzielczość. Zwykłe skalowanie rozdzielczości w grach nie ma nawet startu do FSR. Każda nowa gra powinna mieć przede wszystkim wsparcie dla FSR, dopiero potem DLSS. Jeżeli nie ma tego wsparcia to straszny syf i oznaka tego, że Nvidia słono zapłaciła.

Zaimplementowali po swojemu, a to że wymaga rdzenie to taka ich wola ;)

No właśnie, taka ich wola dymania klientów. A DLSS 3 to już w ogóle jakiś kosmos i zupełnie nowy poziom dymania. AMD pod tym względem ich miażdży.

post wyedytowany przez kęsik 2022-11-06 21:33:03
06.11.2022 23:33
retruśgejmer
😂
12.8
retruśgejmer
32
Konsul

"Głupoty gadasz i tyle. FSR 2 nawet w trybie zrównoważonym wcale nie wygląda zauważalnie gorzej niż natywna rozdzielczość. Zwykłe skalowanie rozdzielczości w grach nie ma nawet startu do FSR."

Właśnie, że wygląda. Jeśli chcesz mieć mniej więcej jakość obrazu taką jak w natywnym to musisz dać na Jakość lub Ultra Jakość. Bez tego masz rozmazany obraz jak mydło, czego nie uświadczysz po włączeniu DLSS.

"Każda nowa gra powinna mieć przede wszystkim wsparcie dla FSR, dopiero potem DLSS. Jeżeli nie ma tego wsparcia to straszny syf i oznaka tego, że Nvidia słono zapłaciła."

Nie mój drogi. To już zależy od developera i ja osobiście wolę najpierw DLSS (szczególnie wersję 3), a potem FSR (przez który obraz jest rozmazany jak mydło),a jeśli ktoś ma słabiutki sprzęt to sory, ale FSR nawet na Utra Performance mu nie pomoże :)

"No właśnie, taka ich wola dymania klientów. A DLSS 3 to już w ogóle jakiś kosmos i zupełnie nowy poziom dymania. AMD pod tym względem ich miażdży."

Nowy poziom dymania, bo NVIDIA rozwija tę technikę po swojemu z wykorzystaniem rdzeni Tensor z uczeniem maszynowym? A zdajesz sobie sprawę, że 4090 ma specjalną architekturę, na której DLSS 3 rozwija skrzydła (widziałeś ten boost wydajności po włączeniu? Żadna inna technika takiego skoku nie oferowała)? Trzeba iść do przodu, a nie ograniczać się do starszych kart graficznych. I jasne, na starszych RTX pewnie też by poszło, ale efekt byłby pewnie podobny jak po włączeniu raytracingu na kartach GTX. Więc nie wiem o co ten płacz, drogi kolego :P

AMD to musi być teraz bezpieczny, bo przez lata byli dymani i przez Intela (lepsze procki) i po dziś dzień NVIDIĘ (lepsza wydajność w grach, w RT oraz DLSS, który rozwala FSR) :)

06.11.2022 18:46
kęsik
👍
13
4
odpowiedz
3 odpowiedzi
kęsik
155
Legend

AMD powinno po prostu wydać kartę o wydajności RTX 3060/4060 za 250$. Taki złoty strzał jak Polarisy 6 lat temu.
Mocno im kibicuję ale z takim złym, dużym korpo trzęsącym rynkiem jak Nvidia ciężko konkurować na równych warunkach.

post wyedytowany przez kęsik 2022-11-06 18:54:29
06.11.2022 19:42
13.1
noobmer
48
Generał

kęsik a możę frytki do tego? Zapomnij, mineły czasy średniaków za 1500zł

06.11.2022 20:01
13.2
siera97
53
Senator

Dokładnie, czemu mieliby wydawać taką tanią kartę? Za 400 dolców też byliby tani.

07.11.2022 10:03
Mr. JaQb
13.3
Mr. JaQb
110
Legend

Sensowne karty AMD w tej generacji się zaczynały od 6600, który kosztował $330 na premierę, obecnie do dostania okazyjnie za ~280.

Myślę, że 7600 spokojnie przebije 3060, a z 4060 będzie walczył ceną oferując podobną wydajność poza RT. Na $250 bym nie liczył, ale to nadal będzie bardzo opłacalna karta ze średniej półki, pewnie za jakieś $350. Chyba, że AMD sobie pokpi z tego segmentu.

06.11.2022 22:02
Tohka Yatogami
14
odpowiedz
5 odpowiedzi
Tohka Yatogami
49
Pretorianin

Troszkę mi brakuje kart niskobudżetowych które pobierają mniej niz 100 W ale korzystają z nowszych procesów technologicznych. Nvidia uderza tylko w tych co gonią za fps'ami i ilością"K" na ekranie. A AMD ich goni co niby znaczy rywalizacje ale tylko na średniej i wysokiej półce.
Well póty co GT 1030 musi wystarczyć jeszcze z parę lat

06.11.2022 22:09
14.1
4
Dragoon84
105
Generał

Well póty co GT 1030 musi wystarczyć jeszcze z parę lat

Matko Bosko :O
Wolałbym sobie przystawiać do brzucha rozżarzony pręt ze wzorem o kształcie fallicznym...
Chodź, cię chociaż przytulę...

post wyedytowany przez Dragoon84 2022-11-06 22:22:37
07.11.2022 09:53
14.2
siera97
53
Senator

Zdaje się, ze dedykowanych kart tego typu już raczej nie będzie. Integry mocno skoczyły w wydajności, więc raczej nie ma sensu produkować karty dla kogoś, kto chce minimalnie lepszej wydajności.

07.11.2022 10:07
adam11$13
14.3
adam11$13
124
EDGElord

Well póty co GT 1030 musi wystarczyć jeszcze z parę lat

Przecież ta karta nie wystarczała do niczego już w chwili premiery.

07.11.2022 15:17
SpoconaZofia
😂
14.4
1
SpoconaZofia
80
Legend

Oj tam oj tam . Pracę magisterską można napisać na 1030. Dodatkowo jest świetna podstawką pod herbatę.

11.11.2022 08:53
Tohka Yatogami
14.5
Tohka Yatogami
49
Pretorianin

Przecież ta karta nie wystarczała do niczego już w chwili premiery.
Nie gram w gry AAA a do tego w co gram wystarcza.
MC -70-90 fps
Skyrim 50 fps
Nawet taki wiedzmin 3 płynnie działał (połączenie paru wysokich ustawien ,wielu srendich i kilku niskich)

06.11.2022 22:08
15
odpowiedz
1 odpowiedź
zanonimizowany1359977
9
Senator

Czy oni nie widzą, że większość ludzi ma GF 1050 i 1060 i ta półkę trzeba pieścic i zagospodarować, a nie 1% niszę?
To są jakieś poyeby, a nie producenci mainstreamowego sprzętu.
Najpierw się gospodaruje to co przynosi największą kasę, sprzedaż i sprzedaje ba miliony, a później się robi produkt dla bogaczy maniaków.
Teraz debile robią odwrotnie i przez to jest kryzys, wysoka inflacja i dosłownie nie ma co kupić, bo dziady nie mają ci sprzedawać.
Zamiast GF 4090 dla przedsiębiorców i bogaczy to lepiej by pokazali GF 4050/4060 i 4070 bo na to ludzie czekają, anie jaks nieopłacalny drogi złom.

AMD też debile, mogliby uderzyć od razu już w 2022 z RX 7600/7600XT/7800 I 7800CT I wyruchac Nvidie z klientów i kasy zanim ta by zdążyła wydawać swoje odpowiedniki, ale ci także gowno robią I kryzys plus inflację pompują drogimi modelami, które kupi tylko bogatą wierchuszka.

Ten rynek jest zyebany na mają, ludzie chcą czegoś innego, a producenci robią co innego, nie dziwne, że konsole mają sprzedaż po 130 mln sztuk skoro twórcy hardwaru na PC dwoją się i troją, żeby graczy wypędzić na konsole.

Nie ma oferty na 2022 dla graczy (przeciętnych, normalnych) ani Nvidia ani AMD. Zawyzone cenowo stare trupy seri 3xxx i RX 6xxx to już żadną ofertą, chyba, że minus 50% wtedy byłyby opłacalne.

post wyedytowany przez zanonimizowany1359977 2022-11-06 22:13:45
06.11.2022 22:11
😢
15.1
Dragoon84
105
Generał

GF 4090 GF 4050/4060 i 4070

faktycznie - niektórzy aż TAK bardzo żyją jeszcze zamierzchłą przeszłością....

post wyedytowany przez Dragoon84 2022-11-06 22:12:20
06.11.2022 22:15
SpookyYuuki
16
odpowiedz
SpookyYuuki
61
Generał

Nie ma konkurencji i nie jest to nic złego. Takie karty kupuje mała ilość osób.

07.11.2022 00:39
Szefoxxx
😐
17
odpowiedz
1 odpowiedź
Szefoxxx
81
Doradca

No i co z tego, karty za 900 czy 1000 usd to i tak dno i żałosny trend, a tu widzę wszyscy happy, bo amd dało kartę za 900-1000 usd by konkurowała z 4080 za 900...AHA

07.11.2022 02:25
17.1
zanonimizowany932226
101
Senator
Image

by konkurowała z 4080 za 900...AHA

Prawie trafiłeś

07.11.2022 01:09
18
odpowiedz
Patryhinio
122
Konsul

a ja tam po kilku latach z nividią zmieniłem na RX 6600 i ultra W full HD i nic mi wiecej nie trzeba nie czekam nawet na rtx 5900 czy radeona rx 8800..zadowolony z tego co mam..chodzi nie chaczy sie płynna rozgrywka tyle mnie interesuje a najbardziej odzywają sie ci co mają 1050 ti w komputerze dziekuje

post wyedytowany przez Patryhinio 2022-11-07 01:10:52
07.11.2022 07:59
😒
19
odpowiedz
1 odpowiedź
ArtGenerator
11
Chorąży

"...ta karta jest zaprojektowana, żeby konkurować z 4080, którego wydajności nadal nie znamy..."
Wydajności tj. osiągów 4080 nie znają, ale konkurencyjne GPU już zaprojektowali. Logiki tu nadmiar. Opierają się na udostępnionych parametrach RTX-a z przecieków?

post wyedytowany przez ArtGenerator 2022-11-07 08:04:54
07.11.2022 09:52
19.1
siera97
53
Senator

Myślę, ze obie firmy mniej więcej znają swoje wzajemne możliwości, oraz to jaki postęp dokonują w osiągach. Tak długo, jak ktoś nie wyskoczy z jakąś turbo technologią, która kompletnie zmieni oblicze tworzenia kart, tak długo da się przewidywać wzrosty wydajności. Jakbym ci powiedział, że kolejna seria kart Nvidii, będzie o 15% wydajniejsza o obecnej serii, to jakie byś mi dał szanse? Bo ja sobie dałbym całkiem spore, a nie mam dokładnych danych.

07.11.2022 14:10
20
odpowiedz
Jaya
62
Generał
Wideo

Może to szansa dla Radeonów, żeby ominęły chwilowy może boom na raytracing.

Ciekawe ile schudł by w wadze i cenie RTX gdyby zamienić go na GTX i zostawić samo DLSS. Ciekaw jestem Ile jest nieużywanych modułów gdy jest RTX/Off. DLSS raczej nie potrzebuje symulacji promieni do działania, to symulacja promieni i szumy wymuszają istnienie DLSS. DLSS przypadkiem wprowadziło efektywną metodę na "level of detail" w zależności od dystansu. Symulacja promieni jeszcze nie doszła do momentu gdy się to opłaci.

Łatwo wybrać RTX/Off gdy się przyjrzy tej sytuacji z Blendera:
Cycles (Raytracing) vs Evee:
https://www.youtube.com/watch?v=tN4yrZZz8po

Ile razy karta musiałaby przyspieszyć aby opłaciła się górna wersja. Przy okazji w przypadku tej sceny finalne obrazy zbytnio się nie różnią. Jeśli obraz jest zbyt odszumiany wygląda blado i niewyraźnie, są też różne "wzorki". Nawet jeśli się wszystko wyrenderuje bez szumów to naturalne odbicia są mniej bajkowe. Bajkowe często oznacza większą epicką atrakcyjność.

07.11.2022 15:01
MineBeziX
21
1
odpowiedz
3 odpowiedzi
MineBeziX
64
Generał

To jest po prostu sprytny chwyt marketingowy. Ich topowe karty niby nie konkurują z 4090, ale to że będą go bardzo blisko, jednocześnie niszcząc 4080 16GB... Ludziom łatwiej będzie przełknąć, że konkurent 4080 także niebezpieczne zbliża się do 4090 - ba! Będą AMD całować stopy, bo to całe $600 mniej, brak topiących się adapterów, mniej prądożerne i wcale nie gigantyczne karty!

Czerwoni po prostu mają całkiem dobry dział od PRu.

07.11.2022 15:09
21.1
Redman2
2
Generał

A ja się założę, że nawet 3090 będzie szybszy od XTX , o XT nie wspominając.

07.11.2022 21:39
MaBo_s
21.2
2
MaBo_s
70
Generał

Redman2
Przyjmuję twój zakład Hydro. Proponuję proste zasady. Zakładamy się o komputer. Po premierze sprawdzimy "10-15 game average" na którymś z wiarygodnych kanałów (Hardware Unboxed, Gamers Nexus) i porównanie RX 7900XTX i RTX 3090.
Jeśli wydajniejszy będzie 3090 dostaniesz mojego PCta. Podasz adres, a ja wyślę i zrobisz z nim co zechcesz. Ba, stawiam też oba swoje ekrany, pograsz sobie w końcu w prawdziwym 4K z HDRem.
Jeśli jednak wydajniejszy okaże się 7900XTX to wysyłasz mi swojego złomka. Zrobię na forum jakiś konkurs/losowanie i oddam zwycięzcy.
Mówię całkowicie serio. Masz odwagę żeby się założyć czy tak tylko mielisz jęzorem? :)

post wyedytowany przez MaBo_s 2022-11-07 21:56:30
07.11.2022 21:48
Cainoor
21.3
1
Cainoor
271
Mów mi wuju

Warto chyba doprecyzowac, ze chodzi o wydajność RT off. Bo z RT to faktycznie 3090 może być szybsze w niektórych grach…
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/

Futurebeat AMD przyznaje, że nie ma konkurenta dla RTX 4090