Z kartami AMD jest tak źle, że dogonił je nawet Intel
AMD jest spoko, ale w tanich zestawach, ale widać, ze nawet w tym segmencie ludzie wola dopłacić do takiego RTXa 3060.
Nowe karty to porażka. Bardzo drogie i bez funkcji które ma Nvidia.
Najgorsze jest to, że u nas z jakiegoś powodu RTX 4080 kosztuje minimalnie mniej niż Radeon 7900 XTX. Ten Radeon miał być o jakieś 1000zł tańszy, a cena jest podobna.
Wydajność też podobna, ale tylko bez RT. RT jest coraz więcej i w karcie za 5500zł chciałbyś raczej tego użyć, szczególnie że w Nvidii masz te wszystkie ficzery które czasami robią naprawdę dużą różnicę i granie z RT jest już możliwe.
Nie ma powodu by brać Radeona i to jest smutne, bo przez to obecny rynek PC jest w fatalnej formie.
AMD jest spoko, ale w tanich zestawach, ale widać, ze nawet w tym segmencie ludzie wola dopłacić do takiego RTXa 3060.
Nowe karty to porażka. Bardzo drogie i bez funkcji które ma Nvidia.
Najgorsze jest to, że u nas z jakiegoś powodu RTX 4080 kosztuje minimalnie mniej niż Radeon 7900 XTX. Ten Radeon miał być o jakieś 1000zł tańszy, a cena jest podobna.
Wydajność też podobna, ale tylko bez RT. RT jest coraz więcej i w karcie za 5500zł chciałbyś raczej tego użyć, szczególnie że w Nvidii masz te wszystkie ficzery które czasami robią naprawdę dużą różnicę i granie z RT jest już możliwe.
Nie ma powodu by brać Radeona i to jest smutne, bo przez to obecny rynek PC jest w fatalnej formie.
Pytanie co jeszcze muszą zrobić. AMD nie raz wydaje lepsze pod względem cena/wydajność karty od Nvidii. Nie mówię że AMD jest jednoznacznie lepsze, jak u każdego producenta, znajdują się produkty mniej i bardziej udane ale na pewno patrząc po samej jakości GPU, AMD powinno mieć dużo większą część rynku. Moze nie równo z Nvidią ale z pewnością dużo bliżej. Ewidentnie problemem nie są karty, tylko marketing, bo produkty same się bronią ale jak widać mało kto daje im szanse. RX 6600 to lepsza propozycja niż karta zielonych w tym bardzo popularnym segmencie cenowym a i w wyższym segmencie 6800XT jest bardzo, bardzo silnym konkurentem dla 3080. Wydaje mi się, że może tu chodzić o kwestię zaufania. Nvidia to sprawdzona marka, która zawsze mniej lub bardziej dowozi. U czerwonych zdarzają się bardzo dobre produkty, nie raz świetne, ale zdarzają się też totalne wtopy, a czasem i cała nieudana generacja kart dlatego mało kto wziąłby kartę czerwonych w ciemno. Cała seria 6000 pokazała że potrafią wydawać solidne produkty w każdej kategorii cenowej i myślę, że są na dobrej drodze do zbudowania zaufania konsumentów.
Nowa generacja to też nie zaskoczenie. Flagowce z serii 7000 są...spoko i tyle. Co do cen, to niestety cały rynek jest chwiejny, a do tego w Polsce większy podatek niż w US + Januszowe sklepy, problemy z dostępnością itp przez co wygląda to jak wygląda.
Raczej mało kto liczył na to, że AMD wyda mocniejszą kartę niż top of the top Nvidii, ciekawiej powinno zrobic się przy premierze tańszych kart, bo AMD nie raz udowoniło że potrafią w cena/wydajność
Jak chcą odzyskać kawałek rynku, to niech po prostu wypuszczą wydajne i dobrze wycenione GPU z marżą na poziomie 20%, a nie 200%... Moim zdaniem mogliby nawet przyciąć RT dla oszczędności (bo to fajny bajer, ale nadal tylko bajer, bez którego większość ludzi pewnie mogłaby żyć, gdyby w ten sposób cena spadła o np. 200$) i skupić się na wydajności rastrowej do 4K (więcej na tym etapie nie ma sensu w kartach konsumenckich). Wydajność rastrowa na poziomie RTX 4090 ale bez RT i za cenę ok. 3500 - 4000 zł? Brałbym bez zastanowienia!
No i oczywiście nie mogą zaliczyć kolejnej wpadki na miarę tej z wadliwym chłodzeniem.
Jak chcą odzyskać kawałek rynku, to niech po prostu wypuszczą wydajne i dobrze wycenione GPU z marżą na poziomie 20%, a nie 200%
Czemu nie od razu 20000000%, skoro rzucasz liczbami z tyłka?
Teselacje też sobie wyłącz, bo to tylko bajer, bez którego większość ludzi pewnie mogłaby żyć.
Czemu nie od razu 20000000%, skoro rzucasz liczbami z tyłka?
Dobrze, następnym razem podam taką marżę.
Teselacje też sobie wyłącz, bo to tylko bajer, bez którego większość ludzi pewnie mogłaby żyć.
A co ma jedno do drugiego?
Na wprowadzanie teselaci do gier ludzie dokładnie tak samo płakali, jak ty teraz na ray tracing, bo była zasobożerna.
Również w szczególności ci, którzy mieli karty AMD.
Włącz sobie teraz grę bez teselacji i powiedz, że to "tylko bajer".
Także nie, to nie jest "tylko bajer" tylko ogromny przeskok graficzny. To, że jeszcze nie dla każdego to już inna kwestia. Z czasem dotrze do wszystkich, tak samo jak było z teselacją.
Z tym, że w zasadzie już teraz można ray tracing uznać za mainstreamowy feature, przynajmniej jeśli mówimy o nowszych komputerach i sensownie do nich dobranych rozdzielczościach. To już nie 2018, gdzie to była opcja wyłącznie dla garstki entuzjastów.
Raytracing jest pożyteczną techniką, przy robieniu odbić. Dobrze się w tej roli sprawdza. Przy cieniach jest zbyt zasobożerna, by ją angażować w tym celu... Nawet 4090 jest za słaby na taki prawdziwy raytracing chociażby w kilku klatkach na sekundę w normalnych grach... Póki ta technologia nie upraszcza, a utrudnia pracę developerom, uważam ją za szkodliwą. A upraszczać będzie, jeśli wyjdą wystarczająco wydajne karty... Czyli za jakieś 5-10lat... Wtedy będzie można powiedzieć, że karta ma Raytracing... Teraz tą technikę można co najwyżej zastosować do ładniejszych odbić. Bo te bez raytracingu gorzej radzą sobie z przeszkodami.
I z tym upowszechnieniem macie trochę racji. Bo póki co, trzeba robić 2 wersje każdej techniki, by była z raytracingiem i bez... Wiele wody w rzece upłynie, by nie było to konieczne. I to mogą być dziesięciolecia. No chyba, że będziemy akceptować, że będzie widać granicę renderowania cienia (jak np. jest w Wiedźminie, gdzie widać w którym miejscu cień zamienia się z tego RTX, na ten bez tej techniki). Tylko bez obecnej techniki cieniowania, tam dalej nie będzie cienia, jak to jest w Wiedźminie, tylko będzie bez cienia...
Dlatego uważam, marketing Nvidii za kłamliwy w tym, że to ma coś upraszczać. I każda gra, dalej będzie wymagać 2ch typów cieniowania. Nawet jeśli byśmy mieli wszyscy 4090... Bo użycie Raytracingu na większym obszarze wiąże się z coraz większym nakładem obliczeń. I 4090 raczej do tego nie wystarczy... Nawet w grach z grafiką z 2015 roku...
Portal RTX ma pełny PATH-tracing i bez problemu działa na 4090 w 1080p, które sobie możesz podbić DLSS do wyższej rozdzielczości i wygląda elegancko. Wiem bo grałem.
Gry jak Cyberpunk czy Dying Light 2 mają pełny zestaw funkcji RT (GI, AO, Reflections, Shadows) i działają bardzo dobrze w 60+fps na 4090 w 4K DLSS Quality czy w przypadku tej drugiej natywnie, albo 100+fps w DLSS Q, co jest sensowniejszą opcją z tych dwóch.
Jak nie masz 4090 to sobie ustawiasz rozdzielczość odpowiednią dla swojej karty i tak samo możesz grać już teraz.
A takie gry w wersjach RT ON i RT OFF wyglądają jak zupełnie inne gry z zupełnie innych generacji sprzętu. Różnica w grafice jest ogromna. DL2 to już w ogóle, jak wyłączysz RT to się czujesz jakby ci ktoś ukradkiem odłączył komputer od TV i zamiast niego podłączył PS4.
Także nie, to nie jest "tylko bajer" tylko ogromny przeskok graficzny.
To, że RT jest przyszłością grafiki 3D nie ulega żadnej wątpliwości, ale na wspomniany przez ciebie "ogromny przeskok graficzny" jest zdecydowanie za wcześnie.
Obecny hardware jest wciąż zbyt słaby, by RT mogło w pełni zastąpić tradycyjne sposoby generowania oświetlenia. Co za tym idzie, śledzenie promieni w czasie rzeczywistym, póki co, sprawdza się głównie jako upiększacz, wisienka na torcie, ale nie jako technologia mogąca stanowić samodzielny i fundamentalny element renderowania grafiki. Jak długo taki stan się utrzyma? 5 lat? 10? Moim zdaniem wystarczająco długo, by miało sens wypuszczenie co najmniej jednej czy dwóch generacji GPU, które będzie się skupiało na grafice rastrowej kosztem RT, ale za to za znacznie mniejsze pieniądze. Nawet nie w sensie jego całkowitego wycięcia, ale pozostawienia go np. w formie bardzo podstawowej.
Kiedyś RT stanie się pewnie minimalnym wymogiem, niezbędnym do odpalenia czegokolwiek, ale póki to nie nastąpi, według mnie całkiem rozsądnym wyborem jest zupełna rezygnacja z tego rozwiązania.
To, że dla niektórych jest za wcześnie, nie znaczy, że na technologię jest za wcześnie.
Ja i wielu innych graczy gramy w RT od dawna.
Wydajność jest mniejsza niż normalne, fakt, ale to rekompensuje DLSS. A gra z RT+DLSS wygląda o niebo lepiej niż gra bez RT natywnie (zakładając, że deweloper wie co robi, a nie jakieś Forspoken czy inne gry, które "RT" mają tylko na pudełku).
A jak chcesz grać w grę bez RT i do tego włączać DLSS to znaczy, że po prostu naiwnie rzucasz się na zbyt wysoką rozdzielczość dla posiadanego sprzętu.
Wyłączanie RT ma sens jedynie w budżetowych buildach. Ray tracing to nie jest tylko przyszłość, ale już i teraźniejszość. I tu AMD ma problem, bo jest technologicznie 2 lata do tyłu na Nvidią.
To co proponujesz po części miało kiedyś sens i to właśnie robiła sama Nvidia, wydając karty GTX 1600. Miałeś tam podobną wydajność bez RT co odpowiednik z RT tylko taniej.
"4090 bez RT" to pomysł tak samo głupi jak i nierealny. Co zresztą widać po tym, co wydało AMD, czyli "4080 (prawie) bez RT" i jak się to (nie)sprzedaje.
Przecież koszt produkcji układu nagle nie spadnie o 2/3 jak tam nie włożysz RT. Nikt ci nie sprzeda 4090 za 4000zł bez znaczenia czy nie miałbyś tam RT czy teselacji, bo same koszty produkcji takiego układu są wyższe. TSMC nie obchodzi co tam sobie masz w chipie, który ci produkują. Cene liczą od wafla i litografii.
I na koniec jeszcze coś co jest najbardziej absurdalne. Co w ogóle rozumiesz przez "jest za wcześnie, to będzie spoko za 10 lat". Przecież, żeby technologia stawała się lepsza to trzeba ją rozwijać. Sama z siebie się przecież nie zmieni. Jak teraz zapomnisz o RT "bo jest za wcześnie" i za 10 lat będziesz chciał do niej wrócić, to za te 10 lat będzie ona na takim samym poziomie jak dzisiaj, kiedy z niej zrezygnowałeś, więc wciąż będzie wg ciebie na nią "za wcześnie", bo przecież nie będzie wydajniejsza niż dziś.
Także takie bzdurne gadanie nie ma żadnego sensu. To jest dokładnie jakbyś mówił na początku XX wieku, że "na samoloty jest jeszcze za wcześnie, bo nie każdy mieszczuch z fabryki ma dostęp, żeby sobie polatać". Jakby pójść za twoją radą to do tej pory nikt by nie widział samolotu "bo jeszcze na nie za wcześnie", bo kto by je niby miał rozwijać do poziomu, który mamy dzisiaj, dzięki któremu możesz sobie tanio i szybko polecieć na weekend na drugą stronę Europy?
Nawet nie wiesz jak bardzo irytujące jest czytanie tych bezmyślnie powtarzanych, głupich sloganów jak ten, że "na RT jest za wcześnie", gdzie nikt się nawet przez chwile nie próbował zastanawić, jak bardzo nie mają one sensu.
Naprawdę polecam zastanawiać się czy coś co się słyszy ma sens, a nie automatycznie zakładać, że jak dużo ludzi coś powtarza, to to musi być prawdą.
A jak chcesz grać w grę bez RT i do tego włączać DLSS to znaczy, że po prostu naiwnie rzucasz się na zbyt wysoką rozdzielczość dla posiadanego sprzętu.
Wyłączanie RT ma sens jedynie w budżetowych buildach. Ray tracing to nie jest tylko przyszłość, ale już i teraźniejszość. I tu AMD ma problem, bo jest technologicznie 2 lata do tyłu na Nvidią.
Przecież pisałem, że tu nie chodzi o kwestie wydajności, tylko CENY. Topowe układy graficzne są obecnie horrendalnie drogie, więc jeżeli przycięcie RT miałoby w znaczący sposób wpłynąć na obniżenie ceny, to według mnie byłby to kompromis, na który chętnie zdecydowałoby się wiele osób. Fajnie mieć RT, ale jeszcze fajniej jest mieć bardzo wydajny układ graficzny, który nie kosztuje 8000 zł...
Przecież, żeby technologia stawała się lepsza to trzeba ją rozwijać. Sama z siebie się przecież nie zmieni. Jak teraz zapomnisz o RT "bo jest za wcześnie" i za 10 lat będziesz chciał do niej wrócić, to za te 10 lat będzie ona na takim samym poziomie jak dzisiaj, kiedy z niej zrezygnowałeś, więc wciąż będzie wg ciebie na nią "za wcześnie", bo przecież nie będzie wydajniejsza niż dziś.
Także takie bzdurne gadanie nie ma żadnego sensu. To jest dokładnie jakbyś mówił na początku XX wieku, że "na samoloty jest jeszcze za wcześnie, bo nie każdy mieszczuch z fabryki ma dostęp, żeby sobie polatać". Jakby pójść za twoją radą to do tej pory nikt by nie widział samolotu "bo jeszcze na nie za wcześnie", bo kto by je niby miał rozwijać do poziomu, który mamy dzisiaj, dzięki któremu możesz sobie tanio i szybko polecieć na weekend na drugą stronę Europy?
Nawet nie wiesz jak bardzo irytujące jest czytanie tych bezmyślnie powtarzanych, głupich sloganów jak ten, że "na RT jest za wcześnie", gdzie nikt się nawet przez chwile nie próbował zastanawić, jak bardzo nie mają one sensu.
Naprawdę polecam zastanawiać się czy coś co się słyszy ma sens, a nie automatycznie zakładać, że jak dużo ludzi coś powtarza, to to musi być prawdą.
Czyli nic nie zrozumiałeś. Z mojego posta wyczytałeś po prostu co chciałeś wyczytać, a teraz na oślep rzygasz jadem, wyładowując swoją frustrację. Nawet nie wiesz jak irytujący są tacy ludzie...
Nigdy i nigdzie nie pisałem o PORZUCENIU tej technologii albo wstrzymaniu jej rozwoju, tylko o wypuszczeniu na rynek topowego (w aspekcie grafiki rastrowej) GPU, które z dużym stopniu zrezygnuje z RT, w celu obniżenia kosztów produkcji. To tak jak np. z wirtualną rzeczywistością w grach. W samym VR drzemie ogromny potencjał, ale czy to oznacza, że wszystkie gry już dziś obowiązkowo powinny z niego korzystać? Oczywiście, że nie, również dlatego, że przed tą technologią jeszcze długa droga, zanim w ogóle będzie można myśleć o ewentualnym zastąpieniu nią obecnego sposobu konsumowania gier video.
Nie inaczej jest z RT, technologia sama w sobie jest spoko i już dziś robi wrażenie, ale nadal NIE JEST niezbędna do grania i nie stanowi elementu, bez którego gry nie mogą funkcjonować. Jeżeli więc rezygnacja z RT miałaby znacząco obniżyć cenę GPU, to moim zdaniem wiele osób skusiłoby się na takie rozwiązanie. Każdy wybierałby czy woli zapłacić więcej za RT, czy mniej bez RT i wszyscy byliby zadowoleni.
Ok, czyli twój błąd to jest po prostu naiwne założenie, że brak RT znacząco obniżyłby koszty produkcji. Jeśli jakkolwiek to na tyle symbolicznie, że dla klienta sensowej byłoby już dopłącić do modelu z RT. Stąd też nvidia przestała wydawać karty GTX bo poza Turingami nie miały one sensu.
Żeby jakkolwiek realnie obniżyć koszty kart bez RT (i to również z pewnością nie do poziomu o którym sobie marzysz) trzeba by właśnie całkowicie zrezygnować z jakiegokolwiek rozwijania tej technologii izupełnie, jako firma, w jej rozwój nie inwestować. A do czego by to doprowadziło pisałem w poprzednim poście. Oczywiście tylko wtedy, gdyby wszystkie firmy jak jeden mąż z rozwijania tej technologii zrezygnowały. W innym wypadku za te 10 lat, firmy która nie rozwijała RT prawdopodobnie nie byłoby już na rynku.
Od Ampere w RT możesz już spokojnie grać na 3060 czy 3060Ti, które są mainstreamowymi kartami, tyle, że w rozdzielczości do której zostały stworzone, czyli 1080p. Nie wiem jak ty, ale ja bym raczej ich nie nazwał "GPU dla wybranych".
W każdym razie, ile by kosztowały karty bez lub z obciętym RT pokazało AMD ze swoją serią 7000.
Jeśli ich cena cię nie satysfakcjonuje, to i cokolwiek innego by było wydane również cię nie usatysfakcjonuje.
To co ty byś chciał to są po prostu nierealne marzenia, na które będziesz musiał sobie właśnie poczekać ze dwie generacje. Wtedy sobie już pewnie kupisz "wydajność 4090 za 3500-4000zł". Na pocieszenie - RT dostaniesz w gratisie.
PS. W zasadzie to po co by ci była wydajność topowej karty tyle, że bez RT, skoro wydajność gier bez RT i tak jest hamowana przez procesory, tak potężne są topowe układy względem gier w starych technologiach? Chcesz grać bez RT to sobie kup kartę ze średniej półki. Niedługo wyjdzie 4070, 4060 i co tam sobie AMD nie wymyśli i będziesz sobie mógł spokojnie grać bez RT. Z pewnością znajdzie się coś takiego w cenie tych 3500-4000pln w które celujesz.
Nie bardzo rozumiem co tak stękacie, że RT jest zbyt zasobożerny. Przy dobrej optymalizacji to nie jest problem z DLSSem. na kręconym 3060ti zarówno w takim Dying Light 2 jak np również w ostatnio wydanym Hogwarcie (tu oczywiście są spadki, ale te są również bez RT, kwestia czasu i kilku łatek) ciągnę 60fps w 1440p na wysokich/ultra z DLSS na jakości/balansie. Na dziś dzień nie wyobrażam sobie nowych tytułów bez tej technologii. Odbicia odbiciami, ale cieniowanie i oświetlenie to kosmos (szczególnie świetną robotę robi latarka w DL2) ;)
Persecuted nie musi "niczym rzucac z tylka", wystarczy pomyslec:
1. Rozwaz sie ile kosztuje plytka GPU na przykladzie innych komponentow/elektroniki ja wykorzystujacych, ktore takze z takiej kozystaja i kosztuja grosze.
2. Rozwaz ile kosztuje mm^2 chipa w technologi X nm, biorac pod uwage ceny innych komponentow ktore takze z nich kozystaja i kosztuja grosze a pomijajac juz to ze ich raczej spora wielkosc jest swiadomym wyborem producentow kart graficznych, wyborem na ktorym najbardziej kozystaja (kozystali by) gornicy krypto...
3. Rozwaz drastyczne innowacje w postaci "MOAR CORES!" (jak ktos jeszcze pamieta mema z czasow AMD FX) czy raytracingu (swoja droga jak chcesz poznac jakies ciekawostki o tej technmologi zapytaj dziadka, moze cos jeszcze bedzie pamietal o jednej z najstarszych jak nie najstarszej technologia 3D...).
Co w takiej sytuacji uzasadnia obecna, astronomiczna biorac pod uwage koszta produkcji cene? W bajce o jasiu, czemu wszyscy orginalnie zakladaja natychmnistowo ze koles przeplacil tylko dlatego ze wymienil krowe(/y) za garsc fasoli, bez danych dostepnych z oficjalnych publikacji na temat kosztow produkcji (tej konkretnej) fasoli fasoli i magicznej fasoli, co przy znanej cenie pozwalilo by ustalic wysokosc marz? Czyzby dlatego ze posiadaja mozgi i trzeba bylo praktycznie cudu rodem z majakow na kwasie zeby te predykcje obalic?
Absolutnie nic nie znaczący raport, no chyba że ktoś się poświęci i zapłaci 6000$ żeby poznać metodologię. Patrząc po statystykach sprzedaży to 99% kart Intela to super low end w postaci zintegrowanych kart sprzedawanych jako GPU (z wyłączonym CPU). Jedyne prawdziwe statystyki które mamy są takie:
- Według mindfactory.de sprzedaż kart przez ostatnie kilka lat utrzymuje się w stosunku pomiędzy 3/7 a 4/6 dla Nvidii.
- Według Amazona kart Intela nie ma w top 100 najlepiej sprzedających się GPU, czyli przegrywają one z takimi hitami jak Visiontek Radeon HD7750 czy MSI GT 210 - tutaj trzeba dodać też że karty Intela sprzedawane są jako jeden produkt a karty MSI i AMD są podzielone na poszczególne modele
- Według Nowegg jest trochę lepiej, A770 plasuje się w okolicach 80 miejsca, ale znów przegrywa z MSI Ventus GTX 1630.
Czyli podsumowując: karty Intela się sprzedają, ale w ultra budżetowych zastosowaniach, to zawsze tak działało, Intel zawsze chwalił się że ma największe udziały w rynku GPU - ale to tylko pół prawda, bo jakby na przykład policzyć wszystkie PS4/5 i Xboxy One/Series jako GPU AMD a Switche i inne urządzenia działające na Tegrach jako kary Nvidii to mogłoby się okazać że statystyki są całkowicie inne.
Arc 750 za 1300 zł a 770 za 1500 zł. Te karty miały słaby start ale ze sterownika na sterownik jest znacznie lepiej. Wydajnościowo zbliżają się do 3060 lub ją wyprzedzają w zależności od gry( ale i potrafią sporo do niej tracić). W tej cenie, to świetna oferta, bo to GPU do mainstreamu a nie jak u Nvidii, najniższy i wydajny segment zaczynający się od 2000 zł, który wcale nie jest warty tej ceny. Za pół roku Intel zje zielnych w tym segmencie i albo Nvidia zacznie się bardziej starać o klientów albo sobie odpuści karty tej klasy i zostawi ją Intelowi.
Też się zastanawiam nad zakupem Intela, bo o karty o dużym potencjale.
Nic się nie zmieni, bo intel zrobi to samo, teraz mają gpu w promocji, bo nikt tego nie chce i to nowy gracz, a i tak cenowo ledwo coś taniej, jak tylko ten czas minie to koniec i ceny będą prawie takie same, to jest intel, nic się nie zmieni, czemu by miało, konkurencja się sprawdza, ale nie w oligopolu z 3 firmami na krzyż.
AMD nie robi kompletnie nic po za dostosowywaniem cen do nv.
i bardzo dobrze, niech się bija między sobą, czekam na 6600 xt za pińcet złotych z dwoma grami AAA w zestawie
Zgodnie z producentami marki procesorów. AMD na PC dla entuzjastów ich marki a INTEL dla chcących jak najszybszy cpu. I wreszcie AMD dla rynku konsol , a INTEL na przykład poza najszybszym cpu do dla marki komputerów APPLE MAC. Konsole u mnie najlepszą platformą do e=rozrywki.
Chyba dawno spod kamienia nie wyszedłeś. Najszybszy procesor do gier, jak i najszybszy procesor do innych zastosowań to układy AMD.
Intel to obecnie budżetówka dla biednych.
Nie ma zlych kart i procesów, sa tylko źle wycenione. Inna sprawa, ze sa zle wycenione wszystkie i wszędzie.
Na głównych rynkach nikogo to nie obchodzi, bo u nich jest tanio i ceny prawie się nie zmieniły, dla nich najlepsze/lepsze gpu/cpu to tak jakby mieli wydać jedną pensję maks, taniutko.
Co to są te główne rynki? Francja, Niemcy, Wielka Brytania i cały zachód? Nawet jeśli, to co każdy Francuz nawet z najmniejszą wypłatą może sobie spokojnie odłożyć i kupić kartę klasy 4070Ti lub wyżej. To 1000 - 1300 € to dla nich drobne? Tylko u nas ta drożyzna, inflacja i Polak Polakowi wilkiem? Przeglądam sobie wypowiedzi ma zagranicznych forach, filmach z YT i ludzie tak samo narzekają na wysokie ceny GPU, jak i u nas. Każdy chce kupić taniej a nie drożej. Być może Niemcowi jest lżej wydać to 1500 euro na dobrą grzałkę ale na pewnie nie zrobi tego od tak lekką ręką z uśmiechem na ustach.
Ta, kiedy intel wydał te swoje pierwsze bieda karty, jakoś z rok temu? I już niby dogonili amd? Bajeczka na resorach.
To tylko dobrze pokazuje że marketing jest ważniejszy od jakości produktów. Przykładowo RX 6600 jest bardzo dobrze wycenianą kartą i jest sporo wydajniejszy od 3050ti. Tak sam 6700xt jest tańszy i bardziej wydajny od 3060ti. Ale to nie zmienia faktu że w 90% ludzie kupują właśnie RTX w laptopach w takim Xcomie praktycznie w ogóle nie ma wyboru innego niż RTX... Ale cóż wszyscy kupują 3050ti, 3060, 3060ti więc kupię i ja... bo przecież nic innego nie ma, ano jest i to tańsze oraz szybsze...
No Intel jak mu się karty nie sprzedawały to podjął decyzję o ich przecenie (i to nie jednej) natomiast AMD od lat trzyma się strategii - odrobinę taniej i dużo gorzej od Nvidii.
AMD skupia się na konsolach i steam decku, próbować będą także sił w rozwiązaniach HPC ze swoim CDNA. To co wydają na rynek GPU jest nie jako dodatkowym zarobkiem, widać to po samej architekturze, która jest nastawiona na wysoką skalowalność. Może być zastosowana w konsoli o średnim zapotrzebowaniu na moc, w steam decku gdzie do dyspozycji jest ile? 30W? Ale także w takim 7900XTX gdzie ma 350W TDP.
Z RDNA3 wprowadzili chiplety, pytanie czy teraz będą chcieli atakować Nvidie tak jak Intela, czy dalej raczej zadowolą się drugoplanową rolą.
Nvidia jest takim molochem z taką rozpoznawalnością, że większość kupuje ich karty nawet w segmencie gdzie mają gorsze karty za większą cenę,
Po serii 40xx widać, że już trochę woda sodowa zaczyna uderzać do głowy, nie mówię już nawet o 4090 gdzie jest to produkt flagowy, ale jeśli plotki o wydajności, specyfikacji i cenie takiego 4060 się potwierdzą to AMD ma idealny moment aby atakować średni segment, cenowo i marketingowo, tak aby w końcu dotrzeć do świadomości nie entuzjastów.
EDIT
Pomijam już fakt, że tak jak ktoś wspomniał - kompletny brak metodologii w tym vbadaniu.
Wygląda na to, że eksperci GOLa nie mieli racji w komentarzach, że to się nie sprzeda. Wynik jak na debiut jest moim zdaniem lepiej jak satysfakcjonujący. Chińczycy nawet zbliżonej wydajnościowo karty nie zrobili a Intel na debiut konkuruje z 3060-ką Nvidii. Każdy gracz na rynku kart graficznych się przyda aby obalić monopol cenowy Nvidii i absurdalnych cen serii RTX 4000.
Koniec końców to nie Nvidia odpuści z cenami, a Intel i AMD będą równać w górę. Intel w tej chwili walczy ceną tak jak to robiło AMD kilka ładnych lat temu. Zaobserwowałeś po tamtej cenowej wojence ogólny spadek cen? Jak myślisz, ile generacji jeszcze Intel pozwoli sobie pogrywać na granicy opłacalności? Najbliższa jeszcze podejrzewam, że będzie cenowo najbardziej korzystna ze wszystkich, ale kolejną będzie już nadrabiał braki w sezamie.
Artykuł trochę dziwny. W skrócie Nvidia wyprodukowała masę gpu. Statystyki ze sprzedaży są znacznie inne. Wiec niestety szybko ceny rtx 40xx nie spadną.
Ponoć da się już napisać wydajne gry w większości oparte o zoptymalizowane techniki RT. Ba, mogą być one wydajniejsze niż te stworzone z użyciem samych klasycznych technik cieniowania, oświetlenia, GI i AO.
Tylko ze to wciąż jedynie teoria, zaprezentowana co najwyżej w demkach technologicznych. A nowe gry nawet BEZ RT zażynają najszybsze GPU. I to często posiadając oprawę graficzną na poziomie sprzed dekady, albo i gorszą... To o czym my tu rozmawiamy? :P
Wydawało się, że RT jest coraz bliżej, a ono chyba znowu ucieka - przynajmniej mainstreamowi, bo jak ktoś ma 4090, to wiadomo... :)
Oczywiście, czasem implementacja jest zrobiona z głową, i wtedy RT użyte do samych odbić czy AO/GI daje już radę z DLSS w nawet na serii 2xxx, co dopiero 3xxx i 4xxx - tylko że to żadne ułatwienie czy też uproszczenie, a właśnie dodatkowa praca, bo i tak trzeba zrobić klasyczne cieniowanie, klasyczne AO/GI itd...
Tym bardziej szkoda, że AMD sobie nie radzi, ale opinie o popsutych sterownikach (choć teraz w nVidii jest zdaje się taki sam burdel - gram w kupkę wstydu, to nie wiem dokładnie, ale widzę czasem co się dzieje na forach), mimo wszystko brak RT (bo czasem działa, i jak się za coś płaci nie 2k zł, ale 5k zł, podobnie w przeliczeniu na dolary, to oczekuje się jednak kompletu funkci) no i zwyczajnie mała popularność i słaba marka wśród graczy robią swoje.
Mi to śmierdzi zmową cenową i ograniczaniem sprzedaży kart przy dużej marży. Skoro AMD nie kwapi się wypuszczać więcej kart w momencie gdy NVIDIA winduje ceny to może lepiej jak wejdzie trzeci gracz i przywróci równowagę rynku oraz napędzi konkurencję. NVIDIA i AMD niszczą rynek PC! Mają ogromne zyski, ale przez wysokie ceny swoich produktów powodują mniejszy popyt na inne elementy PC gdzie marże nie są już tak duże. Oby Intel przywrócił normalny trend gdzie jest konkurencja dyktowana sprzedażą, bo duże firmy z działu kart zachowują się jak spekulanci co wykupywali konsole by na nich zarobić.
@ Herr masz rację i pewnie dlatego Intel, który zarabia najwięcej na procesorach musiał wejść w segment kart, bo to on najbardziej tracił na kurczącym się rynku PC
NVIDIA z AMD chcą chyba z kart graficznych zrobić dobro luksusowe gdzie ogromna marża rekompensuje im mały nakład. Widać, że nie chcą już zarabiać na masowej sprzedaży, a to rodzi luke i tu powinien wejść taki gracz jak Intel i przejąć te całe rzesze ludzi, którzy kupią karty po lepszej cenie. Być może w przyszłości jakiś Chiński gracz nawróci pazernych Amerykanów.
Przypomnę że podane liczby to "shipments", czyli liczba wszystkich układów dostarczonych do producentów kart graficznych za Q42022. Nie są to karty, i nie jest pewne ile z później wyprodukowanych kart będzie sprzedanych i kiedy oraz ile będzie zalegać na półkach.
Ja jestem zdania, że Nvidia w przyszłości będzie wypuszczać tlyko full opcje czyli taki RTX 7900 i ewentualnie wersje 7500 do biura i Titana dla projektantów grafiki, będzie tylko jedna linia produkcyjna tak jak to robi np. BMW, produkuje tylko full opcje bo budować i projektować nitki do np. słabszego silnika sie nie opłaca... kto wie może to przełoży sie na lepsze ceny nie można tego wykluczyć.
Bardzo sensowna analiza tego co sie dzieje (takze moim zdaniem) i nie zdziwilbym gdyby takie byly by zamierzenia...
Natomiast wydaje mi sie ze "geniusze" z NVidii nie poswiecili nawet pieciu minut zeby zastanowic sie nad konsekwencjami tak genialnie-maksymalizujacego-zyski(tm) ruchu, bo ja to widze na ten moment conajmniej dwa (bylo tam cos jeszcze ale po co mam sie wysilac jak NV ma mnie gdzies) spore problemy:
- pierwszy to cena wszystkich pozostalych komponentow PC, ktore w takiej opcji nagle staja sie dobrem luksusowym (mala podaz) i ich producency beda podnosic ceny i przez to pewnie "jakosc" (zeby uzasadnic ceny) co znowu podniesie ceny. Jak ostatnio sprawdzalem, nawet pomijajac apple, komponenty do markowego kompa X1234 Y1234 Z1234 potrafily kosztowac do 10! razy wiecej niz generyki o praktycznie identycznych parametrach.
- drugi to ludzie tworzacy cala infrastrukture oprogramowania dla takich cudeniek, ktorzy w wiekszosci sie przeniosa gdzie indziej albo drastycznie podniosa ceny zeby zrownowazyc mala pule klientow i duze koszta wlasne wynikajace z tego ze wykorzystywana przez nich samych oprogramowanie albo drozeje albo przestaje istniec (co znaczaco zwieksza ilosc pracy ktora trzeba wykonac samemu albo zmniejsza jej efektywnosc).
Ba, to nie jest nawet predykcja - bo to jest dokladnie ta sama sytuacja ktora sprawila ze ludzie ktorzy siedza na tych superwydajnych kompach przerzucili sie na x86 PC ze swojej zarabistej i bardzo drogiej wczesniejszej platformy o ktorej na ten moment malo kto juz nawet pamieta...
Tylko Intel musi zrobić kartę wydajnościowo na poziomie 4080 w cenie np 3-4 tys to byłby szok dla rynku. Będzie im ciężko dogonić Nvidię bo zaraz wyjdą 50xx czy 60xx i Intel zostanie daaaaaleko w tyle. Jak Intel nie wejdzie na high-end to będziemy mieć drogo i tyle bo Nvidia czy AMD nie będą mieć powodów do obniżek.
Fajnie to wygląda jeśli chodzi o procesory bo tam jest realna walka na obniżki i możemy kupić procka 20-25% taniej jak nagle AMD czy Intel wypuści coś lepszego i tańszego.
Przez ta beznadziejna konkurencje wybor konkretnej karty w rozsadnej cenie jest bez sensu. Najlepiej by bylo gdyby AMD polaczylo sie z Nvidia.
chyba nie wiesz jak to działa, jakby AMD połączyło się z Nvidią to nie mieliby absolutnie żadnej konkurencji, a mając monopol mogliby ustalać ceny jakie by tylko chcieli. To właśnie konkurencja prowadzi do spadku cen, tylko póki co "zieloni" nie czują jej oddechu na plecach, więc ceny są spore
Myślę że AMD skupił się na konsolach i pod konsole optymalizuje swoje układy, tam spisują się świetnie, rynek PC jest dla niego mniej istotny
Jak zwykle wszystko wina tych jebanych tosterów od zawsze tostery hamowały rozwój PC
Musiałem założyć sobie konto żeby zapytać ile wam płacą za wstawianie tak idiotycznych artykułów?
Do autora artykułu.
Przestań wypisywać takie bzdury, najpierw zapoznaj się z faktami bo jeszcze ludzie zaczną wierzyć w takie idiotyzmy i będą pisać do ciebie z pretensjami.
AMD robi naprawdę świetne procesory, dziwi mnie fakt tak tragicznych kart graficznych, ale ostatnio potrzebowałem karty lekko powyżej 1k i najlepszą była 6600XT, ale z tego co sprawdzałem to jedyna karta która w tym segmencie cenowym jest najlepszym wyborem, szkoda że wyższe modele nie są konkurencją dla nVidi, fajnie że wchodzi trzeci gracz ale to tylko walka o słabszy segment, gdyby walka była o pierwszą lokatę przez wszystkich może bym miał lepszą grafikę za ten ponad 1k
Co za fanaberie. Na 1 miejscu jest nVidia, na 2 AMD, a na 3 Intel. Nic się w tej kwestii nie zmieniło.