Leaker potwierdza DLSS 4 na RTX-ach 50. Niepokojąco wygląda wyciek ceny GPU Nvidii
DLSS to jest software więc może też działać na starszych kartach, choć mogą w końcu odciąć rtx 2000 od wsparcia. A ceny chore i absurdalne a jak dodadzą do tego ograniczoną podaż to jeszcze podskoczą przez skalperów
Jak mnie cieszy że nvidia będzie z was wyciskać ostatnie soki... placeholder jasne :P moze spuszcza 50euro w promocji :P Nie wiem jak elegancko i grzecznie określić naiwniaków którzy w 2025 kupią karte 16gb za chocby 6k, że nie powiem i kwota 5k klasyfikuje do badania psychiatrycznego... szczególnie po tym co pokazał nowy indiana jones i kierunek w jakim będą zmierzać gry....
Ta generacja to będzie porażka, już pomijam wysokie ceny.. Tdp pójdzie do góry bo to ten sam proces technologiczny
To badanie przez korporacje jak bardzo głupi są gracze czyli kup kartę z najnowszej generacji za przynajmniej 5 tysięcy i odpal DLSS4 aby grać komfortowo w gry które średnio wyglądają jak tytuły sprzed 2020 roku, a już częściej fizykę mają na poziomie gier sprzed 20 lat.
Może być placeholderem, co za debil to pisze, znasz ty język półki?kretyni
Prądu wcina coraz więcej, a wzrost wydajności i tak opiera się na skalerach i generatorach klatek.
Jak nie będzie gier wartych ogrania to wątpię by się opłacało zmieniać nawet serie 20xx, jeśli ktoś nie odpala modów do bardziej lubianych starszych gier. W ostatnich latach tylko cp77 pokazał pazura, a reszta to minimalizm przeplatany z nie dorobionym pomysłem.
Te karty powinny mieć zunifikowane procesory CUDA do których można wgrać różne dowolne komendy a zatem na każdej karcie RTX nawet 2060 powinien działać nowszy DLSS z kart serii 3xxx, 4xxx i 5xxx. NVIDIe trzeba podać do sądu o celowe działanie na szkodę użytkowników.
Karty mają mieć możliwość wgrania nowszych opcji nawet lata po wypuszczeniu na rynek.
Będę robił zgłoszę IE do UKOIK, zobaczymy co Unia Europejska na to bo takim działanie NVIDIa przyczynia się do sztucznego postarzania sprzętu i produkcji elektrośmieci.
Nvidia od zawsze miała dziwne pomysły na zarabianie. Swojego czasu wciskała do monitorów specjalny chip do obsługi G-sync. I tylko z tym chipem ta funkcja działa poprawnie. Jednak należy nadmienić że chip ten był tak "popularny" że obecnie ciężko znaleźć monitor posiadający ten wynalazek. Monitory z opcją G-sync compatible dalej nie działają tak jak należy, bo Nvidia nie chce tego zmienić idąc w zaparte.
Jakie kłamstwa. Przecież był mod który uruchamia nowszy dlss na rtx 2060.
"Te karty powinny mieć zunifikowane procesory CUDA do których można wgrać różne dowolne komendy a zatem na każdej karcie RTX nawet 2060 powinien działać nowszy DLSS z kart serii 3xxx, 4xxx i 5xxx. NVIDIe trzeba podać do sądu o celowe działanie na szkodę użytkowników"
TAK JEST! Niech firma wyprodukuje zunifikowane procesory CUDA, ponieważ ty tak twierdzisz. Najlepiej to niech zaczną te karty sprzedawać za darmo, a co tam XDD
"Karty mają mieć możliwość wgrania nowszych opcji nawet lata po wypuszczeniu na rynek."
To napisz list w tej sprawie do wszystkich firm, zobaczymy czy się wysłuchają XD
"Będę robił zgłoszę IE do UKOIK, zobaczymy co Unia Europejska na to bo takim działanie NVIDIa przyczynia się do sztucznego postarzania sprzętu i produkcji elektrośmieci."
Nie zapomnij tylko dać dowodów na to, a nie....czekaj...
to nie jest sztuczne postarzanie, kupując poprzednie generacje wiedziałeś co dostajesz, Nvidia nigdzie nie mówiła, ze nowe DLSS bedzie na starych kartach to co narzekasz? Zagłosuj portfelem i kup AMD.
to nie jest sztuczne postarzanie
Oficjalnie nie, natomiast nieoficjalnie ten cały obecny rynek to jeden wielki wał.
Żeby to było takie proste. AMD nie ma dlss, więc na starcie tracisz chyba z połowę wydajności. Niestety, dopóki AMD nie ogarnie tematu to nie są konkurencją
Co karta to. Nowe DLSS Xd
zapewne dostępne dla kart RTX5000
Nvida.
Miara się przebrała, niech kupują bogate dzieciaki lub potrzebujący do pracy, zostaje przy indykach lub mniej wymagających grach, nie będę kupował tylko dlatego, że jakaś nowa gra potrzebuje mieć DLSS5000 by mieć stałe fpsy a wyglądający gorzej niż crysis. Szanujmy się chociaż widać, że co po niektórzy gracze uważają, że grać poniżej 200fps to "obciach" i trzeba mieć przepłacony sprzęt z najwyższej półki by stremować minecrafta w 4k....
Ten sam proces technologiczny 4nm bo NVidii było szkoda pieniędzy na bardziej nowoczesny 3nm (lub TSMC nie ma mocy produkcyjnych) więc jeśli liczba shaderów w 5090 wzrosła z 16k do 21k to musi wzrosnąć i pobór energii, zwykła fizyka.
To nie jest ten sam proces technologiczny. Ja rozumiem że nie każdy zna się na technologii ale po co pisać takie kłamstwa. RTX40 powstały w 4N TSMC czyli ulepszonym 5NM. RTX50 powstają 4P czyli zupełnie nowym znacznie lepszy procesie 4NM który ma znacznie lepszą gęstość tranzystorów.
To dlaczego wzrost TDP jest wprost propocjonalny do wzrostu liczby shaderow? I to zarówno w 5090, jak i 5080/5070 Ti. Chyba sprawność energetyczna jest jednak na tym samym poziomie.
Ja mam tylko jedno pytanie - wszyscy ekscytują się leakiem cen z chińskiego sklepu, ale czy ktoś pamięta, że USA nałożyło całkiem spore embargo (zasadniczo bana) na wysokowydajne grafiki w tym kraju (4090tki i chyba 4080 plus te Tesle bodaj)? To mogą być przewidywane ceny biorące pod uwagę właśnie to embargo.
W żadnym wypadku nie bronię tutaj polityki cenowej zielonych (sam jadę na AMD), ale mimo wszystko jak ktoś jest zainteresowany najnowszym high-end'em od nich, to poczekałbym do ich oficjalnej zapowiedzi
Na Internecie lata już cena z europejskiego sklepu rtx 5080 = 1699 euro za asusa.
Świetny przykład jest na procesorze M4 który wydajnościowo jest podobny do RTX4070
nawet w Cyberpunku 2077 z Raytracingiem da się grać
https://youtu.be/vaeBwB8jvQ8
Z tym że cały zestaw pobiera 60Wat
tutaj RTX 570 ma pobierać 300W
Idź tak dalej Nvida
to skończy się tak
https://youtube.com/shorts/lV5woTtwpO8?si=fPogCQU1r8Roqq_l
Co jak co, ale Apple z tymi prockami poleciało grubo (i to w bardzo pozytywnym sensie). Zrobili potwora jeśli chodzi o stosunek wydajności do poboru prądu, do tego jest to w komputerku wielkości połowy samej karty graficznej od takiej Nvidii czy AMD. I już to kiedyś mówiłem, ale gdyby użyć ich procka w takim Steam Decku to mielibyśmy przenośną konsolkę do grania na ultra we wszystko i z tym poborem prądu to na parę godzin (z możliwością ładowania z powerbanka), a nie jakieś śmieszne kilkadziesiąt minut.
z tym, że to są bzdury ha ha
gość sobie robi testy na odwal się w jednym miejscu xD
w praktyce 4070 niszczy m4 w tej grze
m4 robi średnio ledwo 40 coś fps w cp2077 i to w nawet nie medium, bo 1080p medium + FSR balanced lol
spoiler start
Twoja stara 1993
spoiler stop
Podobny to jest do 3060 nie 4070 xD Ja nie wiem co fani appla tak lubią kłamać. A co do natywności to Bg3 jest natywny dla mentala i jakoś też m4 max działa na poziomie 3060. Więc po co to zmyślanie?
Apple jak najbardziej udał się ten procesor i układ graficzny... ale tak serio to trochę ochłońcie bo jest to tylko trochę lepsze od Z1 Extreme i zjada tyle samo prądu podczas grania, więc o "lepszych czasach pracy" możecie zapomnieć.
Owszem, jakby było kompatybilne z Windowsem to jak najbardziej wolałbym to od układu AMD (przy tej samej mocy ~25% wyższe osiągi dla Apple) tak jednak nawet laptopowe (mocno ograniczone mocą) karty pokroju 4070 zjadają to na śniadanie, jednocześnie odpalają wszystko bez najmniejszych problemów i kombinowania z emulacją, czego o M4 powiedzieć nie można.
Nie mogę się doczekać tej karty oraz DLSS w wersji 4.0. NVIDIA od zawsze robiła świetne karty i nowe technologie, więc tutaj będzie tak samo :D
Nvidia może i robi ale takich jak ty w bambuko, na szczęście coraz więcej osób to widzi i o tym mówi.
h ttps://www.youtube.com/watch?v=Sz-_Nw8JNe4
Santa masz rację ja dodam że stara gra z lekkim modem ma prawie odbicia jak z Raytracingu.
W Indiana zastosowano znowu fajną sztuczkę na przykład nie odbijają się światło w zwykłym Raytracingu w muzeum na przykład odbicia z wazonów brak a śmieszne jest to że Batelfiled 5 ogień się odbija na pistolecie.
Śmieszny jest to że tak to wygląda jakby ten Raytracing okrojono na rzecz Patchtracingu by znowu sprzedawać bubel które obciąża karty 3 krotnie.
Nie czuję się, że jestem robiony w bambuko, ale skoro inne osoby tak, to niech głosują portfelem i kupią karty od konkurencji. Niedługo karty NVIDII będą mieć swoją premierę, więc zakup karty dokonam z wielką radością. Nie mogę się doczekać DLSS 4 :)
No geniusz ekonomiczny. Ciekawie kiedy karty graficzne przekroczą granice ceny na która nie będzie cię stać. Bardziej łopatologicznie już nie mogłem wyjaśnić.
Nigdy, a jeśli już to najwyżej będę sobie pieniądze na to odkładać i kij ci do tego czy kupię, czy nie. Pozdrawiam :)
Nie czuję się, że jestem robiony w bambuko
Jesteś i to nawet nie wiesz jak bardzo, a wymagania gier to obecnie fikcyjny wymysł ale nie będę rozwijał tego tematu bo to nie na twoją głowę.
Bo nie jesteś w stanie samemu tego wytłumaczyć, więc rzucasz tekstem o "bo to nie na twoją głowę". Jak pisałem, są karty od konkurencji, więc możesz ich bez problemu kupić. Pozdrawiam, eot :)
A ty przestań się denerwować i zaczepiać inne osoby, bo ten użytkownik nic nie zrobił, by miał dostać bana :)
Jestem ciekaw tego DLSS 4,szkoda że pewnie zablokują to na RTX 50XX...
No taka fajna konsumencka jest Nvidia.
Z tym FSR4
Nie bądź taki pewny ma być oparty już na AI
co mówi samo AMD
że będzie wymagało posiadanie dedykowanych układów NPU
E tam. Wiadomo, że DLSS tylko rozmazuje ekran. Nigdy go nie włączam. Tutaj sytuacja jest o tyle śmieszna, że to jest technologia dla tych co biorą budżetowe wersje kart, że ratować FPSy i tych co lubią przepłacać za topowy sprzęt i jednocześnie sami sobie pogorszyć doznania growe oszukując się, że zapłacili za dobrą uplynniajacą super nowoczesną technologię haha.
No nie do końca bo osoby które chcą włączyć patchtracing też muszą sięgać po DLSS
Moim zdaniem dlss jest teraz tak dopracowany, ze na trybie jakości nie wydać różnicy z natywna rozdzielczością.
Cena pójdzie szybko w dół bo nikt normalny tego nie kupić chyba zę tylko 5080 ma mieć taką chorą cene żeby ludzie dopłacali do 5090.
To ty chyba ludzi nie znasz. Na premierę będzie mało kart do sprzedania, to wszystkie się sprzedadzą i będzie wielki sukces invidi. Z plotek wynika ze wysyłane będzie po 10 stempli do sklepów(5080). Przynajmniej jakiś duży sklep z Australii to potwierdzał.
No nie wiem - ludzie trochę odlatują przy składaniu PC i potrafią wydawać absurdalne kwoty "bo na forach pisali, że tylko tak to pogra w gry".
Sam znam gościa, który kupił dzieciakowi (12lat) sprzęt za 12tys (na kredyt) bo przecież na słabszym to nie zagra... ta, młody gra w Minecrafta i FIFE, na bank na połowę tańszym by w to nie zagrał na monitorze 1440p...
Myślę, że 4080 a i nawet 4070 spokojnie wystarczą do końca generacji by z dlls pograc wyższej rozdzielczości we wszystkie nadchodzące gierki i to jeszcze z rt na dość wysokich detalach.
Ogarnie ale czasem trzeba będzie wyłączyć RT albo obniżyć rozdzielczość. Dlls nawet i na 4080 i lepszych kartach jest obowiązkowy do grania w 4k
Jeżeli faktycznie ceny się sprawdzą to żal mi tych, którzy kilka miesięcy temu zrezygnowali z kupna obecnej generacji kart bo myśleli że będzie lepiej.
Może mi się zdaje ale karta z obrazka wygląda na jeszcze większą cegłę niż poprzednie wersje kart.
No nic, wypada czekać na AMD, które może nie powali wydajnością, ale może namieszać cenami (i na to liczę), co zmusi nVidie do ogarnięcia 4 liter.
na tej stronie są tylko reklamy nvidii. wszystkie komentarze jak od jednej marketingowej linijki. ten portal to straszny syf.
nowe karty graficzne do grania w gry to jedno z najgłupszych hobby ostatnich lat.
to jak płacenie jakiemuś parchowi za naplucie sobie do ryja.
albo tak, jakby być milionerem i stołować się codziennie; śniadanie, obiad i kolację... w MCdonaldzie (i nie, nie chodzi tu o poziom majętności, a naiwności i desperacji)
Mądrzy i tak kupią te pseudo karty które nie wyrabiają w grach bez generatorów fpsów. Żałosne.