Kolejny update Cyberpunka 2077 doda wsparcie DLSS 3 i lepszy ray tracing
Śmiesznie trochę z tym całym DLSS, bo 2.0 była dostępna dla posiadaczy 20xx i 30xx a te całe DLSS 3.0 ma być ekskluzywne dla 40xx, bo pewnie jakby wprowadzili dla 30xx to byłaby mała różnica wydajności między generacjami, w ogóle też płacić 6k<X i mieć kartę, na której nie można komfortowo pograć w gry z RT bez skalowania obrazu, i jeszcze robić z tej całej technologii chwyt marketingowy
Śmiesznie trochę z tym całym DLSS, bo 2.0 była dostępna dla posiadaczy 20xx i 30xx a te całe DLSS 3.0 ma być ekskluzywne dla 40xx, bo pewnie jakby wprowadzili dla 30xx to byłaby mała różnica wydajności między generacjami, w ogóle też płacić 6k<X i mieć kartę, na której nie można komfortowo pograć w gry z RT bez skalowania obrazu, i jeszcze robić z tej całej technologii chwyt marketingowy
Teraz mam 3080 to kolejna moja karta będzie 5080 i DLSS 4.0 nieobsługiwany na 40xx i jeszcze lepszym RT :D
Dlatego nie warto niczego kupować od zielonych chciwców. AMD udostępniło FPS 2.0 dla wszystkich, działa na starych kartach, na kartach konkurencji i to ma sens ponieważ tutach chodzi o zdobywanie dodatkowych klatek a to głównie jest problemem na słabszych i starszych kartach.
Ale AMD nie umi robić biznesu, a kasę się robi nowościami bo jak udostępnią na starociach to nikt tego nie kupi (w sensie nowości) za którą jak widać liczą sobie słono.
Tylko ten AMD FSR 2.0 działa kiepsko poza statycznym obrazem. Opcja "jakość" (quality) to chyba dla żartu została tak nazwana... ;)
https://youtu.be/ZNJT6i8zpHQ
To chyba najgorsze zagranie jakie widziałem, swoją drogą dls to zbijanie rozdziałki to chyba ta ich karta nie jest taka mocna jak nadal z tym trzeba grać w cybera żeby mieć przyzwoitą liczbę fpsów.
Jeżeli przy okazji w tych grach nie dodadzą obsługi DLSS 2.0 (2.4?) to ewidetnie NV dała w łape.
Z DLSS grałem tylko w jedną grę w CP 2077, reszta FSR 2.0. wrzuci się moda i będzie FSR 3.0.
Czyli kod CP2077 dalej będzie skopany, a wszystko co ładne zrobią zewnętrzne technologie?
Noizz...
Bez DLSS nie da się grać w tą grę nawet na rtx3070, na wysokich detalach.
Bo w innych grach nie ma zaimplementowanego RayTracingu na wszystkich poziomach. Przeważnie inni dodają tylko albo odbicia lustrzane, albo tylko cienie. A w CP2077 poza wymienionymi mamy jeszcze światło, wraz z jego właściwościami fizycznymi, np. odbicie koloru z materiału. Czyli na wszystkich poziomach jest RT.
Poza CP2077, to tylko Metro Exodus ED oferuje te wszystkie poziomy RT.
Zatem za jakość płaci się wysokimi wymaganiami sprzętowymi, choć nie każdy będzie w stanie odróżnić tak wysoką jakość z RT, od tej bez RT, ale to jest już kwestia spostrzegawczości lub zaznajomienia się z tematem RT.
No zobacz, a ja miałem 50-80fps na 1080p z 1070. Wystarczy wyłączyć RT i ustawić wspomaganie skalowaniem gdy fps spadną poniżej 40.
cytując klasyka - jeśli nie widać różnicy, to po co przepłacać?
Dawniej producenci kart graficznych szczycili się wydajnością bazową, a gra szczyciła się teksturami, oświetleniem czy optymalizacją.
Dzisiaj jest jakieś absurdalne dążenie pompowane tylko przez ego obu stron do wciskania wszędzie RT bo jest bardziej "realistyczne". A to, że zużywa 10x tyle zasobów dając efekt zbliżony do sztucznego oświetlenia? Nieistotneee, trzeba się chwalić! Czym się różni RT w battlefield 5 od tego w cyberpunk, poza tym, że ma lepszą wydajność? Z perspektywy gracza niczym. Tym bardziej, że odbicia lustrzane w kałużach mają 15 letnie gry, nie potrzeba do tego w ogóle RT.
Jeżeli trzeba być spostrzegawczym, żeby zobaczyć różnicę w wyglądzie gry, a cena to spadek fps z 80 do 30 to jest to gówno, a nie technologia. RTX 30xx miały być już dobrym wdrożeniem tej technologii. Tymczasem wychodzi na to, że nawet 40xx będą ssać w RT bez DLSS pomimo nasrania 2,5x tyle RT cores i w ciul więcej tensor cores.
No zobacz, a ja miałem 50-80fps na 1080p z 1070. Wystarczy wyłączyć RT i ustawić wspomaganie skalowaniem gdy fps spadną poniżej 40.
Wiesz co to jest?
To oglądanie porno zamiast uprawiania sexu...
Mam nadzieję, że oagarniasz.
ee tam za nim oddałem grę to na mobilnej 2060 fullhd maks detale bez rtx śmigałem bez problemów.
Trzeba być totalnym ignorantem aby nie widzieć różnicy. RT jest swietne i dobrze, ze jest dalej rozwijane.
To zależy od gry. Poogladaj sobie filmiki w których ludziom każą zagadywać gdzie RT jest włączone a gdzie nie. Okazuje się że w takim tomb raider nie widzieli różnicy i ludzie się mylili. Ja też nie widzę różnicy w najnowszym bfie, a jak ktoś wspomniał mocno zbiło klatki. Chyba tylko w cyberpunku widać dużą różnicę, ale technologia nie jest warta jednej gry
Ty udajesz slepego czy nim jestes? Pelny RT to nie tylko odbicia w kaluzy czy lustrze.
Trochę to głupie z tym DLSS 3 i nowym trybem Ray Tracingu. Czyli rozumiem, że dla przykładu na karcie graficznej RTX 3090 ti nie odpale tych rzeczy a na 4060 już tak? Mimo że 3090 ti ma dużo większą wydajność?
Moze sie okazac, ze DLSS 3.0 i nowszy RT to eksluzywnosc czasowa i trafi chociaz czesc implementacji do serii 30xx, ale najpierw trzeba owieczki zgolic.
Jeśli chodzi o DLSS 3 to spora część jego składowych , funkcji i algorytmu działa dzięki nowemu rdzeniu i jego ficzerów, których seria 3000 nie ma.
Co jak odtwarzacz Bluray i DVD, ten pierwszy odtworzy płyty BR i DVD, ten drugi tylko DVD.
Dlatego napisalem, ze chociaz czesc. Nie widze ograniczen dla lepszego (wizualnie) RT, ale tak sobie mysle teraz, ze nawet jak mogliby zaimplementowac wszystkie nowe ficzery to i tak tego by nie zrobili, bo dzieki DLSS 3.0 seria 40xx zyskuje spora przewage nad seria 30xx. Natywnie to tam szalu takiego nie ma, oprocz RTX 4090 oczywiscie, ale poczekajmy na testy.
Widac, ze sporo miejsca zostawili sobie pomiedzy RTX 4080, a RTX 4090. Moga z powodzeniem teraz wydawac wersje Super obok Ti.
Redakcję zaraz będą wypluwać filmy związane z RTX 4090 i DLSS3, oczywiście bez żadnych sensownych liczb tylko znów upośledzone procenty...
Pewnie DLSS 3 powstaje bo FSR 3.0 przegoni starszą wersję DLSS.
Oby jakoś ogarnęli tego DLSS 3 bo ten obecny jest słaby. Poco ktoś z najnowszą generacją kart miałby ją stosować skoro domyślnie DLSS pogarsza grafikę dla lepszej wydajności i to widać. To trochę tak jakby kupić jakąś nowiutką kartę graficzną żeby pograć w gry na ultra grafice, ale zmniejszyć np. Jakość tekstur na low :D to jest właśnie DLSS... ratunkiem dla ludzi ze słabymi kartami. Niech teraz właściciele kart 3070 i wyżej niech dadzą znać czy w ogóle korzystają z DLSSa
używam . 3070 mam i obraz z dlss quality w wielu przypadkach . przynajmniej w dlss 2.2+ jest dużo lepszy niż natywny. ostrzejszy a przy tym z 20 % więcej klatek. jak dla mnie brak tej technologi raczej bardziej mnie odrzuca. gorszy obraz uzyskujesz tylko na fsr od amd bo nie mają rdzeni SI albo na obrazie dlss balance-performance wtedy ssie. balance spoko do 4k ale perf do wyjebcenia albo jak ktoś ma 2060-2070 i musi się ratować tym gównem
Ten cały DLSS to po prostu ładnie opakowane i reklamowane skalowanie rozdzielczości w grach. Znane od lat. Ot, interfejs pozostaje w Full HD, a rendering na 720p i "magicznie" gra lepiej chodzi na ziemniaku. Tyle, że nie musisz tego manualnie zmieniać przy bardziej wymagającej scenie, bo DLSS zrobi to za Ciebie. No ale, to już wolę tak skalowanie rozdzielczości ustawić, żeby mieć stałe 60 FPS i wtedy DLSS jest niepotrzebne. Bądź zejść z detali jak cienie, DoF czy AA. Nie rozumiem zachwytu.
Z Ray Tracingiem podobnie...10-15 razy gorsza wydajność względem "sztucznego" oświetlenia w większości gier, a cienie tylko trochę lepsze. Na co to większości graczy? Jak grasz, to przyglądasz się każdemu cieniowi, czy wolisz lepszą wydajność i stałe 60 FPS?
Słyszałem argument, że dla imersji. Ok, to czemu modele postaci dalej wyglądają jak z plastiku, a interakcja z otoczeniem prawie nie istnieje? Nie tylko w CP? Wszystko oskryptowane, zejdziesz ze ścieżki to fasada się wali. Z fizyką w nowych grach też słabo; interakcją i zniszczeniem otoczenia etc. Wolałbym, żeby moc obliczeniowa poszła na te "fizyczne" aspekty zamiast trochę lepsze cienie, które w trakcie gameplayu większość ludzi zignoruje.
Taki Half Life zrobił przełom w fizyce w 1998 i od tego czasu niewiele się zmieniło.
Ja również jestem rozczarowany nad wolnym rozwojem fizyki w grach, ale dla sprostowania wspomnę, że chodziło Ci raczej o Half Life 2 z 2004 roku. W jedynce fizyka obiektów ograniczała się do rozbijania skrzynek.
Spokojnie, do DLSS 4.0 w kolejnej generacji będzie wymagany nie tylko zakup karty serii 50XX ale też miesięczna subskrypcja.
Nie kumam. Skoro te nowe karty mają być takie potężne i w ogóle, to po co im DLSS...? No chyba że to stare układy w nowym opakowaniu, które dostaną boosta za pomocną nowego DLSSa.
Jest jakiś konkretny powód dla którego NVIDIA wprowadza DLSS 3 tylko do nowych kart? Oprócz zmuszania do wymiany całkiem niezłej generacji 30x0? Przecież to dalej świeża seria i pewnie dałaby sobie z tym radę. Nie rozumiem działań nvidii. Wiedziałem, że po sukcesie kryptowalutowym serii 30x00 będą gwiazdorzyć ale żeby aż tak? Oby im ta pycha bokiem wyszła.
Ja obstawiam, że mimo wszystko chodzi tutaj o jakiejś jednostki sprzętowe, które znacząco przyspieszają analizowanie klatki, generowanie wektorów ruchu i pośrednich klatek.
No ale oficjalnie przyjęta wersja jest taka, że Nvidia musi jakoś zachęcić ludzi do kupna nowej serii więc tego się trzymajmy :)
https://developer.nvidia.com/blog/an-introduction-to-the-nvidia-optical-flow-sdk/
Optical Flow functionality in Turing and Ampere GPUs accelerates these use-cases by offloading the intensive flow vector computation to a dedicated hardware engine on the GPU silicon, thereby freeing up GPU and CPU cycles for other tasks
Zamiast grę zoptymalizować to wystarczy wrzucić DLSS, który jest tylko na najnowszych kartach i fajrant. Niech się męczą. Ta NVIDIA też jest głupia. Takie rzeczy to powinny być skierowane przede wszystkim do posiadaczy słabszych kart, serii 1xxx i niżej.
Oglądając konferencję NVIDIA odniosłem wrażenie że to nie gracze byli głównymi odbiorcami tych informacji lecz biznes. Dużo mówili o zastosowaniach w aplikacjach AI czy wsparciu uczenia maszynowego i profesjonalnych zastosowań w modelowaniu 3D, w tym metaverse. To nie gracze są już teraz głównym targetem firmy.
DLSS to taki nowy DirectX by wymieniać karty by mieć wsparcie dlatego o wiele bardziej wole technologie od AMD nie opartą na hardware ale na software, która jest bardziej elastyczna mimo, że jakieś kilka procent gorsza ale wizualnie dla przeciętnego kowalskiego bez super sprzętu i monitora nie zauważalna.
Dokładnie to samo z Ray Tracingiem fajne na początku ale jak pokazał Lumen w UE5 który pokazał dokładnie taki sam efekt przy dużo większej wydajności wcale nie potrzeba dedykowanego sprzętu do realistycznego symulowania promieni i odbić.