Ponad 300 gier ma już wsparcie NVIDIA DLSS
Możemy więc spodziewać się, że omawiana technologia w niedalekiej przyszłości może stać się standardem w grach
Biorąc pod uwagę fakt, że wymagania gier wzrastają wraz z premierą nowych podzespołów szczególnie kart graficznych, a nie postępu technologicznego, lepszej grafiki w grach to niestety tak.
DLSS przydał by się w ATS/ETS2 bo na lapku na ultra zaczyna spadać do 30 klatek :) na 1070
W moim przypadku problemem w ETS2 są światła drogowe te które są widoczne w miastach nocą. Jak tylko się włączą jak się ściemni to klatki z 75 FPS spadają do 30. Ale jak się je wyłączy co o dziwo gra działa normalnie.
Działanie ATS/ETS to nie jest problem karty graficznej tylko procesora i tu ci żaden DLSS by nie pomógł.
Warto pamiętać, że to jest dość przestarzała technologia silnika który powstał w 1999 roku i jest po prostu rozwijany ale jego obecna wersja i tak ma ponad 10 lat a rozwijają go tylko w SCS, które nie jest zbyt dużym studiem i w momencie wypuszczania ETS2 nad silnikiem to pracowało tam może kilka osób.
U mnie na RTX 2070 Super FPSy potrafią lecieć na mordę, bo gra nie ogarniała dużej ilości świateł odbitych w lusterku. Do tego kanał alfa (czyli efekty graficzne przezroczystości) jak za dawnych lat, nie są liczone na karcie graficznej tylko na procesorze.
Jaki masz procek? Mój to i7-10700k.
Czy uważacie, że to jedna z najlepszych technologii na nowszych kartach?
Tak, uważam, że to jedna z najlepszych technologii, jakie nam przytrafiają.
Mam RTX 3060. Z włączony RT (nie Overdrive) Cyberpunk 2077 chodzi ledwo gdzieś na 30 FPS, ale dzięki DLSS 2 mam 50-60 FPS na Ultra i wygląda świetnie.
Od razu przypomina moja pierwsza karta Voodoo 3Dfx, gdzie Tomb Raider z roku 1996 nie tylko nie ma pikseli, ale również animacji chodzi płynnie.
CUDA i Tensorów w GTX używam do czego innego.
Lecz dobrze to pokazuje, że grafika w grze nie musi być odwzorowana 1:1 i każdy piksel nie musi być renderowany w skomplikowanej scenie.
XeSS Intela jest lepszy, bo oferuje najlepszą jakość i jest otwartym rozwiązaniem dostępnym na każdym sprzęcie. Do uruchomienia XeSS wystarczy grafika serii GF 10xx, tak więc jak ktoś chce może sobie przetestować np w Wieśku 3 :) Dziwne jak zwykle nie ma oficjalnej listy gier wspierających :P ale tu dwie z internetu
https://steamdb.info/tech/SDK/Intel_XeSS/
https://www.build-gaming-computers.com/xess-supported-games.html
Nie da się niestety bezpośrednio porównać najnowszego DLSS 3, bo dedykowane XeSS grafiki intela są zbyt słabe :D Niezmienia to faktu że na kartach Nvidii XeSS osiąga wyniki podobne do DLSS 2.
Ale jak to działa? W sensie macie ledwo 30 FPS na maksa. Zarzynacie kartę. Włączacie DLSS i nagle macie więcej, i karta nie zarzyna? Czy jednak DLSS tak naprawdę pomaga, ale zarzyna kartę? Albo to po prostu jakiś ciekawe proces którego nie pojmuję ;D I taka technologia im pasuje? Praktycznie wystarczy kupić nowszą kartę z tym, i nie trzeba zmieniać długo.Bo jak gra chodzi normalnie, to nie trzeba używać DLSS. A jak gra będzie za mocna, to cyk DLSS ,i ciągniemy dalej. Albo jest sens używać DLSS jak właśnie mamy lekko 60 FPS? Czy to w jakiś sposób odciąża kartę jeszcze bardziej?
Bo ogólnie widzę że przydaje się najbardziej, jak chcemy grać z RT.
Ale jak to działa?
Przy DLSS grafika renderuje obraz w niższej rozdzielczości, a następnie przeskalowuje go do tej wyświetlanej na monitorze. Wynik więcej FPS w wyższych rozdzielczościach, kosztem większej/mniejszej straty jakości obrazu, tu zależy od technologi i profilu. DLSS i XeSS ma algorytmy oparte na obliczeniach AI-podobnych, FSR to zwykły upscaling, dopiero wersja 3 ma mieć podobne algorytmy co konkurencja. Ogólnie ja mocno kibicuje Intelowi ich rozwiązanie to lepsza jakość, otwarta technologia dla wszystkich, czyli na każdej grafie która obsługuje instrukcje DP4a można to odpalić.
DLSS I RT to obecnie jedyne technologie które deklasują konkurencję. Wiadomo radeoniarze będą mówili że rt to zbędny bajer a fsr działa tak samo jak dlss ale to bzdura. Testowałem obie topowe karty AMD i NVIDII w pracy i jednak wciąż fsr raczkuje. Druga sprawa jak się od początku gra z rt to można tego nie zauważyć ale jak się wyłączy rt to wrażenie że gra się na jakimś PS4. Osobiście sam kiedyś byłem zagorzałym fanem czerwonych ale od czasu premiery pierwszych rtxów nie widzę żadnego sensu w kupowaniu kart AMD. Mam nadzieję że Intel rzuci rękawice zielonym bo obecnie AMD technologicznie jest dwie generacje w tyle softwareowo a cenowo jakoś nie odstają od kart nvidii
Wolałbym, żeby FSR prześcignęło DLSS.
AMD nie wygra żadnego wyścigu bez porównywalnego FSR do DLSS. Raytracing istnieje głównie przez DLSS. Ten Raytracing wcale nie daje jakiś oszałamiających efektów w porównaniu do starej szkoły (stara szkoła przez wiele lat dobrze nadganiała raytracing i wręcz w wielu miejscach wyprzedza go poziomem wyraźnych detali). AMD mogłoby wygrać wyścig zbrojeń przez to, że dla NVidii były by zwiększane detale RT ON, a dla AMD inne detale np. level of detail czy lepsze tekstury na tym ULTRA, albo super fizyka, gdy obecnie auto w CP77 nie wyprzedzi malucha bo jest ograniczone do możliwości doczytywania detali.
Obecnie może Overdrive zamienia trochę styl wizualny, ale jakby przyzwyczaić już oczy graczy doszło by do momentu, że wcale ten Overdrive nie daje większej liczby detali, tylko zamienia detale miejscami. W dodatku overdrive wcale nie jest tak często widoczny jak się wydaje. Często daje się jako porównanie główne miejsca gdzie widać efekt, a finalnie większość gry będzie może odczuwalna, ale nie na tyle, żeby zmieniać kartę (dla starej już gry, w dodatku kupionej przez wiele osób przez hype).
Jakby zrobili dobry tryb w CP77 - nieskończonej zabawy inaczej bym gadał. Sandbox trochę nie jest dobrze skonstruowany - nawet immersja na miarę GTA5 nie ratuje gry - bo braku celów pod koniec gry. Skyrim, Fallout 4, gry MMO, ETS2 - są dużo lepiej pod względem nieśmiertelności zaprojektowane (choć CP77 zrobił postęp w stosunku do Wiedzmina 3) Dla tych trybów może bym pomysłał o zmianie szybszej procesora, a potem karty. Wiele gierz RTX On jest przynudnawa obecnie, żeby do nich wracać.
Ciesze się, że upscaling się spopularyzował chociaż gdy technologia raczkowała to liczyłem na to, że będzie to dodatek który przedłuży żywotność GPU a nie switch który pomoże developerom wypuszczenie gry wcześniej poprzez ograniczanie optymalizacji do minimum.
Swoją drogą - sam nie mogę się zdecydować pomiędzy RX 7900 XT i RX 4070 TI. U zielonych 12gb ramu jest dla mnie nie do przełknięcia (zamierzam grać też w 4k na TV) bo w ogóle nie jest future proof a u czerwonych skopana wydajność w VR i gorszy software (brak dlss 3) są dla mnie nie do zaakceptowania. Gdyby tylko te ceny były niższe, ech...
Bądź mną i nie graj na 4k ;D Ale rozumiem chęć super hiper grafiki jest silniejsza ;) Gram już tyle lat, i grafika robi wrażenie przez pierwszą godzinkę. Potem ma się to w gdzieś. Nie zwraca się na to uwagi. Chyba że jakaś krótka scenka w grze, nowa lokacja jest przedstawiana, To wtedy jest ekspozycja na światło i cienie. A potem znowu do zbierania fantów.
Mam 4070 Ti i obecnie wszystko na tej karcie działa w 4K, oczywiście trzeba używać DLSS ale z poziomu kanapy na TV 55 cali, roznica miedzy obrazem natywnym a DLSS Quality i Balanced jest praktycznie niewidoczna, nawet Performance wyglada zupełnie ok, dużo lepiej niż np zmiana rozdzielczośći na 1080p.
Tu swoją drogą widać jak skutczne jest DLSS, bo tryb Performance też skaluje z 1080p do 4K, a roznica miedzy nim a zmianą rozdzielczości TV na 1080p (co przecież skaluje się dobrze, bo dokładnie 4:1 piksela) jest gigantyczna.
Ale jeśli chcesz mieć pewność plus więcej RAM, to musisz celować bardziej w 4080.
Osobiście uważam, że nie jest to zbyt pozytywne dla graczy. Powoduje tylko, że i tak już leniwi twórcy gier mogą mocniej olewać proces optymalizacji, bo i po co skoro mają technologię, która polepszy działanie gry. Technologia ma wiele pozytywów, ale niestety finalnie lepiej byłoby dla nas, aby nigdy nie powstała.
Przyjdzie czas że PS5 będzie niedomagało to i twórcy wezmą się za optymalizacje gier multiplatformowych
Już niedomaga, co widać po tym, ze gry musza działać w 1080p żeby osiągnąć 60 klatek, lub nie oferują 60 fps w ogóle.