Testy wydajności Death Stranding na PC z technologią DLSS 2.0
Jakby się ktoś zastanawiał czym jest DLSS: to technologia pozwalająca zwiększyć fps kosztem pogorszenia (rzekomo niezauważalnego i bezartefaktowego) jakości obrazu. Polega na ogrywaniu gry w mniejszej rozdzielczości np 1600x900 zamiast 1920x1080 i upscalowaniu jej do rozdzielczości docelowej np. wspomnianego 1920x1080.
Czyli po prostu grafika generuje obraz w mniejszej rozdzielczości i przez to ma więcej fps, co jest oczywiste. Następnie rdzenie tensor wspierane uczeniem maszynowym pompują ten obraz do wyższej rozdzielczości tak, żeby wyglądał możliwie jak najbardziej zbliżenie do obrazu, który zostałby natywnie wygenerowany w rozdzielczości docelowej.
Także nie jest to żadna cudowna technologia i jak chcecie grać normalnie to lepiej to dziadostwo wyłączyć a obniżyć np. cienie.
P.S. "nawet użytkownicy RTX 2060 będą mogli cieszyć się stałą liczbą 60 klatek na sekundę" - to jakieś osiągnięcie, że karta za 1600zł pozwala uzyskać 60fps?
To nie jest coś podobnego, DLSS 2.0 wykorzystuje sztuczną inteligencję, w tej chwili obraz uzyskany przy użyciu DLSS 2.0 jest przeważnie ostrzejszy niż ten renderowany w natywnej rozdzielczości. https://www.youtube.com/watch?v=r3fDIvsLrSM
Dokładnie, mówi się, że wygląda często lepiej niż w natywnej rozdzielczość. Więc lepiej to włączyć a cienie zostawić ;)
pieterkov - to co napisałeś jest tylko półprawdą a jeśli się weźmie pod uwagę wszystkie szczegóły to można powiedzieć że cały twój post jest fake postem. Prawdą jest że obraz jest generowany w niższej rozdzielczości bazowej nieprawdą jest że działa to jak typowy upscaling, prawdą jest że działają rdzenie tensor i AI, nieprawdą jest dalej że jest to podbicie rozdzielczości. Uczenie maszynowe polega na tym szczególnie w DLSS2.0 że oszczędzając moc obliczeniową na scenie z mniejszą ilością pikseli przewiduje się brakujące elementy i je wypełnia. M.in. dlatego obraz w przypadku DLSS2.0 może być nawet lepszy poprawiony względem natywnego. Wyjściowo na ekranie wszystko działa w rozdzielczości natywnej właściwej.
Tutaj masz przykład :
To jest przyszłość w optymalizacji graficznej GPU, oby tylko AMD wprowadziło szybko coś podobnego bo inaczej Nvidia odjedzie od AMD o lata świetlne.
Kurde, jezeli naprawde to tak bedzię zoptymalizowane to czapki z głów.
Nawet bez DLSS 2.0 klatki są wysokie.
no też mnie zaskoczyła taka ilość klatek . Ale trzeba dodać że test na 9900k ;P której pewnie nikt nie kupi do 2070 czy 60 w końcu kosztuje 2300 i już może się też okazać z innej bajki mówiąc . że 10900 za 2600 albo 700 za 1600zł się bardziej opłaca ponoć 10700 po OC wychodzi dużo lepiej w grach nawet o 5 % niż 9900k i do tego proce 10xxx są dużo chłodniejsze według testów niż ich poprzedniki. dzięki czemu możemy właśnie tak mocno je podkręcić .
Że nie zawsze dlss jest lepsze. Obraz jest nieczytelny przez intensywny filtr wyostrzający.
Pokazales 4k robione z 1080p czyli maksymalna skrajnosc po to by miec racje. Blad bo sa rozne ustawienia DLSS ktore renderuja z wyzszej rozdzielczosci i juz obrazu nie rozroznisz, a nawet moze byc ladniejzy niz natywny.
Kop do fpsow nawet w tym przypadku jest duzy i pamietajmy ze DLSS 3.0 nadchodzi.
Co nie zmienia faktu, że to oszustwo i lenistwo. Zamiast robić lepszy sprzęt wszystko obchodzi się programowo.
Co? xD Gdzie tutaj jest coś nieczytelnego? Obraz bez powiększenia w tym przypadku wygląda nawet lepiej od natywnie wyświetlanego w 4K - o czym zresztą mówią recenzenci w filmiku z którego wkleiłeś screena.
Co nie zmienia faktu, że to oszustwo i lenistwo. Zamiast robić lepszy sprzęt wszystko obchodzi się programowo.
To nie jest oszustwo tylko obraz przetworzony przez sieć neuronową. To samo robi Twój mózg jakbyś nie wiedział, więc idąc Twoim tokiem rozumowania wszystko co widzisz to jest oszustwo.
No rzeczywiście pixele są trochę bardziej widoczne... na 8 krotnym przybliżeniu... Jak będziesz grał z lupą to będzie to wyglądać tragiczne.
Co nie zmienia faktu, że to oszustwo i lenistwo. Zamiast robić lepszy sprzęt wszystko obchodzi się programowo.
No, 100% oszustwo! Wszystkie gry powinny być pisane w asemblerze bo używanie zaawansowanego oprogramowania przy tworzeniu gier to oszustwo!
tak na to patrząc w dlss 3.0 dostanę zamiast 40 klatek w 4k to 80 + lepszą jakość. ale mam wyłączyć wszystko na minimum i grać w natywie żeby nie oszukiwać xD Chociaż gołym okiem widać że grafa jest dużo lepsza
https://www.youtube.com/watch?v=qfJDjR375Vs
nie ostrzej. Pokazane są wgl detale które w normalnym przypadku nie są odtwarzane . Zobacz sobie na poprawę w control . to nie jest tylko ostrość. niektóre światła i przedmioty są generowane dużo dokładniej . pomyliłeś sobie z wyostrzeniem w filtrach nvidi które posiada też imo amd :P
Mnie zastanawia czy naprawdę da się to odpalić bez problemu na lapku z gtx1050 i grać bez ścinek ? Tak podali w wymaganiach,ale to chyba nie może być prawdą.Chyba że im chodzi o gtx1050 stacjonarny i on jest chyba dużo mocniejszy od mobilki ?
mowa o stacjonarnym cpu i gpu, w dodatku 720p , 30 fps ... bez ścinek na lapku powiadasz
Chciałem zapytać po prostu czy dobrze rozumuje, oświeciłeś mnie ;-) bardziej mnie też ciekawi czy takie gry właśnie jak RDR2 czy Death Stranding idzie jeszcze odpalić na przyzwoitym poziomie na laptopie z gtx1050 \ gtx105ti bo te karty ostatnio jeszcze chyba dawały rade z każdym tytułem na PC.
Różnica nie jest aż tak duża. Pytanie czy procesor jest HQ a nie U.
https://gpu.userbenchmark.com/Compare/Nvidia-GTX-1050-vs-Nvidia-GTX-1050-Mobile/3650vsm211022
dzięki, fajne porównanie, nawet widać jak to wygląda fizycznie jeśli chodzi o karty :-)
fakt, że różnica niewielka, ale pozostaje jeszcze kultura pracy i czy się ta "płytka" nam nie zagotuje
Mam pytanie, czy DLSS 3.0 będzie dostępny dla posiadaczy kart graficznych rtx 2000 czy tylko 3000?
Wolę bez DLSS i RT, a to zapewni już GTX 1080 TI. Control udowodnił mi, że DLSS to taki średni pomysl