https://www.youtube.com/watch?time_continue=38&v=IMi3JpNBQeM&feature=emb_logo
Dwukrotny zysk w fps przy lepszej jakosci obrazu na 2060 . Nvidia naprawde solidnie popracowala nad DLSS .
Szkoda tylko, że przekształca i zakłamuje kolory.
Popatrz na dwie te same wieże w 17 sekundzie. Jedna jasno niebieska, druga biała.
Nie ma co, to jest technologia przyszłości, a nie jakieś alt tabowanie gierek na nowym xboxie.
Oby tylko implementowali to w każdej grze, bo na razie tytułów jest ciut za mało, aby zmiana GPU się opłaciła :/
Ale jedno jest pewne, AMD może mieć problemy bez czegoś podobnego.
Ale jedno jest pewne, AMD może mieć problemy bez czegoś podobnego.
Ja się modlę o to żeby AMD nie rozwijało dalej ani DirectML ani ImageSharpening ani temu podobnych jak to ma mi dawać inną kolorystykę w grach. Chcę aby moje gry pozostały takimi jak je widział pierwotny kreator/artysta.
Ale jedno jest pewne, AMD może mieć problemy bez czegoś podobnego.
To akurat prawda. Jeśli do teraz nic w tym temacie nie zrobili to raczej nie ma co liczyć na podobną funkcję w konsolach a szkoda, bo jeśli gra może działać dwa razy lepiej i to w jeszcze lepszej jakości to nie widzę powodu dla którego miałbym z tego nie skorzystać.
Dokładnie, TAA w RDR2 to dramat, a jaki się je zmieni na MSAA to włosy wyglądają jak siano :(
Ja nie mam nic przeciw TAA. Dobry AA, mało wymaga, ale wygląda dobrze jako dodatek postprocesowy do rozdzielczości powyżej 1440p. Poniżej wszystko jest bardzo rozmazane, wygładzone w miarę ale rozmazane.
Jak włączysz MSAA, to nie dość że mało on poprawia, trzeba by ustawić 16x, wtedy np w New Order dopiero widać różnicę, to jeszcze siada niesamowicie na obciążenie karty graficznej. I nie tylko włosy wyglądają jak siano, trawa i drzewa mają zbyt wiele szumu.
Może będzie jakaś aktualizacja z DLSS do RDR2, albo w sterowniku może będzie taka opcja do włączenia.
Była aktualizacja TAA, jest opcja wyostrzenia
Trzynaście ---> Ta opcja była od początku. Od początku testowałem wszystkie ustawienia. Jedyne co dodali w aktualizacji to "Jakoś" teselacji...
Cos bylo kombinowane, moze zwiekszyly sie mozliwosci tego wysotrzenia juz nje pamiętam
Pamietam jednak, ze specjalnie pclaba sledzilem i tam kolesie pisali o tym, ze mozna zwiekszyc poziom wyostrzania w jakims pliku konfiguracyjn gry co tez uczynilem
Pozniej wyszla aktualizacja i mozna bylo osiagnac ten poziom juz w nornalnej grze
Tylko po co DLSS, skoro gra w 4k 60 śmiga na leciwym gtxie 1080 noTI?
Kolejny bajer, do którego potrzeba lupy. Pamiętam, jak pierwszy raz zobaczyłem bump mapping, albo cienie na piksel generowane w czasie rzeczywistym. Spoko, że kombinują, ale czasy rewolucji graficznych mamy już za sobą.
Kolejny bajer, do którego potrzeba lupy.
Co? Przecież tu nie chodzi tylko o jakość grafiki, ale o dwa razy większą płynność.
Tylko, że z wszystkich tych technologicznych pierdów właśnie DLSS 2.0 jest najlepszą, bo daje faktyczny wzrost wydajności przy praktycznie nie zmienionej jakości wyświetlanego obrazu.
Co? Przecież tu nie chodzi tylko o jakość grafiki, ale o dwa razy większą płynność.
W stosunku do czego?
Porównanie jest w 4k, a to jest rozdzielczość, przy której w zasadzie i w ogóle można wyłączyć wygładzanie. Czyli lupa.
Chodzi tobie o to, ze działa tylko z RTXami? Taki 2060 to przecież powiedzmy entry level za 1,5k zł. DLSS 2.0 daje spory wzrost wydajności na najtańszym z RTXow nawet jak ktoś gra w 1440p. Na monitorze z wysokim odświeżaniem każda klatka moze miec znaczenie. Jeśli ktoś ma jeszcze silniejszą kartę i chce grać w 4k/60 to ta technologia na pewno w tym pomoże.
W stosunku do czego?
Jak w stosunku do czego? Masz na filmiku:
4K ultra - 30 klatek
4K ultra + DLSS - 60 klatek.
DLSS daje dwukrotny wzorst wydajności na tej samej karcie, a dodatkowo polepsza jakość obrazu.
I tego nie łapię. W jaki sposób to zwiększa fps? Czytam, że to jakiś post processing. Czyli jak niby dodaje dodatkowe klatki?
Bo jest renderowane w nizszej rozdzielczosci a pozniej tylko upscalowane do wyzszej. Renderowane w nizszej = wiecej FPS.
Ok, AMD jednak ma odpowiedź. Działa na tej samej zasadzie pod względem wyglądu i wydajności.
youtube.com/watch?v=FLEow_i_x9I
Warto zwrócić uwagę na artefakty pojawiające się na linie nad głową bohatera po włączeniu DLSS.
Przy FidelityFX tego nie ma.
Zaraz zaraz, ten filmik sugeruje, że rekonstruowane 4K ma więcej szczegółów od natywnego? Przecież to niedorzeczne.
Czy tam po lewej nie powinno być 1080p?
Mi też coś nie pasuje, ale może ta technologia jest taka innowacyjna i niesamowita że tak jest? Nie leży mi to, ale na razie nie mam jak sprawdzić.
Każdy, kto siedzi w foto/grafice/filmie, z miejsca widzi, że obraz jest przeostrzony - kontrast na krawędziach jest sztucznie podbijany.
Wygląda ok (krawędzie wyróżniają się bardziej niż w 4k), ale może odrywać wzrok od centrum kadru itd. (a u kogo, jak u kogo, ale u Kojimy to ma znaczenie, bo jest mistrzem kadrowania).
Jak już ktoś zauważył - bez zastopowania oraz porównania, raczej nie zwraca się na to uwagi. Większy zyskiem jest natomiast FPS.
Zaraz zaraz, ten filmik sugeruje, żę rekonstruowane 4K ma więcej szczegółów od natywnego? Przecież to niedorzeczne.
Ten obraz nie jest skalowany do 4k. Obraz 4k jest generowany przez sieć neuronową z obrazu niższej rozdzielczości. Obraz wygenerowany ma więcej szczegółów bo AI było szkolone na próbkach w 8k. Czyli tak na dobrą sprawę AI bierze obraz w 1600p (czy innej rozdzielczości którą można tam ustawić) i generuje coś w stylu obrazu w 8k przeskalowanego do 4k.
Dla tych co nie rozumieja na czym polega DLSS
https://www.purepc.pl/nvidia-dlss-2-0-obraz-lepszej-jakosci-i-wyzsza-wydajnosc-w-grach
DLSS 2.0 to nowa i ulepszona sieć neuronowa wykorzystująca algorytmy głębokiego uczenia, której celem jest zwiększenie klatek na sekundę, jednocześnie generując obraz w lepszej jakości niż przy pierwszej iteracji tej techniki. DLSS 2.0 oferuje natywną rozdzielczość obrazu przy użyciu połowy pikseli. Wykorzystuje w tym celu usprawnione techniki akumulacji czasowej, aby uzyskać ostrzejsze szczegóły obrazu oraz poprawioną stabilność między klatkami. Nowa wersja ma również odznaczać się zdecydowanie lepszym skalowaniem na wszystkich kartach GeForce RTX bez względu na rozdzielczość (Full HD, Quad HD bądź też np. 4K). Jedną z największych zmian względem poprzedniej wersji jest użycie jednej sieci neuronowej dla wszystkich gier - podczas gdy oryginalny DLSS wymagał osobnego szkolenia dla każdej gry, DLSS 2.0 oferuje uogólnioną sieć AI, która eliminuje potrzebę trenowania dla każdej konkretnej gry. W domyśle ma to oznaczać szybszą integrację gier oraz więcej gier wykorzystujących technikę DLSS (niekoniecznie w połączeniu z Ray Tracingiem).