RTX 4090 wyciąga zaledwie 16 fps w Cyberpunku 2077 z nowym trybem
Ray Tracing, który mamy obecnie w grach to trochę taka oszukana proteza. Zazwyczaj jest to RT albo odbić, albo cieni, albo AO, albo GI, w dość niskiej rozdzielczości wewnętrznej z małą ilością próbek. Potrafi to robić wrażenie, ale jest to proteza.
Tutaj mamy pełny path tracing i wcale się nie dziwię, że bez DLSS lata to ledwo w 16 klatkach co i tak jest imponujące. Path tracingu, który jest dużo bardziej zasobożerny od implantacji jaka jest obecnie stosowana w CP2077, i używa go Pixar w swoich filmach. A dlaczego imponujące? Bo tu mówimy o klatkach na sekundę, kilka lat temu taka scena renderowana by była w minutach na klatkę.
Przedsmak PT macie w Portalu RTX, który też korzysta z tej techniki, choć przy dużo prostrzej geometrii.
Nie wiem z czym niektórzy mają problem, skoro i tak to jest opcjonalny ficzer.
Ale kurła już z RTX-em 70xx albo 80xx będzie stabilne 60 fps.
Chyba jednak trzeba będzie poczekać na RTX 6090 bo RTX 5090 może być jeszcze za słaby
Nic się nie martw, wymyślą coś nowego co sprawi, że trzeba będzie czekać na kolejną kartę graficzną. A później kolejną. Tym razem w cenie nowej skody.
O, Alex znowu ma edycję działająca.
oczywiście ja tam widzę 131 fpsów dzięki nowym technologią / 16 to "chwyt marketingowy" jak z tego kawału dla Wujków ;)
Ale wiesz kidzie, że mowa jest o wydajności w RT bez wspomagaczy pokroju DLSS 3, co sugeruje sam tytuł tego newsa i o tym piszą co niektórzy tutaj? Idź spać, bo jutro do szkoły nie wstaniesz ;)
Trochę w sumie taki śmieszny paradoks, że technologia RT, która została przez Nvidie stworzona jest za mocna i zbyt zasobożerna nawet dla topowych kart za 10k z ich oferty i potrzebuje innej technologii czyli DLSS, która musi trochę pooszukiwać żeby po ludzku to wszystko działało.
ale co niby dziala? przeciez responsywnosc masz jakbys gral w 16 klatkach . dlls3 ssie
Dziwne żeby nie była, skoro to technologia przyszłości. Quake sprzed 20-kilku lat ledwo działa z pełnym RTX, a ty chcesz jedną z najbardziej zaawansowanych technologicznie gier w historii odpalać bez problemów? RT to sztuka kompromisów, dobrze zastosowany to mistrzostwo świata.
Nvidia żadnego RT nie stworzyła. To technologia dość stara w grafice komputerowej - po prostu dopiero niedawno udało się ją zaimplementować w czasie rzeczywistym. Do tej pory używana była głównie chociażby w filmach. Widzę że branding RTX od Nvidii działa.
No i jak się okazuje, nadal jest dla RT za wcześnie. Pierwsze implementacje to były popłuczyny, a i tak Turing się dusił. Widać jak szybko Nvidia próbowała wcisnąć nam karty z "obsługą" tej technologii.
A co w tym złego że goście eksperymentują na starych grach? A wiesz że najszybszy superkomputer w 2001 miał tyle teraflopów co dzisiejsze PS5? Za klika lat odpalisz ten tryb na laptopie z integrą.
CP 2077 był, jest i będzie technologicznym koszmarkiem, nie rozumiem tylko tych wszystkich pochwał pod adresem tego tytułu. CD Project strasznie stracił w moich oczach i do kolejnych gier tego studia będę podchodził z dużą dozą dystansu.
Nie tylko w twoich oczach. W oczach inwestorów także. Na dźwięk CDP Red. Mają tylko jedno zdanie. Synonim miernoty i wydawania niedokończonych produktów. Redzi muszą sobie w końcu przyswoić pewną fundamentalną prawdę: jak coś nie działa, to się tego nie wydaje." Najważniejsze, że są gotowe formułki z przeprosinami i zapewnienia o tym, że następnym razem będzie lepiej.
Technologicznie to jest właśnie zupełnie przeciwnie jeśli tylko nie chorujesz na stosowanie maksymalnych, które zawsze zżerają mnóstwo zasobów a nie dają niczego.
Jak spojrzysz rozsądnie to stwierdzisz, że działa fenomenalnie na RX580 osiągając ~50fps na mieszance średnich i wysokich z FSR ustawionym na jakość wyglądając przy tym bardzo dobrze.
Co do technologicznego koszmarku. Wyrażanie nadziei na "masę poprawek" w kontekście gry, która swój debiut zaliczyła 3 lata temu i od tego czasu obrosła w łaty przekraczające rozmiarem jej początkową objętość to jakieś wyższe stadium absurdu.Nie powinienem sięgać po działo tak dużego kalibru, by zobrazować nieudolność Redów. Ale wystarczy popatrzeć na Guerillę i Forbidden West, która to gra z każdym kolejnym patchem jest szlifowana do stanu perfekcji, choć równie dobrze mogłaby pozostać w stanie premierowym i narzekaliby tylko ci najbardziej czepliwi.
Muszę mieć zatem wybitnego pecha bo testowałem ten tytuł na dwóch różnych konfiguracjach i konsoli (jej tutaj nie uwzględniam - nie jestem aż tak okrutny dla CDP) i spectrum FPS zawsze wahało się od 40 do bodajże 90 i zejście w ustawieniach niewiele dawało. Wiem też, że od czasu premiery ograłem sporo tytułów, które ukazały się później na rynku i w zasadzie wszystkie działały znacznie lepiej. Mój stosunek do CP 2077 już się chyba nie zmieni - studio dało ciała i tyle, a moja opinia nie jest ani odosobniona, ani bezzasadna.
I po co w ogóle wrzucać takie g do gier, skoro nawet najmocniejsze karty na rynku tego nie ogarniają? Szkoda czasu i zasobów, które można byłoby wykorzystać na coś bardziej przydatnego i potrzebnego.
Gram właśnie w Wiedźmina 3 Next Gen i on jest jeszcze bardziej zbugowany niż wersja GOTY 1.32 a już tamta wersja była bardziej zbugowana niż 90% gier na premierę. CDPR po prostu technicznie nigdy nie ogarniał swoich gier od samego początku, już od Wiedźmina pierwszego. Nic się przez te lata nie zmieniło.
Kęsik, zapomniałeś o swojej dziennej dawce leków na głupotę i znowu piszesz bzdury?
W tytule brakuje najważniejszej informacji, że chodzi o 4k.
Czyli w FullHD będzie normalnie 60FPSów...
Gdyby to był pełny raytracing, jak ten używany przy renderowaniu scen, mam obawy, czy uzyskalibyśmy na RTX4090 kilka klatek.
Ta technologia jest zasobożerna. Tutaj nie silnik jest dużym problemem, tylko to, że to rzucanie się z motyką na słońce... Silnik może być problemem przy niskich ustawieniach... Przy wysokich to po prostu karty są zbyt słabe...
Nvidia od serii RTX2XXX regularnie kłamie, że można na tych kartach uzyskać pełny raytracing w normalnych grach (nie biorę pod uwagę gier na poziomie geometrii znanej z dooma).
Zobaczcie ile sekund renderują sie zwykłe sceny na RTX4090 na Cycles czy Octane.
DLSS właśnie renderuje połowę mniejszą rozdzielczością czyli dla 4k to 1080 a w wersji 3.0 podwaja liczbę klatek generując z 2 poprzednich jedną przejściową czyli gołe 1080 miało by może z 50fps
Do TLoU nawet RT nie wrzucili, a i tak karty zajechali :D na "sucho" można się ratować DLSS.
Ray Tracing, który mamy obecnie w grach to trochę taka oszukana proteza. Zazwyczaj jest to RT albo odbić, albo cieni, albo AO, albo GI, w dość niskiej rozdzielczości wewnętrznej z małą ilością próbek. Potrafi to robić wrażenie, ale jest to proteza.
Tutaj mamy pełny path tracing i wcale się nie dziwię, że bez DLSS lata to ledwo w 16 klatkach co i tak jest imponujące. Path tracingu, który jest dużo bardziej zasobożerny od implantacji jaka jest obecnie stosowana w CP2077, i używa go Pixar w swoich filmach. A dlaczego imponujące? Bo tu mówimy o klatkach na sekundę, kilka lat temu taka scena renderowana by była w minutach na klatkę.
Przedsmak PT macie w Portalu RTX, który też korzysta z tej techniki, choć przy dużo prostrzej geometrii.
Nie wiem z czym niektórzy mają problem, skoro i tak to jest opcjonalny ficzer.
+1 zeby ten ray tracing sie nawet oplacal to heh lub zeby mega roznica byla.
choc nawet z obecnym rtx on karty nie dawaja rady i to te najnowsze i pod 1080-1440p i pod 4k.
Niektóry tutaj naprawdę nie rozumieją jak niesamowite jest to, że osiągnęli to w czasie rzeczywistym. Mówimy o Pathtracingu, nie znamy lepszego algorytmu obliczania oświetlenia, jest to coś co do tej pory było dostępne tylko do renderowania offline animacji i filmów i jeszcze nie tak dawno temu potrafiono liczyć klatki w dniach zamiast sekundach. To oczywiste, że można spodziewać się takiej wydajności jeśli ktoś wie czym to jest, po prostu chwytam się za głowę jak widzę komentarz typu "partacze", "po co to komu" XD to nie dla was jak widać i jest to po prostu technologia przyszłości, testująca grunt na nadejście pathtracingu w kolejnych generacjach.
Żeby technologia dorosła musi być przecież rozwijana, implementacja tego w tak zaawansowanej grze jak Cyberpunk stanowi świetne pole do tego, zresztą jak sami zaznaczyli jest to PREVIEW, które będzie rozwijane i tworzy myśl, że się da.
No fajnie że ta technologia jest tak przełomowa... Tylko co z tego? Pod względem technologicznym to Ray tracing jest właśnie bardzo prymitywną technologią, a nie szczytem możliwości. To zwykły brute force...
W każdej innej dziedzinie informatyki jak byś powiedział że masz rozwiązanie, które zżera mnóstwo mocy obliczeniowej gdy w tym samym czasie masz mnóstwo rozwiązań, które dają akceptowalne wyniki wykorzystując ułamek mocy obliczeniowej to byś został wyśmiany...
Niesamowitym to jest to jak dobre oświetlenie można uzyskać bez RT przy wykorzystaniu niewielkiej części mocy obliczeniowej.
A i tak bardzo tworzy myśl że się da, że pokazuje jak można mieć kilkukrotnie lepszą wydajność przy niewiele gorszym efekcie nie używając tych niesamowitych technologii...
Z odbiciami i większością cieni, połyskliwymi powierzchniami itp. - ale fakt, już nie z kaustyką, refrakcją czy GI - lepiej radzi sobie ray-tracing. :)
To temat rzeka, artykuły na popularnych stronkach, a tym bardziej wszyscy formowi "znawcy od giereczek" nic nie wiedzą na temat tak RT, jak i PT, oraz tego, jak złożone są algorytmy do ich implementacji i optymalizacji,
Kiedyś czytałem jakiś artykuł, który to dobrze tłumaczył i nie mijał się z prawdą, ale to było dawno, linku nie mam i sam wszelkie szczegóły zapomniałem, a 3/4 nie zrozumiałem :P
Z tego co pamiętam, dobre są dostępne w sieci opracowania o RTXGI, gdyby ktoś chciał poczytać, bo sporo tam było o RT i PT w ogóle
Co do reszty to "zwykły brute force", serio? Rendery w Rendermanie, Blenderze, Arnoldzie, które i tak budują struktury akceleracyjne, korzystają z nietrywialnych algorytmów obierania ścieżek, a dalej trwają minutami, a nawet godzinami. Na to co pokazała Nvidia przekłada się ostatnie 5 lat badań akademickich nad algorytmami śledzenia promieni i odszumiania. Polecam sobie poczytać o chociażby ReSTIR, bez którego by to jeszcze nie było możliwe.
Gdyby był lepszy, wydajniejszy sposób na renderowanie symulacji światła to uwierz, że te miliardowe firmy już dawno by go opracowały. Pathtracing to jest szczyt możliwości wyliczania światła, jesteśmy wstanie jedynie pracować nad jego elementami.
I "dobre oświetlenie" to sobie możesz jedynie poobserwować w statycznych grach. I tylko w kwestii global illumination, bo do generowania odbić nie technologii poza cube mapami i planar reflections, które nadają się tylko dla luster, a niosą wydatek czasem na poziomie raytracingu. O SSR nawet nie mówie, bo to w nieprzyjaznych warunkach, a jest ich wiele, potrafi wyglądać okropnie. Jak wyliczysz wcześniej oświetlenie dla dynamicznego świata, nawet już dla samego GI? Albo dla tak ogromnego jak Cyberpunk, wiesz ile miejsca by to zajęło? Wiesz jakie koszty wybake''owania i aktualizowania to generuje? Już nie wspominając o artistach, który muszę się męczyć ze starymi technikami.
Poza tym niewiele gorszy efekt to raczej sprawa subiektywna, dla mnie różnica między tym co mieliśmy 3-4 lata wstecz, a teraz z Lumenem i coraz pełniejszymi implementacjami raytracingu jest ogromna.
r4x4
Nie uzyskasz tak dobrego oświetlenia/cieni/odbić/ao klasycznym rasterem mimo masy sztuczek, której na przestrzeni lat nauczyli się twórcy, bo niemal każdy zamiennik ma jakieś wady.
SSR, odbija tylko obiekty, które widzi gracz, wyłączając z tego obiekty dynamiczne (np. npeców), cząsteczki (m.in. wolumetryczne), czy efekty z alfą (przezroczystością, choć tutaj dużo zależy od implementacji) plus masy innych rzeczy.
HBAO czy SSAO, robi na połączeniu obiektów geometrycznych tworzy cień, który jedynie sprawia, że obiekty nie wyglądają jakby lewitowały. Nie ma to nic wspólnego z realistycznym cieniowaniem i w dodatku jest podatne na błędy.
Cienie można uzyskać w miare realistyczne dzięki PCSS, ale ta technologia jest dość wymagająca, dwa podatna na błędy (bo działa podobnie jak klasyczna shadowmapa, która nie radzi sobie z małymi obiektami)
No i jeszcze oświetleni. Tutaj przy klasycznym rasterze to nawet nie ma mowy o realistycznym oświetleniu. Masa błędów jak przeciekanie światła przez geometrię, brak realistycznego odbijania się światła od obiektów (choć można użyć to zrobić w przestrzeni ekranu), ograniczona liczba źródeł światła, światła, które nie rzucają cienia, etc.
Już nie wspominam jaką ogromną oszczędnością czasu z perspektywy developingu gier jest zaimplementowanie Ray Tracingu.
Chyba na kanale Digital Foundry był fragment z analizy technicznej Metro Exodus EE jak wygląda projektowanie oświetlenia metodą tradycyjną i z RT.
Oszczędnością czasu przy Raytracingu byłoby to, gdyby nie trzeba było wszystkiego ręcznie dodatkowo optymalizować i implementować dwóch zbieżnych pod względem efektów rodzajów oświetlenia/cieni/odbić itp.
W momencie, gdy musimy implementować starą metodę i nową, to oszczędność czasu jest minusowa...
Więc do czasu, gdy gry wykorzystują obie metody(starą i nową), argument o oszczędności czasu jest wyciągnięty nie powiem skąd...
Nie wierzę, że tak sensowny komentarz zebrał tyle plusów. Najczęściej pod newsami o ray tracingu nieogary wyśmiewają tą technologię że guzik daje, wymysł Nvidii żeby naganiać na kupno nowych kart albo że niezoptymalizowane.
Mimo ze redakcja zrobila co mogla zeby wywolac gownoburze "zaledwie 16 fps", "nawet RTX 4090 wymięka" nie skupiajac sie zbytnio na RT a tu jakis bezczelny dzl im pokrzyzowal plany merytorycznym komentarzem ktory zbiera plusy :)
pawel1812
Tak się dzieje dlatego, że jesteśmy w stanie przejściowym między rasterem a RT. Pisałem bardziej w kontekście przyszłości gdzie część technik zostanie w grach AAA zastąpiona RT.
To już wiem, bo kiedyś tak pisałeś wcześniej, ale wielkie dzięki za informacji dla mnie i dla inni.
Ray Tracing, który mamy obecnie w grach to trochę taka oszukana proteza. Zazwyczaj jest to RT albo odbić, albo cieni, albo AO, albo GI, w dość niskiej rozdzielczości wewnętrznej z małą ilością próbek. Potrafi to robić wrażenie, ale jest to proteza.
Wiadomo, że RTX 3000 nie pokazują pełny potencjału ray tracking, a nawet RTX 4000 mają z tym problemu. Ale to tak robią odczuwalne różnicy w grach Cyberpunk 2077 (bez Overdrive), The Medium, Spider-Man i inne gry. Jak się mówi: "to zawsze lepsze jest mieć mała rybka w garść niż w oceanie". ;)
Gdzie niby napisałem że byłoby idealnie jakby się rozwój zatrzymał? Nie wskażesz, bo sobie sam wymyśliłeś te głupoty...
A wiesz dlaczego w filmach się ta technologia opłaca? Bo tam można poświęcić nawet bardzo dużo czasu na rozwiązania dające najlepszą jakość. W grach jest to marnowaniem zasobów, które można lepiej wykorzystać.
No tak... Liczenie tego tak jak do tej pory zajmowało setki gigabajtów... A nie czekaj, taki Wiedźmin waży mniej 50GB a przy "tradycyjnym" liczeniu światła nie wygląda dużo gorzej niż z RT. Jedynym obszarem gdzie RT robi faktyczną różnicę to są odbicia i do tego ma to nawet sens, ale to i tak żre zasoby jak szalone.
A poza tym mamy już trzecią generację kart graficznych z RT i wygląda na to, że chyba wydajność nie bardzo idzie w stronę akceptowalnego poziomu, a wręcz ucieka w stronę absurdu. Wybacz, ale to póki co ślepy zaułek i nie zapowiada się by to zbyt szybka stało się podstawą w grach. Jeśli po zaraz pięciu latach od premiery RTX 2080 ta technologia jest ciągle w kiepskim stanie to nie widać raczej potencjału by to był faktycznie jakiś wielki przełom...
Owszem, może to być bardzo fajnym narzędziem, ale dopiero za kilka lat jak ludzie przestaną się fascynować najmniej ciekawymi rzeczami. Fotorealizm jest nudny, fotorealizm masz cały czas za oknem.
A zaoszczędzony przez programistów i artystów czas mnie ani trochę nie obchodzi. Jeśli nie idzie za tym ani cena, ani niższe wymagania, ani chociaż nie oznacza to więcej czasu włożonego w pracę nad stylem artystycznym to mnie to ani trochę nie obchodzi, mogą sobie pracować ile tam chcą.
r4x4
I właśnie dlatego mamy techniki rekonstrukcji, w szczególności DLSS. Tak, to nie jest "natywna" rozdzielczość, ale DLSS jest już na tyle dobre, że potrafi stworzyć obraz równy/lepszy od natywnego przy wyższej płynności. I tak, jak się przyjrzysz z bliska to gdzieś tam zobaczysz artefakty. W ruchu? Szczerze wątpie, tak dobre jest obecnie DLSS.
W ogóle technologia wkroczyła w takie miejsce, że czysta wydajność ma coraz mniejsze znaczenie, i jest mocno wspierana akceleratorami do uczenia maszynowego jak tensory w RTXach, choć nie tylko. Intel w Arcach też ma dedykowany układ ML, tak samo Apple Silicon, i wygląda na to, że proces się nie zatrzyma, bo rozwój AI się nie zatrzymuje.
Ale zgodzę się z jednym, w natywnej rozdzielczości jeszcze długo nie będziemy mieć Path Tracingu bez rekonstrukcji w czasie rzeczywistym. Przy obecnym postępie wydajności kart nvidii to w bardzo optymistycznym wariancie 60 fps w 4k zobaczymy na flagowcu za 3-4 generacje.
A zaoszczędzony przez programistów i artystów czas mnie ani trochę nie obchodzi.
A powinien, bo to właśnie czas i ilość ludzi pracujących nad grami sprawił, że budżety gier się tak rozrosły, co wydawcy odbijają sobie na nas wyższą ceną gier i dołączanie do nich wszelkiej maści mikropłatności, battle passów, etc.
Po co to gówno Nvidi wrzucać skoro i tak gra z tym nie grywalna przez kilka lat.
Kiedyś się w tylu grało w Diablo 2 na Pentiumie 166 i nikt nie płakał jakoś.
Tylko że Pentium miał już prawie 7 lat na karku jak diablo 2 wyszła.
Do tego dodaj jak szybko się grafika rozwijała w 1993 a 2000 rok to już ogromny przeskok więc nie ma się co dziwić że ten procek nie dawał rady.
A tu dziś karta za grube pieniądze nie daje rady i nie ma nawet roku od jej premiery.
Teraz to ta gra dopiero będzie faworyzować karty zielonych.
Do tej pory było do dosyć zauważalne ;-)
Dobrze, że nie ograniczają się mocą konsol czy współczesnych GPU. Za kilka lat wyjdą GPU, które uciągną to w sensownej płynności, a Cyberpunk dzięki temu nadal będzie wyglądał świeżo. Nareszcie jakiś większy postęp w grafice
Wydawanie czy to gier czy aktualizacji z którymi ma problem najlepszy obecnie sprzęt jak dla mnie powinno być grubo karane przez jakiś urząd ochrony konsumenta. Gry powinny wychodzić tak aby obecny sprzęt mógł to spokojnie uciągnąć oczywiście na różnych ustawieniach w zależności od sprzętu ale na najlepszej obecnie karcie graficznej nie powinno być opcji żeby takie rzeczy miały miejsce.
Ale to jest dodana dodatkowa opcja ustawień graficznych ponad UBER, co ma do tego UOKIK, to krok prokonsumencki... Bo kto ma sprzęt, może sobie uruchomić ładniejszą grę. Sony by chciało za taką aktualizację 350zł...
Ray tracking został w ostatnich latach wypromowany żeby karty się sprzedawały jak ciepłe bułki inaczej nowoczesne gry nadal by bardzo dobrze działały na starych GeForce 1070 czy trochę lepszych.
Jestem ciekaw ile jeszcze gier musi wyjść by ludzie zrozumieli że Ray Tracing to nadal nowa technologia która nie jest wymogiem by móc grać w gry, jest to dodatek który na pewno wiele osób może nie dojrzeć, pierwsza karta graficzna z tą opcją pojawiała się w 2018 roku i do dziś nie ma jeszcze sprzętu który w pełni mógłbyś grać w 4K w 60 klatkach
Zgaduję że ta technologia w pełni będzie korzystna dla wszystkich za dobre kolejne 5 lat albo i nawet dłużej, ja na razie dobrze bawię się przy moich grach starych i nowych.
Trochę ściema od NVIDII. Jestem pewien że te 16 klatek na Video bez DLSS to było celowo żeby sprzedać DLSS3 i najpewniej było to na słabszej karcie. Po drugie DLSS nie daje AŻ takich gainów, a nawet jeśli to co sugerujecie w artykule to prawda to oznaczało by to że ponad 85% klatek na sekundę generowały by technologie pokroju DLSS 2 i 3, a to oznaczało by latencje, że ja pie......le.
Jak dla mnie łykneliście pokrętny marketing od zielonych i tyle.
W pierwszej chwili również pomyślałem, że ten przyrost coś za duży, ale sprawdziłem na szybko na 4070ti jak wygląda skalowanie w cp77 w 4K z rt ultra, środek miasta, (FG - frame generator)
Natywne 4K - 22 fps
dlss jakość - 40 fps
zbalansowany - 48 fps
wydajność - 58 fps
ultra wydajność - 75 fps
jakość z FG - 57 fps
zbalansowany z FG - 70 fps
u. wyd. FG - 105 fps
Dla porównania z wyłączonym RT
Natywne 4k - 47 fps
dlss jakość - 72 fps
zbalansowany - 85 fps
natywne 4k z FG - 69 fps
dlss jakość z FG - 91 fps
zbalansowany z FG - 103 fps
Widać dobrze, że przy rt skalowanie z dlss jest wyraźnie lepsze niż bez rt także przy path tracingu możliwe, że skalowanie jeszcze się poprawi względem obecnego rt. Inna sprawa, że te wyniki są praktycznie na bank z dlss ultra performance z FG także wizualnie lipa.
Ten DLSS 3 działa trochę inaczej niż wcześniejsze wersje i klatek wygenerowanych w grze jest sporo mniej, niż tych wyświetlonych. Masz racje, ze powoduje sporo większe opóźnienia sterowania. Jak obraz będzie generowany w 16klatkach to nawet jak będzie 60klatek, to opóźnienia będą jak przy tych 16stu klatkach, tylko ekran nie będzie tak przeskakiwał, bo są wykorzystywane generowane dodatkowo klatki (przy technologii z branży filmowej, gdzie pliki video trochę inaczej sie zapisuje). Chyba 4x więcej klatek nie da się wygenerować, więc obstawiam, że też po jakości generowanego obrazu polecieli.
Osobiście grałem na PS4 slim w Cyberpunka, na padzie da sie grać w 30FPSach bez problemu. Nie wiem jak na myszce, bo F76 bywał tragiczny na moim PC, jak po aktualizacji dostawał jakieś dziwnej zadyszki, ale przy F76 to chyba nie problemy z klatkami i kartą graficzną tylko z silnikiem.
I znowu same błędy albo celowo tak piszecie byle napisać, nie da się już czytać tych waszych newsów...
DLSS3 to nie jedyna opcja, jest jeszcze DLSS2
To czym jest DLSS3 to FG czyli frame generator + dlss2, FG nie używa żadnego AI
Więc z samym DLSS2 też będzie działać, ale to pomijają.
Komentujecie kłamliwy film marketingowy CDRP i NV, w którym nie pokazują porównania do samego DLSS2 dostępnego na każdej karcie nv od 2xxx, a wcześniej robią porównania do BEZ RT z nowym RT....
Już za 10 lat będzie można w to zagrać w 60 klatkach w 4k bez sztuczek.
Jak widać nowy pełny Path Tracing jest bardziej wymagający.
Lecz kiedyś te 15FPS miałem też jak na swoim starym PC uruchamiałem Gothic''a3 na średnich.
w 3 letniej grze która po rko z zeszłego roku jest już w fazie wegetatywnej i dostanie jeszcze jednego boosta po wydaniu dodatku w 2024 , przy dobrych wiatrach na koniec 2023...
Lepiej byłoby dla graczy i nvidii zająć się tym co było - mniej pełny RT. Może i DLSS coś więcej potrafi, ale mam wrażenie, że całą masę istotnych detali będzie się wyłączało tylko po to aby RTX mógł być ON. Najbardziej wkurzające są doczytujące się przed oczami textury, ruch drogowy/pieszy.
Lepiej zajęli by się optymizacją, cachowaniem lepszym tych cieni i światła z lodówek, czy też nawet środowiska. Mam wrażenie, że obecnie każdy RT On robi całą masę niepotrzebnych operacji, które finalnie w krótkim czasie dogenerowywują masę szumów/zniekształceń. Nie mogę patrzeć na RTX2070 na twarze ludzi z szumami, wolę RT Off.
Pełny path tracing gwarantuje większą liczbę takich zjawisk, ale ciągle DLSS3 może jest tutaj rewelacją a nie ten PathTracing.
Spokojnie Panowie, dwie duze firmy postanowily nasladowac steam'a i maja wypuscic gamingowe handheldy na x86 xD
Super nareście seria RTX 4000 daje radę w 4K + RT to Nvidia musiała wymyślić Path Tracing i witamy ponownie w 2018 i graniu w 1080p + RT/PT + DLSS. Za dwa lata wymyślą ultra realistyczne chmury w grach i znowu kupuj nowego RTX z najwyższej serii. Potem znowu coś dopi*rdoli .... Tylko Nvidia umie tak r*chać klientów.
po co miałby ktoś grać bez dlss?
Bawią mnie te porównania Ray tracingu do wynalezienia koła itp
Fajnie jak technologia się rozwija, ale jak daje przy tym korzystne efekty na poziomie cena/jakość/wydajność
Jeżeli chodzi o różnice w obecnym rt a rt off to jest ona jak dla mnie śmiechu warta
Odbicia w grach dawniej dawały radę, dzisiaj jakimś dziwnym trafem bez rt, gra często gęsto nie ma w ogóle odbić
To co się osiąga przy pomocy rt da się zrobić bez niego, z nieco tylko gorszym efektem
Zamiast tego poprosiłbym o lepsze tekstury, lepsze ai, jeszcze lepsze modele postaci w grach
Rt to jest jakieś błędne koło
Rozwój nie polega na tym, żeby do fiata 500 wsadzać silnik 300 koni mechanicznych, bo to mija się z celem
W dudę sobie wsadźcie te tekstury 8k i gry po 150 GB, podczas gdy połowa graczy siedząca 50-80 cm od monitora 1080p/1440p albo 2m od TV nie zobaczy połowy szczegółów.
bez kitu to samo chciałem napisać ludzie chyba zapomnieli, że odbicia w grach to była kiedyś podstawa jak ją wprowadzili i super cieszyła oko i było tego pełno wszędzie. W takim HL2 na source engine w 2004 roku wystarczył Pixelshader i były eleganckie odbicia w wodzie wszystkiego dookoła w czasie rzeczywistym, przedmiotów, npc, pojazdów no wszystko się odbijało nie było sztuczek, czy nawet na teksturze borni którą się trzymało wszystko się w niej elegancko odbijało, a teraz jak odpalam jakąś najnowszą giere i jak widzę tę wstrętną wodę w której odbija się jakieś gówno jakby karta sypała artefaktami (BO NIE MA OCZYWIŚCIE RT) to śmiać mi sie chce.
A może znów spieprzyli optymalizację, olali błędy, obiecali cuda niewidy. Przecież im to ujdzie, bo to tacy "User friendly" devsi, którzy wydali dwie mało znane gierki, jednego średniaka, który podbił świat bo był tak naprawdę inny od całej reszty Fantasy arpg.