Prawie 25-letnia gra sprawia, że najszybsza karta graficzna świata zaczyna się pocić
No czysta magia, obliczenia wykonane w czasie rzeczywistym obciazaly nawet mocarny sprzet, no faktycznie cos podobnego...
Takie testy tylko udowadniają, że ray tracing w grach na ten moment (i najbliższe kilka lat) to wyłącznie fanaberia i w dużej mierze chwyt marketingowy.
No czysta magia, obliczenia wykonane w czasie rzeczywistym obciazaly nawet mocarny sprzet, no faktycznie cos podobnego...
Takie testy tylko udowadniają, że ray tracing w grach na ten moment (i najbliższe kilka lat) to wyłącznie fanaberia i w dużej mierze chwyt marketingowy.
Dokladnie, caly ten RT nie jest warty zachodu. Tworcy nauczyli sie dawno temu oszuikwac i tworzyc piekne oswietlenie bez topienia kart graficznych.
99% ludzi i tak nie odrozni fakowego oswietlnie od RT. Wiec jak wspomniales jest to czysta fanaberia. Cos jak audiofile jarajacy sie sluchawkami za 100.000zl, podczas gdy graja tak samo jak te za 5000zl.
Dokladnie, caly ten RT nie jest warty zachodu. Tworcy nauczyli sie dawno temu oszuikwac i tworzyc piekne oswietlenie bez topienia kart graficznych.
Skoro już się tego nauczyli to czemu mimo to do praktycznie każdej nowej gry dodają tracing? Pewnie im się nudzi albo Nvidia im za to zapłaciła...
Albo jest to szybsze rozwiązanie niż jak napisał kombinować/oszukiwać, tracić czas i tworzyć piękne oświetlenie pospolitymi metodami. Zrób lustro bez rt a z rt ;)
Wydaję mi się, że Nvidia oferuje pomoc przy implementacji własnych rozwiązań, wszakże nowe technologie takie jak RT, DLSS czy FG sprzedają karty graficzne, a to czy płaci za to, pozostanie raczej tajemnicą, dopóki jakiś deweloper się nie wygada.
RT robi różnicę w obrazie, w niektórych miejscach różnica jest spektakularna, w innych jest mało widoczna, a pożera sporo zasobów karty graficznej. Nie da się jednak ukryć, że RT jest ograniczone przez moc kart graficznych, dlatego Nvidia wprowadziła DLSS i FG, jednocześnie odcinając się poniekąd od użytkowników starszych kart. Odnośnie ograniczeń w dzisiejszej implementacji RT, to wystarczy popatrzeć na Cyberpunka 2077, który jest takim benchmarkiem dla testowania RT. Do płynnej rozgrywki przy włączonym RT potrzebujemy co najmniej DLSS, bez tego nawet najmocniejsze karty mogą nie dać rady, przy kartach z serii 40 możemy dorzucić FG. Już po włączeniu RT zauważymy pewne pogorszenie się obrazu, ponieważ odbicia RT się podobno generowane w niższej rozdzielczości, ze względu na niewystarczającą moc kart graficznych, włączenie DLSS nawet w trybie jakość tylko pogarsza ten efekt, tryb zbalansowany to już w ogóle dziwne zachowywanie się odbić w niektórych miejscach, są strasznie rozmyte, a przejście przechodnia po mokrym asfalcie, tworzy w jego obrębie chwilowe wyostrzeniel, więc albo implementacja jest skopana albo DLSS nie do końca współgra z RT.
Jeśli projektujesz grę bez RT, to będziesz tworzyć sceny i lokacje tak, aby wyglądały jak najlepiej bez RT. Będziesz unikać problematycznych rzeczy jak nadmiarowe odbicia. Nawet w nowoczesnych grach lustra często są matowe lub zbite, bo zrobienie lustra to dużo roboty. Znowu jak gdzieś się takowe pojawi, to jest to spory ficzur wymagający sporo dodatkowej pracy. Kiedy więc gra jest stworzona do działania bez RT, to dodanie RT niewiele w niej zmieni, a może nawet zepsuć skrzętnie stworzone iluzje. Znowu idąc w drugą stronę, gry stworzone pod RT mogą chętnie wykorzystywać jego możliwości, ale jednocześnie będą tworzyć sceny wyglądające kiepsko bez RT. Jeśli większość graczy nie ma sprzętu na to, to jest to trudna decyzja i wielu producentów woli nie przesadzać z prezentowaniem możliwości RT, bo jednocześnie pokażą jak źle to wygląda bez. O ile kupując taką grę z mocną karta będziesz się cieszyć, to grając na 1080 będziesz czuć, że coś jest tu nie tak, że wygląda brzydko lub jakoś tak prymitywnie. A to dlatego, że twórcy specjalnie stworzyli sceny takie, których bez RT dobrze nie przedstawisz bez dużego wysiłku na tworzenie sztuczek. Takim złotym środkiem jest obecnie częściowy RT, który zastępuje poszczególne funkcje silnika graficznego. Można model rzucania cieni zastąpić RT, można model iluminacji czy szczątkowych odbić zastąpić RT. Nie daje to tak dużego efektu, ale pozwala mieć spójną rozgrywkę z i bez. Jednocześnie masz korzyść z grania w RT i nie czujesz dużej straty bez. Na prawdziwe RT będziemy musieli poczekać jeszcze sporo i pojawi się praktycznie dopiero wtedy, gdy twórcy gier przestaną poświęcać czas na sztuczki potrzebne do działania na słabszych kartach. Czyli dopiero wtedy, gdy przynajmniej 3060 będzie minimum, a wszystko poniżej będziemy uznawać za sprzęt retro, na którym ma to jakkolwiek się włączyć, ale bez fajerwerków. Tak, jak było z Crysisem. Na starym sprzęcie wyglądał jak każda inna gra, trudno było się doszukiwać przełomowych rozwiązań graficznych. Wiem, grałem w Crysisa na sprzęcie z 2001 roku, dało się, wyglądało jak każda inna gra z epoki. Dopiero na mocniejszym sprzęcie nagle to wyglądało dobrze, nagle gra się wyróżniała.
RT to jest dobre, ale tylko w jednym zastosowaniu: odbicia. Oświetlenie, cienie, tutaj praktycznie różnicy nie ma między RT i nie RT.
Zobacz sobie porównanie w Dying Light 2, Metro Exodus: Enhanced Edition, czy nawet Wiedźminie 3, bo mam wrażenie, że zatrzymałeś się na filmikach z Battlefielda V z 2018 roku.
W takim Cyberpunku, jeśli dobrze pamiętam, to też nie do końca mamy lustrzane odbicie, w sensie nasza postać nie odbija się chyba w żadnych kałużach czy witrynach sklepowych, a spojrzenie w lustro to włączenie trybu edycji wyglądu postać i tam być może są zrobione prawdziwe odbicia RT. Kiedyś trafiłem na wytłumaczenie tego stanu rzeczy tym, że wymaga to sporych zasobów karty graficznej, skłaniam się jednak ku temu wytłumaczeniu, że nasza postać w trybie trzecioosobowym porusza się po prostu pokracznie i CDPR wolało wyciąć odbicie postaci. Trochę psuje to imersję, bo z jednej strony wprowadzają RT, żeby odbicia, oświetlenie i cienie były bardziej realistyczne, a z drugiej nie robimy odbicia postaci, bo animacja wygląda kiepsko.
Według mnie, minimum RTX 3060 do RT to za mało, tak naprawdę to RTX 3080 to też za mało. Do wykorzystania potencjału RT potrzebna jest moc albo sztuczki, Nvidia poszła w sztuczki, których seria 30 i starsze nie posiadają. DLSS daje dużo, ale wiele zmienia FG, które pozwala na płynną rozgrywkę, bez znacznego pogorszenia się jakości wyświetlanego obrazu. Na RTX3080Ti, z wykorzystaniem DLSS w trybie Wydajność, da się osiągnąć 70-100 FPS, przy rozdzielczości 1440p i RT Ultra, ale tak jak pisałem wyżej, niektóre odbicia w CP2077 zachowują się dziwnie przy włączonym DLSS.
Przecież ta modyfikacja to gówno gdzie w niektórych lokacjach zwłaszcza na otwartych przestrzeniach wygląda ohydnie, tak jak typowy ReShade i SweetFX gdzie dana gra w jakieś lokacji wygląda lepiej niż oryginał, a inna lokacja już tak nie wygląda tylko jest obrzydliwa i znowu to samo dotyczy nowych gier gdzie oficjalnie twórcy gier dodają Ray Tracing i zaraz pojawiają się opinie graczy, że z włączonym Ray Tracingiem gra wygląda gorzej niż bez Ray Tracingu w niektórych lokacjach, to się wszystko, że sobą łączy bo to zwykłe korporacyjne oszustwo aby sztucznie tworzyć iluzję postępu graficznej i zawyżać wymagania sprzętowe.
Problem z RT to typowy problem wschodzącej technologii. Dokładnie to samo mieliśmy chociażby z premierą Cyberpunka. Jeśli musisz wspierać szerokie spektrum sprzętu, to nie jest to proste do wykonania. W przypadku RT jest to niesamowicie ważne. Standardowe modele oświetlenia w grach są dosyć sztuczne, tworzą nierealistyczne cienie i wiele wybaczają. Zaprojektujesz jakoś lokalizację, walniesz kilka źródeł światła, wypalisz tekstury i jakoś tam jest. RT to już jest symulacja rzeczywistego oświetlenia i jego odbić, przy nim wychodzi wiele błędów w tworzeniu lokacji. Wyglądają realistycznie, ale przez to mogą być wyjątkowo ciemne, nierównomiernie oswietlonezy w jakiś inny sposób nieprzyjemne. Teraz gry muszą mieć dwa osobne modele oświetlenia, ale jednocześnie oznacza to dwa zupełnie inne projekty. Przez to gry zazwyczaj wyglądają świetnie w RT i są spłaszczone bez niego, albo wyglądają dobrze bez RT, ale z RT są zbyt mroczne lub niedopracowane. To jakby tworzyć dwie gry jednocześnie. Dopóki gracze będą oczekiwać wersji bez RT, to będziemy mieli taki problem. Z tego powodu wiele produkcji ogranicza się do częściowego RT, który tylko zastępuje odbicia, ale reszta oświetlenia pozostaje niezmienna, ewentualnie RT słyszące do globalnych cieni. Grając bez RT można zauważyć, że cienie są w gorszej rozdzielczości, że przemieszczają się skokowo, że odbicia w lustrach są wypalone na stałe lub zniekształcone. Ot, widzisz odbicie w lustrze, ale nie zmienia się razem z cieniem światła lub świecąc latarką na lustro nie widzisz odbicia światła w pomieszczeniu. Przyzwyczailiśmy się do tego, ale to są ograniczenia, które RT eliminuje. Tylko co zrobić, kiedy chcemy dostarczyć oba warianty? To jest więcej pracy i naturalnie jedna z wersji będzie zrobiona lepiej.
W sumie to ma sens. Ale na tę chwilę jest jeszcze ciągle za wcześnie na tę technologię, to mogło wyjść za parę lat od obecnej chwili i byłoby ok.
To, co widzieliśmy w Cyberpunk 2077 i inne gry na ray tracking to tylko 0,00000000000001% pokaz mocy. RTX 3000 i RTX 4000 nie są godni, by udźwignąć takiej mocy RT. XD
RT to swoją drogą ale powinno się rozwijać technologie, które robią taki sam lub nie zauważalnie zbliżony efekt np. taki lumen. I które nie są przyklejone do konkretnego sprzętu jak DLSS tylko powinny być dla każdego jak FidelityFX od AMD.
O nie, czyżby kolejny przykład, który potwierdza fakt, że rt wyszło za wcześnie? Szczególnie jako zautomatyzowane narzędzie wspomagające grafików w renderowaniu grafiki. W końcu jeśli technologia coś poprawi i to nieznacznie, ale zajmie ogromną moc obliczeniową, to powinna być traktowana wyłącznie jako narzędzie wspomagające w renderowaniu. A takie też powinno być traktowane jak najmniej priorytetowo i powinno było wyjść raczej wtedy kiedy maszyny zaczną mieć wreszcie na tyle mocy obliczeniowej, że ta technologia za dużo nie zajmie, tak żeby była komfortowa gra.
Szkoda, że ludzie tak bardzo obsesyjnie zwracają uwagę na tego całego rt i nierzadko traktują to jako grafikę nextgen, co jest co najmniej żenujące. Naprawdę szkoda, bo teraz tak pompuje się w tego rt, tworzy się karty z częściami dedykowanymi pod rt osłabiając generalny wzrost ogólnej wydajności, a ludzie jeszcze bezmyślnie fochają na grę bez rt. Niesamowite, że taki chwyt marketingowy udał się tak bardzo, że narzędzie dla reklamy naprawdę jest wykorzystywane coraz powszechniej, a miał tylko naciągnąć klientów, podnieść prestiż gpu i podkręcać hype fake-owymi, naciąganymi możliwościami graficznymi, a teraz jest wymagany do gier...
Szkoda, a wolałbym na razie zwykłe karty z większą mocą ogólną zamiast podzieloną i z częścią pod rt. Teraz ludzie nie chcą kupować bez rt, nawet jeśli i tak nie wykorzystają tego rt i marnują część bezużytecznej mocy pod rt, więc nie sprzedają normalnych kart.
Już od RTX 3000 mamy do czynienia z płynnym dostosowaniem mocy karty do sceny, gdzie grając w RT masz niższe taktowania używając więcej rdzeni, a bez RT wyciągasz więcej mocy w rasteryzacji i nie przeznaczasz mocy na RT. Nie bez powodu te karty są tak przerośnięte i mają kuriozalne TGP. To jest jest taki punkt dużego niezrozumienia. Jak kupujesz RTX 4090 i chcesz wycisnąć z niego absolutnie wszystko, to musisz mu dać z 600W. Możesz jednak spokojnie go ograniczyć do 400W, a nawet 300W. Wtedy dziala on dokładnie tak, jakbyś tego oczekiwał. Albo korzystasz ze wszystkich możliwości i chodzi wolniej, albo rezygnujesz chociażby z RT i karta boostuje wyżej korzystając z zapasu mocy. Tym bardziej jest to odczuwalne w tańszych modelach o słabszym chłodzeniu. Oczywiście taniej by było kupić kartę bez rdzeni RT i byś miał to samo w rasteryzacji, ale cała idea w rozwoju tych technologii to zapewnienie czegoś nowego, co pozwoli nam dużo łatwiej i ładniej tworzyć złożone sceny. Zgodzę się z tym, że te najtańsze modele nie powinny mieć dedykowanych rdzeni RT. Wtedy w tej samej cenie będą wydajniejsze w rasteryzacji i trochę stracą w RT, ale dalej mogą mieć RT. Mój wysłużony GTX 1070 ciągnął BFV w RT w grywalnej liczbie klatek w 1440p, więc da się. Jedyny problem zacznie się wtedy, kiedy będziemy chcieli porzucić wsparcie dla gier bez RT i zapewne dlatego jest tak duże parcie. Może i dzisiaj większość gier na możliwość wyłączenia RT i korzysta ze sztuczek dla oka, ale cała idea to pozbycie się tych sztuczek na rzecz tworzenia dużo bardziej złożonych i realistycznych lokacji. Obstawiam, że w pewnym momencie pożegnamy się z możliwością wyłączenia RT na rzecz dawniej stosowanych sztuczek i przywitani się z klasyczną regulacją jakości oświetlenia, która będzie zwyczajnie regulować jak dużo źródeł światła widzimy, jak dużo odbić będziemy widzieć i ewentualnie jak będzie wyglądać utrata jakości tych odbić. Powrót do starych metod, gdy przełącznik regulował nie samą jakość grafiki, a ilość zawartości na ekranie. Wtedy starsze karty będą mogły obsłużyć RT z mniejszą liczbą odbić na ekranie, a mocniejsze będą mogły podkręcić to w kosmos.
hmm, w sumie wolałbym, żeby te całe rt nie wyszło wtedy kiedy wyszło, bo po prostu jeszcze na to czas nie był. Rt na razie za dużo mocy obliczeniowej zajmuje.
To o czym piszesz na końcu, ma w sumie faktycznie dużo sensu. Jednak, imo rt powinno było wyjść dopiero za parę lat od obecnej chwili.
To jedno, a drugie to faktycznie mogli w sumie dać jakieś wersje np. 4050 rtx i nie wiem może 4050 gtx, specjalnie taką dodatkową wariację dla takiej budżetowej półki. Nawet 4060 też mogłoby mieć dodatkowo gtx. W końcu i tak obecnie takie 4050 nie poradzi sobie z rt i aktualnie to chyba bez sensu nawet wersja rt. Trochę to takie marnowanie zasobów obliczeniowych. A 4060 pewnie jakoś sobie poradzi, ale chyba jest też wiele graczy, którzy woleliby zwykłego, bo nie zależy im obecnie na rt.
No, ale w każdym razie dzięki, że wytłumaczyłeś dogłębnie działanie tych kart i ewentualnych przyszłych rozwiązań.
Inna sprawa... Ludzie powinni zrozumieć że tego typu technologie, a nawet rozdzielczość 4k sama w sobie to coś na tyle zasobożernego że siłą rzeczy albo będziesz mieć top podzespoły albo musisz iść na kompromisy ale ludzie chcieliby mieć wszystko za przysłowiowe frytki. Kupujesz np RTX 4070ti i wymagasz wydajności RTX 4090 sorry ale tak właśnie myśli większość osób i to jest problem, a nie sama technologia.
Nie żeby coś, ale po części zaprzeczasz sobie samemu, a przynajmniej w kontekście postów, na których odpowiadasz :P.
Generalnie to pisałem tylko, że ogólnie rt w tej chwili nie jest jeszcze świetnym rozwiązaniem, a szczególnie wtedy kiedy był wprowadzany do użytku.
A ty nie dość, że zarzucasz mi gadanie głupstw, to jeszcze sam gadasz takie śmieszne głupstwo. Tu sam palniesz mi taki skrajny przykład, najlepsza obecnie karta za wiele tysięcy zł jak właśnie 4090, już nie mówiąc o tym, że jest to karta dla jakiegoś 1% graczy. Więc co to da? To ogół nawet nie jest, a ty właśnie nieświadomie mi potwierdziłeś, że rt ma sens tylko w przypadku 4090...
A i znowu wrzucasz dość skrajny przykład, gdyż jako przykład dałeś 8-letnią grę, która niedawno dostała upgrade-a, który i tak nie do końca wyszedł. Szczerze? 90-120 to ciągle malutko, jak na taką kartę i grę. 2 Skrajne przykłady, których kierunek idą w przeciwne strony, niezłe zagranie, wybrałeś beznadziejnie złe przykłady, które w ogóle nie mają pokrycia i nie wnoszą kompletnie nic, gdyż są tak zafałszowane(nie twierdzę, że to fałsz i nieprawda, chciałem powiedzieć, że skrajność fałszuje, neguje przekaz itd., a profesjonalne argumenty powinny unikać ich i dlatego w takich nie znajdą się takie skrajne przykłady), że niewiele wspólnego mają z rzeczywistością.
Znowu też nie twierdziłem, żeby zabrać ludziom możliwość grania z włączonym rt, ja ciągle tylko napisałem, że jest za wcześnie.
A poza tym wiesz, że reklamuje się rt jako ogólną zaletę grania i gier? To się oczywiście rozumie jako, że jest to technologia, która może być włączona dla większości najnowszych kart, co oczywiście nie jest prawdą. A te budżetowe karty też istnieją, ale mają też jednostki rt, marketingowy ruch. Gracze łykną to, chociaż i tak nie wykorzystają tej technologii.
A tu sam sobie zaprzeczasz: twierdzisz, że rt to nie jest zła technologia w kontekście tego, że rt jest za wcześnie i jednocześnie twierdzisz póżniej, że nie ma sensu używać jej na budżetowych kartach. Nie tylko zmniejszasz wiarygodność, ale też negujesz sens tej technologii na tę chwilę potwierdzając mnie.
Zrozum, że rt to na razie jest jeszcze nienajlepsza technologia, a przynajmniej nie taka, która ma teraz sens w przypadku budżetowych kart. Bez sensu jest więc wciskanie jednostek rt do budżetowych kiedy te będą mieć z tym spory problem, a więc ich maksymalna potencjalna moc jest zaniżana na potrzeby jednostek rt. To też nie jest wybór. Wyborem jest dać 2 różne wariacje(rt i gtx), a już lepiej dać sobie spokój z produkcją budżetowych z rt i produkować zwykłe. Budżetowe to nie 4090.
Poza tym, ostatnie zdanie jest całkiem bez sensu, bo nic nie wnosi do tego. Co z tego, że ludzie muszą zrozumieć i dostosować się do odpowiednich rzeczy? Znowu potwierdzasz mnie pisząc, że rt to technologia zasobożerna i to bez zrozumienia, że jednak budżetowe karty, 4070 i 4080 i tak mają swoje jednostki do rt, a reklamy mówią o niesamowitych zaletach rt, które może być wykorzystane przez byle co.
Owszem, to nie sama technologia, ale jednak w dalszym ciągu ta jest za wcześnie i tyle! Co tu jeszcze rozumieć? Ty nawet nieświadomie mnie sporo potwierdziłeś. Nie zrozumiałeś dokładnie tematu i na siłę próbujesz udowodnić się tak, że w większości potwierdzasz mnie.
Według mnie jeżeli coś jest proste w implementacji to nie rozumiem dlaczego ktokolwiek miałby czekać... Nie czytałem wszystkiego co napisałeś sorry ale szkoda życia. Kwestii marketingu nie ruszam. Wątpię żeby usprawnienia nowych RTX serii 4000 pod kątem RT były czymś drogim w implementacji... obstawiam że jest to 5 - 10% z całej ceny np RTX 4090. Więc nadal uważam że fajnie że mamy wgl możliwość użycia owej technologii w grach i nadal nie rozumiem zdania że na coś jest za wcześnie w myśl że Nvidia powinna zaoszczędzić te kilka % i zrezygnowac z RT. Może kilka lat temu było troche za wczesnie... ale to decyzja Nvidii a nie twoja. Wgl nie rozumiem takiej dyskusji.
PS. Nie wiem czy jest promowany jako coś absolutnie wymaganego. Może byłoby to szkodliwe na konsolach może nawet jest nie wiem. No ale patrzac na Wiedzmina... tam mozesz grac bez RT na dx11. Nikt niczego nie wymaga. Masz wybor. Poza tym dla tworcow implementacja RT w tej grze była czyms prostym. Natomiast Ty kupujac RTX 4090 mówię... może kilkaset zlotych idzie na te rdzenie dedykowane obsłudze RT. Maks 10% wiec nadal uwazam że lepiej miec wybor :)
Co do tego jeszcze Wiedzmina... wedlug mnie srodowisko tejże gry samo w sobie jest bardzo wymagające dla RT fakt blisko dekady na karku chyba nie ma wiekszego znaczenia? No jak brzmi tytul tego newsa? Ile lat ma gra z tego newsa? Natomiast kwestia gadania przez Ciebie glupot. No wlasnie glupota jest wgl sama dyskusja na ten temat. Inna sprawa jakby wydzwiek twojego posta mowil o zlym postrzeganiu RT kwestii nieuzasadnionej promocji kwestii marketingu itp. No ale zamiast tego przypomina to lament "zrobili to za wczesnie, tego robic nie powinni, a wgl powinni zrezygnować " i przytaczasz moj przyklad z rtx 4090 chlopie... na rtx serii 3000 tez pograsz w rt pewnie nawet na rtx 2000 ale nie w rk i uber detalach, moze w3 ma skopana optymalizacje... ale generalnie tendencja jest prawidlowa. Sprzet sie starzeje i musisz chodzic na kompromisy. Nawiazales chyba do mojego "4k to standard" tak ale technologiczny. Marketingowe haselko. Ale juz nie bede sie rozwijac. Pominmy temat, szkoda zycia na dyskusje tego typu. Ja lubie miec wybor po prostu i jestem świadomy ze kupujac karte z serii rtx doplacam kilka procent do rt, a gdyby mial zaoszczedzic i tego nie miec... no nie nadal wole miec taka mozliwosc :)
Dalej nie zrozumiałeś tematu i próbujesz tu wkręcić coś czego nie napisałem. Jak wcześniej, przecież już tylko napisałem jasno i wyrażnie, że to wyszło za wcześnie i powinno było wyjść dopiero za parę lat od tej chwili. Wtedy by nie zajmował sporej części mocy obliczeniowej karty na tyle, że jest istotnym czynnikiem powodującym problem z wydajnością. Oczywiście, że nie jest to technologia zbędna, nic takiego nie napisałem, że jest zbędna jak sugerujesz.
Ok, może segment pod rt nie zajmuje bardzo dużo, nie wpływa mocno na cenę, ale w dalszym ciągu chyba lepiej dać ludziom wybór wariacji? Poza tym naprawdę myślisz, że to ma sens w przypadku budżetówek? A zresztą, nie lepiej w takim razie mieć całą moc, a nie mieć trochę mniejszą(na budżetowych), bo część przeznaczono na rt, której nie zobaczymy na budżetowych?
Poza tym dalej sobie samemu zaprzeczasz. Z jednej strony piszesz, że fajnie, że jest, jest wybór, z drugiej strony piszesz, że jak ktoś oczekuje, że odpali zasobożerną opcję na bebechach nie będących topowymi, to żle, a z trzeciej strony piszesz, że to technologia warta rozwijania.
Więc czemu w takim razie budżetówki mają jednostki rt? Sam piszesz, że to technologia warta rozwijania, a jest zasobożerna i dostępna tylko na topowych kartach, co mija się z tym co piszesz i celem tej technologii. Ostatecznie to tylko dla topowych kart, na których stać niewielką część graczy, którzy mają wybór, ale tylko oni. Jak pisałem wcześniej, dalej mnie potwierdzasz, nawet o tym nie wiedząc.
Nie wiem czemu dalej próbujesz mnie przekonywać, kiedy sam składasz kiepskie argumenty przynoszące odwrotny skutek. Tak dziwnej dyskusji nie miałem jeszcze.
PS. Poza tym w swmoim pierwszym poscie piszesz że RT powinno wyjść gdy maszyny będą mieć na tyle dużo mocy że granie z RT bedzie komfortowe bo nie bedzie zasobożerne dla sprzętu! Czyli nigdy? RT to juz z definicji POWINNO byc zasobozerne dla sprzetu.
No dobrze.
Tylko z jednym bym się nie do końca zgodził. Nvidia aż tak mało to nie dopłaca do tych jednostek rt. Pamiętajmy, że nie wystarczyło tylko kupić surowców, produkować i zamontować. Musieli je wymyślić i zaprojektować. Niewykluczone jest, że jednostki rt nie wpływają za bardzo na cenę, ale nigdy nie wiadomo. Może jednak trochę bardziej wpływają ze względu na dodatkowe koszty badania i projektowania. Wiem, że inflacja itd., ale mimo wszystko odkąd wprowadzili 2xxx, to tendencje cenowe tylko rosły i rosną.
Ale wiecie że to może być przez słabą optymalizację modyfikacji która ledwo wyszła kilka dni temu?
Dzięki Half-Life 1: Ray Traced prawie 25-letnia strzelanka firmy Valve, która wychowała całe pokolenia graczy, otrzymała nowe życie. Przepraszam! ale mam 84 rocznik i ta gra mnie nie wychowała a co najlepsze to nawet nie grałem w to a mam kompy od początku AMD 386/486 itd itp i początek Intel 200 MMX czy też Voodoo 3Dfx
''Graczy'' słowo klucz. Nie wystarczy się urodzić tylko trzeba być graczem. Czego nie zrozumiałeś?
Tak troche porownanie nie na miejscu, bo ten RT zaimplementowany zostal chalupniczo. Implementacja i algorytmy w grach i w sprzecie jeszcze raczkuja jak widzimy. Nie jestem fanem obecnego stanu RT, ale dobrze zrobiony produkt wyglada fenomenalnie. To ze wymaga czasu renderowania, to juz inna para kaloszy. Czy sposob implementacji RT przez producentow GPU jest optymalny? Tego nie wiem, ale patrzac na obecne tendencjedla CPU i wbudowanych dedykowanych akceleratorow, mozliwe, ze GPU musza stac sie bardziej dedykowane, a przynajmniej CU beda musialy zostac przeprojektowane. Imo najlepszym rozwiazaniem moze okazac sie dedykowany chip RT, ktory ''nalozy'' RT i PT na klatke po skonczonym procesie rasteryzacji.
Poki co zblizamy sie do momentu, ze ''sredniopolkowe'' GPU (specjalnie w apostrofach) pozawala na komfortowe granie w 4k60, ale wiecej klatek i RT to nadal piesn przyszlosci na ktora trzeba bedzie poczekac 3+ wiecej lat.
Z drugiej strony moze sprzet jest dobrze zaprojektowany, ale software na PC go ogranicza? Niby konsole obecnej generacji maja wsparcie dla RT, ale wiadomo jak to wyglada.
Silniki graficzne pokroju UE5, fainie wspomagaja proces tworzenia i zaimplementowane technologie zarzadzania switlem i cieniami nie odbiegaja wiele od obecnego stanu RT. Dlatego fajnie, aby developerzy skupili sie na wycisnieciu z tejh technologii czego sie da, bo moc obliczeniowa bedzie lepiej wykorzystana.
Lepiej niech zaczną po prostu montować Upscaling Ala DLSS jako oddzielny procesor fizycznie w TV tak aby każda gra renderowana się w 1080p a na TV była w 4K i to mi wystarczy bo potrzebuje żeby mi to działało z PS4.
No czysta magia, obliczenia wykonane w czasie rzeczywistym obciazaly nawet mocarny sprzet, no faktycznie cos podobnego...
No wiesz... jak dzieje się to z Dead Space remake, Cyberpunkiem czy Metro Exodus czyli grami tej epoki z wymaganiami samymi w sobie nie małymi to nikogo nie dziwi.
Ale jak to samo dzieje się z grą, która liczy sobie 25 lat i powinna dać się odpalić na wyświetlaczu od lodówki, to może być nieco zaskakujące.
Czyli można powiedzieć że o tym, jak działa RT, nie masz bladego pojęcia. Dla obliczeń RT nie ma znaczenia czy gra ma 30, 20, 10 lat czy raptem rok. Liczy się przede wszystkim to, ile promieni jest obliczanych.
Zaskakujące wnioskowanie (pomijając fakt, że nie napisałem jak jest tylko co może dziwić..), ale zdaje się, że nie masz bladego pojęcia jak działa karta graficzna. Idąc tropem twojego rozumowania to gra bez RT nie ma w ogóle wymagań sprzętowych a gra z RT oblicza tylko promienie a nie jakiekolwiek obiekty, wielokąty, efekty itp. XD
Tak - wiek gry przekłada się bezpośrednio na to jakie ma wymagania sprzętowe choćby dlatego, że pomiędzy modelem z gry sprzed 20 lat a współczesnym może być nawet kilkadziesiąt tysięcy kątów różnicy. Dorzucanie do tego RT obciąża kartę jeszcze bardziej, bo... do działania RT jest potrzebna moc obliczeniowa procesora graficznego ale też CPU. Nie bez przyczyny większość współczesnych gier ma podawane osobne wymagania do grania z RT - zawsze są wyższe, bo komp z kartą na czele tak czy srak musi obliczyć wszystko co jest wyświetlane. To chyba logiczne jest zdziwienie, że skoro jest w stanie udźwignąć np. CP z RT w 4K to grę, która sama w sobie prawie nie obciąża podzespołów udźwignie jeszcze lepiej.
Przecież karty mają oddzielne rdzenie do obliczeń RT więc dalej piszesz jakieś banialuki. Od tego ile promieni te rdzenie będą musiały policzyć zależy ile FPS uzyskamy ostatecznie. Dobrym przykładem jest tutaj gra Battlefield V, w której klatki potrafiły spaść nawet o połowę bo rdzenie RT nie nadążały z przeliczeniami. Poprawki które wprowadzono w późniejszym czasie, zmniejszyły drastycznie tę liczbę. Praktycznie każda gra dostępna na rynku posiada opcję wyboru jakości RT, czyli właśnie ilości promieni które są śledzone. Jeżeli więc do starej gry, tak jak do takiego Half Life czy Quake, dodamy RT na poziome Overdrive z CP2077 to uzyskamy zbliżony FPS.
Fajnie, że rdzenie RT odpowiadają za obliczanie promieni, ale to nie znaczy, masz osobny komputer do RT i osobny do samej gry. Tak samo jak z wygenerowanie każdego rodzaju grafiki obciążenie będzie szło także w pozostałe podzespoły. Nie - to tak nie działa, że rdzenie obliczą Ci promienie i już je masz na ekranie. Obliczenie promieni a renderowanie obrazu to nie to samo.
Nie bez przyczyny wymagania do CP z RT sugerują od razu więcej RAM, VRAM i procesora ->
A to co masz na myśli w powyższych przykładach (Battlefield V) to się nazywa optymalizacja. Jednak nawet jeśli ustawisz grę tak, że będzie ledwo zipieć, to dodanie nawet nawet najlepiej zoptymalizowanego RT ten stan pogorszy, bo będzie obciążać pozostałe współdzielone zasoby.
Jeżeli więc do starej gry, tak jak do takiego Half Life czy Quake, dodamy RT na poziome Overdrive z CP2077 to uzyskamy zbliżony FPS.
To akurat prawda, ale wynikająca z optymalizacji właśnie. Podejrzewam, że twórcy tego moda po prostu nie mieli czasu czy ochoty na "macanie" i optymalizacje każdej lokalizacji z osobna.
Piszesz, że:
"W takim Cyberpunku, jeśli dobrze pamiętam, to też nie do końca mamy lustrzane odbicie, w sensie nasza postać nie odbija się chyba w żadnych kałużach czy witrynach sklepowych, a spojrzenie w lustro to włączenie trybu edycji wyglądu postać i tam być może są zrobione prawdziwe odbicia RT. Kiedyś trafiłem na wytłumaczenie tego stanu rzeczy tym, że wymaga to sporych zasobów karty graficznej, skłaniam się jednak ku temu wytłumaczeniu, że nasza postać w trybie trzecioosobowym porusza się po prostu pokracznie i CDPR wolało wyciąć odbicie postaci. Trochę psuje to imersję, bo z jednej strony wprowadzają RT, żeby odbicia, oświetlenie i cienie były bardziej realistyczne, a z drugiej nie robimy odbicia postaci, bo animacja wygląda kiepsko."
Nie tylko o animacje chodzi. Możesz włączyć odbicia swojej postaci w pliku ini. Nie wpływa to zupełnie na wydajność, ale jest jeden bardzo poważny problem - ucięli postaci głowę. Po prostu nie mieli czasu na dopracowanie trybu pierwszoosobowego, więc łatwiej było im nie renderować głowy żeby nie zasłaniała widoku gdy postać się rusza.
Zrób sobie plik script.ini. Wklej do niego:
"[RayTracing]
HideFPPAvatar = "false""
Potem wrzuć plik do \Cyberpunk 2077\engine\config\base
Testowałem, ale brak głowy w odbiciach przeszkadza znacznie bardziej niż brak całego odbicia :)
Jak karta zaczyna się pocić to zdecydowanie trzeba sprawdzić temperature a na pewno iść z nią do lekarza specjalisty od GPU być może załapała jakiegoś wirusa. Ciekawe czy Amol by pomógł? Kiedyś moja drukarka moczyła się w nocy pomogło szybkie wyjśćie na świeże powietrze oknem.