Wiedźmin 3 na PC pokazuje, że ray tracing to Święty Graal, którego nikt nie znajdzie
Gracze, fani piłki nożnej, wyborcy PIS, wyborcy PO, klienci niemieckich marek samochodów itd. Wszyscy w zasadzie wpisujemy się w opisany wyżej scenariusz. Wszyscy już od dawna mocno robią nas w konia, a my dalej im wierzymy.
W sumie mam podobne odczucia co do RT. Nie jest mi on do szczęścia potrzebny.
Jest on zbyt zasobożerną techniką, jeśli chodzi o oświetlenie. W odbiciach faktycznie ma to sens. Daje chociaż wyraźnie widoczną poprawę w stosunku do starych sztuczek. Bo stare sztuczki z dynamicznymi wypalonymi cieniami, też potrafią oszukać mnie na tyle, że nie widzę potrzeby tych rzeczywiście dynamicznie wypalonych. Bo to nie jest tak, że cienie bez RT są statyczne... Jak się Twórcy postarają, to są w stanie zrobić takie ruszające się.
Te pozostałe metody RT w Wiedźminie, jak to już ktoś pokazywał na YT, bardziej psują odczucia z rozgrywki (bo są widoczne ich końce na scenie) i wyraźnie różnią się od cieni wypalonych, przez co widoczny jest przeskok... Więc w zasadzie ten RT włożyli do tego Wiedźmina, żeby był RT...
Inną sprawą jest, to, że wydawało mi się, że pszenica czy cokolwiek to jest, jest zbugowana tylko u mnie na wersji DX11(chodzi o tą sprzed ostatniego screena)... A tutaj widzę dali to jako "teksturę" dla tej roślinności. Dziwny pomysł. Nie wiem co stoi za tym, że ta tekstura przeszła taka rozciągnięta... Szczególnie, że to 1 mapa jest... Gdyby nie ta jedna tekstura, mógłbym powiedzieć, że zdecydowanie Wiedźmin 3 Next gen na DX11 jest dużo lepszy graficznie od poprzedniej wersji... A tak musze dodać, że zdarzają się tego typu "tekstury".
A co do testów i Wiedźmina... To obawiam się, że testów było sporo, tylko im się reszta rzeczy sypała po modach w finalnej wersji. I ta wersja, którą dali, nie ma przynajmniej blokerów rozgrywki. Bo ku mojemu zdziwieniu, na wersji dziennikarskiej, takie blokery się pojawiły, w zadaniach, które mało kto robił, ale być może to było powodem, dlaczego wypuścili Build ze zglitchowaną teksturą pszenicy w Białym Sadzie... No chyba, że faktycznie ten mod miał tą teksturę w tej formie..., ale nie sądzę, by tak miało być.
Były głosy dawno temu, że 3DLC nie powstanie, bo wersja W3 z dodatkami była już mocno klejona, żeby działała i sie nie rozsypywała... Teraz wyszło, że to faktycznie mogła być słuszna decyzja. Bo takie DLC doklejane jak ten RT, mogłoby się skończyć masą bezsensownej roboty dla studia i kolejnymi opóźnieniami.
Jeśli sięgnę pamięcią ze 20 lat, to Anty-aliasing miał podobną historię.
Nowa technologia, która jest widowiskowa, ale bardzo zasobożerna.
Dopiero po latach była standardem.
Różnice są dwie:
a) w AA różnica była widoczna na pierwszy rzut oka. RT ma już gorzej, bo trzeba się przyjrzeć.
b) łączy się z a), na ile potrzebujemy RTa, skoro twórcy nauczyli się sztucznie tworzyć to, co robi Ray-Tracing.
Jeśli sięgnę pamięcią ze 20 lat, to Anty-aliasing miał podobną historię.
Oj bo to takie boomerskie pierdololo. Pamiętasz (?) jak weszła Ageia Phys-X ze swoimi hardwarowymi akceleratorami fizyki? jakie było stękanie "Oj po co to komu, kolejna bzdra, wyciągnie pieniędzy, niepotrzebne.", a teraz fizyka w grach jest oczywista. Podobnie jest praktycznie z każdą nową technologią. Gry na CDRom? PANIE PO CO KOMU TO NA DYSKIETKACH SĄ. Tak samo jest z hardwarowym raytracingiem (bo softwarowy to jest od "przed wojny" i to nawet w realtime), teraz stękanie a za 10 lat to będzie oczywiste.
Kto wie, może RT przyjmie się jak wszystko wymienione powyżej.
Pewnie ułatwi to wtedy programowanie, bo developerzy nie będą musieli pilnować promieni słońca i cieniowania, gdyż moduł RT zrobi to za nich.
AA robił różnicę przy niskich rozdzielczościach ekranu. Gdzie twarde przejścia powodowały, że gra wyglądała jak zbiór pixeli. Obecnie w niektórych przypadkach AA powoduje negatywne skutki. Przy 4k i małym ekranie, nie widzę powodu, by go używać. Szczególnie, gdy używamy jakiegoś upscalingu...(no chyba, że upscaling bez niego wygląda brzydko). Osobiście mam parę gier, w których świadomie wyłączam AA i inne postprocesy, częściowo dla klatek i opóźnień, częściowo, nie robi to aż tak dużej różnicy.
Co do sztuczek, to większość oświetleń obecnie opiera się na Raytracingu, tylko starsze metody polegały na tym, że przy robieniu gry wypalało się cienie(przy uzyciu raytracingu, dynamiczne cienie, były częściowo sztuczkami, bo jednak, nie da się wypalić pozycji gracza/NPCów na teksturach budynku). Obecnie, można je w bardzo ograniczonym stopniu i ograniczonym Render Distance robić na bieżąco... Jak pokazuje implementacja w Wiedźminie, ma to mało sensu.
Za to odbicia, realizowane przy pomocy RTXa, już wychodzą lepiej, co pokazało kilka gier. I to w tę stronę będzie szła póki co branża gier. Żeby napisać w opisie produktu, że ma "raytracing" a przy okazji nie dostać po łbie, że render distance tego RTXa ma 20metrów/jest niezoptymalizowany(chociaż taki niezoptymalizowany by chodził 0,1FPS na waszych 4090, bo emulacja takie ilości promieni światła, jaka jest w świecie gry, robi się bardzo długo, żeby wypalić tekstury...). Jak Nvidia w materiałąch promocyjnych mówiła, że "nie trzeba będzie nic robić, tylko wcisnąć przycisk Raytracing w silniku". To nikt tego nie poddawał w wątpliwość... A to niestety marketing, czyli kłamstwo w żywe oczy... Podobnie jak w sprzedaży gier...
Nie sądzę, aby w tym dziesięcioleciu wyszła gra, z dystansem rysowania i modelami jak Wiedźmin, która byłaby oparta tylko i wyłącznie o śledzenie promieni w czasie rzeczywistym (bez wsparcia się wypalonymi teksturami obiektów w oddali).
Wiedźminem też bym się nie sugerował pod względem wydajności RT. Bo tam zdaje się jest jakaś emulacja DX12, która nie koniecznie dobrze działa. Co wspominało już kilka źródeł... Ale prawie żadna gra nie wyszła bez problemów, z RT... Zawsze były jakieś problemy. Nie koniecznie wszystkie produkcje miały problemy z implementacją RT, ale całkiem spora część miała problemy ze zoptymalizowaniem tej techniki, żeby nie wyglądała gorzej i nie powodowała dużych spadków FPSów.
Pewnie ułatwi to wtedy programowanie, bo developerzy nie będą musieli pilnować promieni słońca i cieniowania, gdyż moduł RT zrobi to za nich.
Nie no, to tak nie działa, nie ma technologii ktorej nie trzeba kontrolowac bo wszystko robi "sama" nie mniej jednak przyjmie sie, to oczywiste.
Co do sztuczek, to większość oświetleń obecnie opiera się na Raytracingu, tylko starsze metody polegały na tym, że przy robieniu gry wypalało się cienie(przy uzyciu raytracingu, dynamiczne cienie, były częściowo sztuczkami, bo jednak, nie da się wypalić pozycji gracza/NPCów na teksturach budynku). Obecnie, można je w bardzo ograniczonym stopniu i ograniczonym Render Distance robić na bieżąco... Jak pokazuje implementacja w Wiedźminie, ma to mało sensu.
Przeczytałem ten akapit pare razy i nic nie rozumiem. Nadal wszyscy wypalają cienie i światła w grach 3d. Tak było, jest i jeszcze przez chwile będzie. W zasadzie bez wyjątku - z prostego powodu, każde nie-statyczne światło generuje renderpass (1 - jeśli spot, 6 jeśli pointlight), więc opieranie gry tylko na światłach, które renderują się cały czas zabiłoby praktycznie każdą grę 3d. Z resztą jest to jeden z podstawowych punktów optymalizacji gry - jak najmniej dynamicznych świateł, jak najwięcej wypalonych. Sam raytracing w grach zwykle stosuje sie własnie do odbić, ewentualnie do cieni jeśli na scenie jest mało świateł a sama scena jest mała i zamknięta. Z resztą dobrze skonfigurowany SSR robi robotę tak, że nikt nie zauważy, że to nie raytracing. Dynamicznie cienie nigdy nie były "sztuczkami" (chyba, że chodzi Ci o fancy nazwę) - w pierwszych iteracjach był po prostu rzutowanymi spłaszczonymi obiektami (np cienie w Quake1 i 2 były właśnie tak zrobione), w dalszych wersjach stosowano shadow mapy z różnymi dodatkami w rodzaju PSM, CSM i tak dalej).
render distance
To sie nazywa "draw distance" - jesli juz chcesz używać mądrych nazw, używaj poprawnych, bo nie wiadomo o co chodzi.
bo emulacja takie ilości promieni światła, jaka jest w świecie gry, robi się bardzo długo, żeby wypalić tekstury...
Wat? raytracing w czasie rzeczywistym nie polega na wypalaniu tekstur, o czym Ty piszesz w ogole?
Wpisz sobie w angielską wikipedię Draw_distance. Nazwy render i draw distance są używane wymiennie.
Co do wypalania, to był skrót myślowy, bo w zasadzie działa to nadal tak samo, tylko dany punkt shadowmapy jest "wypalany" na bieżąco w razie takiej potrzeby(pojęcia shadowmapy też użyłem jako skrótu myślowego, nie ma takowej/nie jest brana pod uwagę/częściowo jest brana pod uwagę, jak jest realizowana przy pomocy RTXa). Nigdzie się to nie zapisuje, oprócz odcienia pixela na obrazie, więc nie tworzy shadowmapy.
Nie chce mi się tłumaczyć całości, po prostu to skrót myślowy. Nie ma sensu się też czepiać do tego, czego teraz użyłem, do opisu, bo o ile używam określeń, które mogą Ci się nie podobać, to sam wiem na czym to polega. Ot tłumaczę, dlaczego tak to uprościłem.
A co do sztuczek, to rzeczy, które wymieniłeś, nazwałem sztuczkami. Nic więcej.
bo to zwyczajnie nie jest prawda, a i samo porownanie niekoniecznie ma nawet sens. po pierwsze mamy kilka rodzajow AA, wiekszosc z nich posiada nawet dosyc konkretne wady a jednak mimo wszystko w przeciwienstwie do ray tracingu dalej jest sens z tego korzystac w okreslonych sytuacjach bo nic innego nie jest w stanie takiego efektu zrekompensowac w bardziej wydajny i lepszy sposob. oswietlenie natomiast mozesz zrobic na pierdylion sposobow i naturalnie powinna wygrac z defaultu technologia najwydajniejsza, a wiec dajaca najlepszy efekt z jak najmniejszym narzutem. sztuczne oswietlenie potrafi wygladac lepiej w wielu sytuacjach wiec pchanie sie w szalona precyzje kosztem wydajnosci to jest pierdololo marketingowe. Ageia nie wypalila jako gaming solution z tego samego wzgledu co RTX powinno upasc zaraz po premierze, a wiec kumaci ludzie szybko zobaczyli ze wcale nie potrzebuja takich kart do silnikow fizycznych nie bazujacych na sprzetowym patencie jakiegos producenta. no ale wtedy to bylo wtedy :) teraz z taka pompa medialna to moga robic ludzmi wszystko.
No cóż. Autor opublikował ten artykuł tuż po tym, jak ukazał się fix naprawiający błędy z RT na PC.
Ale nie trzeba już wyciągać kości ramu jak NRGeek opisał. Żeby gra działa po zawieszce
Zalewasz. Przed patchem w większości przypadków nie można było wypróbować RT, bo gra się wysypywała. Teraz każdy może chociaż sprawdzić jak to działa.
Sprawdziłem na śmieciowym, laptopowym RTX 3050 ti.
Udało mi się uruchomić na Ultra+ RT. Wszystko wygląda ładnie i działa stabilnie przy 20 fps. A to oznacza, że na laptopie z 3060 da się sensownie pograć na najwyższych w Full Hd, a na stacjonarce każdy właściciel RTX 30xx będzie mógł pograć z RT.
Kilku beta testerów nie załatwi sprawy wobec tylu różnych, konfiguracji sprzętowej. To, że u mnie działa niekoniecznie musi działać na podobnych konfiguracjach.
Dużo płynie wieści z sieci, że na konfiguracjach, gdzie właśnie chociażby CP2077 biega płynnie w przynajmniej 60fps na ultra RT, Wiesiek dławi się. Na swoim sprzęcie: RTX 3060 Gaming X 12GB, Xeon E5 1650v3, 32GB RAM odpalam wszystkie gry na ultra, a Wiesiu zdławił się przy uber+ RT. Mam jakieś 25-40fps. Dopiero zjechanie do Uber bez RT zwróciło te 50-60fps. Więc coś jest na rzeczy. I bawią mnie tu komentarze tych, co uważają, że to przecenianie własnego sprzętu, czy możliwości. Bez jaj. Już na tak prostej konfiguracji jak chociażby moja, to ta gra powinna śmigać na Uber+ bez RT w co najmniej w 60fps z palcem w tyłku.
Przecież ta gra śmiga w 60 fps na Uber + bez RT, na Twojej karcie.
A powiedz, jak Ci śmiga Calisto RT albo Plague Tale na maksa. Lepiej niż wiesiek?
Weź mi nie wspominaj o tym pajacu. Wystarczy, że zrecenzował Gotham Knight, w którym tak jedzie po grze, że jego z jednym zarzutów było, że bił MrFreeze przez 30 minut (ma to nawet w recenzji). Cóż, jupiter nie ogarnął i jak ktoś bije lodem moba odpornego na lód... to ma 30 minut gry (jakby tego było mało, to zrobił to najbardziej przegietą postacią w grze, w której zabijanie takich bosów jak Mr Freez wymaga ok. 9 strzałów...)
A najgorsze jest to, że takie farmazony (z tym ramem) powtarzasz. LOL, musiał pamięć odwiesić, żeby komp się uruchomił. Pewnie kopnął kompa jak bił przez 30 minut MrFreeze i mu się ram poluźnił aż w końcu doprowadziło do zwiechy komputera. Ponowne wyjęcie i włożenie pamięci rozwiązało problem. Ale nie k..., kość ramu wyjął po zwieszce. Buahahahahaahahahaha
Gra nie była projektowana z myślą o Ray Tracingu, w Wiedźminie akurat wypada dosyć słabo, ale w takim Cyberpunku już robi wrażenie.
To, że w 7-letniej grze AAA dodany Ray Tracing zabija wydajność mocnej karty graficznej jak RTX 3090 to nie jest zaskoczenie.
Nawet Quake 2 z 1997 roku, który ma już 25 lat na karku zajeżdża teraz RTX 3090 i bardzo daleko do stabilnych 60 klatek w 4K.
https://www.youtube.com/watch?v=BffdxjnIQpE&ab_channel=Bang4BuckPCGamer
No to mogli nie dodawać tego gównianego rt, tak to teraz maja powtórkę z Cyberpunka:)
Przecież można grać bez. Na PC masz wersje DirectX11, która wydajnościowo jest podobna do starego patcha, a ma podbite tekstury, dodane misje itp. Na konsolach też możesz grać bez.
Tyle, że Quake II RTX, tak samo jak Portal RTX to nie są gry z ray tracingiem tylko path tracingiem. Zupełnie inna liga, zarówno wizualna jak i wydajnościowa.
Wiedźmin 3 z RT, gdyby był dobrze zaimplementowany powinien działać tak samo jak Dying Light 2. Cyberpunk to wizualnie przynajmniej półka wyżej.
A Wiedźmin 3 chodzi gorzej niż te wszystkie gry RT i co zabawne, nie przez narzut na GPU, a na CPU i to w dodatku na jeden rdzeń. Podobny problem ma Calisto Protocol, które też ssie z fpsem bo proc hamuje jednym rdzeniem.
Inna liga, ha ha, chyba wciskania kitu to tak, i co komu po tych świecidełkach jak te gry i tak nadal wyglądają staro, bo to są stare gry, światło, cienie, tekstury, to nie wszystko by gra wyglądała dobrze.
Szczególnie Quake 2 rtx to poraża na całej linii, jakbyś zaszpachlował grzyba brokatem xDDD
Kompletne nieporozumienie i farsa, na te obleśnie słabe tekstury i płaskość nie da się patrzeć, mamy zaraz 2023.
Ja mam ogólnie wrażenie, że sami twórcy nie wiedzą jak zabrać się za temat RT. Z jednej strony mamy takiego Cyberpunka, który z RT wygląda fenomenalnie, podobnie z Metro Exodus. Z drugiej jednak strony są gry jak CoD czy RE: Village gdzie niby jest ten Ray Tracing, ale jakby go nie było.
Zamiast iść w odbicia czy cienie, twórcy powinni skupić się na oświetleniu. Oświetlenie ogólnie ma w obecnych czasach największy wpływ na wrażenia wizualne, w dodatku RTGI obciąża układ znacznie mniej niż odbicia, które wymagają masę odszumiania i renderowania w mniejszej rozdzielczości by wyglądać ładnie.
Technologia jeszcze ciągle w powijakach dopiero za kilka generacji kart zobaczymy jej pełny potencjał choć taki Quake 2 czy Portal RTX pokazuje zalążek tego co RT potrafi.
Natomiast, jeżeli ktoś myśli, że już za kilka lat będziemy mieć grafikę rodem z animacji Pixara w czasie rzeczywistym...
Obecne karty robią 1-3 przejść tzw. denoisera (odszumiania), filmy Pixara ponad 1000. Choć przy obecnych technologiach można dość ładnie imitować taką jakość (nowy Rachet) i w ruchu wygląda to dobrze, to skupienie się na detalach obnaża wszelkie "skróty".
Edit: Zresztą, po co mi RT w Wieśku, skoro u mnie gra wygląda tak: https://abload.de/img/witcher3_2022_07_21_12tch1.png
I nad fizyką niech się skupią bo w takim Half Life 2 jest lepsza niż w niejednej grze AAA z tego roku.
Przede wszystkim film Pixara filmowi nie równy. Jak popatrzymy na ich pierwsze produkcje to gołym okiem widać, że jesteśmy już znacznie dalej z grafiką w grach. A jeśli chcemy porównywać do obecnych filmów Pixara to od razu możemy przestać bo oczywistym jest, że obraz generowany przez kilka godzin przez superkomputery będzie wyglądać lepiej niż ten generowany w 1/60 sekundy przez domowy komputer.
No wygląda lepiej niż to zaprezentował CDP. I to sporo.
Co tylko potwierdza kolejną wtopę tego zespołu, który wydaje sie totalnie nie uczyc na błędach
To raczej nie problem samego zespołu co dwóch czynników.
1. Ta łatka powstała też z myślą o konsolach, co też odbiło się pokłosiem na wersji pecetowej w przeciwieństwie do CP, gdzie wersja PC była priorytetem.
2. Red Engine, który ewidentnie niedomaga, co CP również pokazał, a tutaj mamy jego wcześniejszą wersję ze współczesnymi technikami. Podejrzewam, że implementacja DX12 kuleje, właściwie każda gra mająca oba Api (11 i 12) ma jakieś problemy w tym nowszym.
Teraz mają dużo mniej łatania, i skoro nawet Cyberpunk wyszedł na prostą to nie widzę by Wiedźminowi się udało.
ale przeciez odbicia to w zasadzie chyba jedyna ciekawa zaleta tej reimaginacji ray tracingu. cala reszta mozna zrobic lepiej ,ladniej i wydajniej bez raytracingu. no ale co zrobic jak marketing serwuje ludziom od lat taka papke probiznesowa
r4x4
Twoja opinia i masz do niej prawo. Dla mnie wprost przeciwnie. Styl artystyczny to nie tylko kolory i oświetlenie, ale chociażby stylistyka architektury czy roślinności, o detalach nie wspominając. I dla mnie mody pozwalają temu stylowi artystycznemu nadać wyrazistości, którą lekko ukrywa ówczesna technologia.
W gruncie rzeczy co kto lubi, estetyka jest bardzo subiektywna.
Otóż to, trzeba inwestować w oświetlenie, bo to ono sprawia co i jak widzimy, że w ogóle widzimy cokolwiek i jest to najważniejszy aspekt.
No, ale lepiej wciska się odbicia i kałuże jak lustra, bo wiadomo, świecidełka mają lepszy marketing.
Pomijając to, niektóre gry nie mogą mieć zbyto tony odbić, bo to nawet do nich nie pasuje, i wtedy jak widać kończą się pomysły, świetny przekład to właśnie ten RE8.
Tekst w zasadzie słuszny, chociaż w paru miejscach autor popłynął za daleko. I tak jak zgadzam się, że gracze mają pamięć złotej rybki i chętnie zapominają o różnych świństwach biegnąc z gotówką w zębach aby kupić niedorobiony produkt, tak nie myślę że jest to powód aby od razu wieszczyć upadek branży. Rozwiązanie jest bardzo proste - nie kupować gry na premierę. Wstrzymać się miesiąc, dwa i już będzie doskonale wiadomo czym dana gra jest. A po roku/dwóch będą już dostępne wszystkie patche, dlcki, dodatki i wszystko to zebrane w edycji kompletnej za połowę ceny premierowej. A do tego będzie mnóstwo materiałów omawiających grę znacznie dokładniej niż premierowe recenzje oparte o pierwsze wrażenia (tu niestety GOL ma bardzo istotny wkład w ten niechlubny proceder). Po tym czasie zaczynają się dyskusje analizujące, interpretujące i omawiające grę z wielu różnych perspektyw, w oparciu o duże doświadczenie z pozycją i nieporównywalnie większy dystans.
Osobiście nie mam potrzeby rzucać się na każdą premierę i staram się ogrywać gry z kupki wstydu. I po prostu notuję sobie w pamięci różne głośne tytuły żeby sprawdzić je gdy znajdę czas. W ten sposób czaję się praktycznie na wszystkie exy SONY, AC Odyssey, CKIII czy remake Mafii. I tak nie miałbym ich kiedy ograć więc po co miałbym je kupować na premierę po 250 zł? Obecnie kosztują po kilkadziesiąt, są spatchowane, z dodatkami etc.
Co zaś do samego Wiedźmina... Wiadomo, dałoby się to zrobić lepiej i nie jest to najlepszy stosunek jakość/wydajność jaki widziałem. Co nie zmienia faktu, że i tak nie ma zbytnio na co narzekać. Update był darmowy, gra wygląda lepiej a jak komuś nie dźwiga RT to może odpalić Dx11 gdzie wydajność jest podobna, jeśli nie taka sama jak w starej wersji (starą też w sumie można włączyć).
Co zaś do Ray Tracingu - mi osobiście bardzo odpowiada takie podejście do grafiki w grach. Kiedy pchano na siłę 4k, powtarzałem, że lepiej ulokować tę moc w samej jakości ponieważ o ile Wiedźmin 2 w fullHD wygląda lepiej od Wiedźmina 3 w w 540p, tak już Wiedźmin 2 w 4k nie wygląda lepiej niż Wiedźmin 3 w 1080p. Może to tylko moje osobiste preferencje ale mam wrażenie, że 1080p/1440p to taki złoty środek, w którym rozdzielczość pozwala dobrze oddać detale gry a jednocześnie nie pochłania horrendalnych ilości mocy. Nie mówię, że teraz wszyscy powinniśmy się kisić na fullHD. Widzę różnicę w stosunku do 4k i uważam, że to doskonały sposób by wycisnąć coś jeszcze z gry sprzed paru lat, w której nasz sprzęt się po prostu nudzi. Po prostu jestem zdania, że natywne 4k przy ultra detalach na premierę gry, jeszcze bardzo, bardzo długo nie będzie standardem. I wolę żeby zamiast optymalizować gry pod rozgrywkę w 4k, pracowano nad takimi elementami jak modele, tekstury czy oświetlenie właśnie. I tu Ray Tracing jest świetnym ficzerem, który z biegiem lat będzie tylko lepszy. Bo tu nie chodzi o to by, jak to zostało wspomniane w tekście, wciskać do gry efekciarskie sztuczki pokroju odbić (i przy okazji zamieniać każdą powierzchnię w lustro). Tu chodzi o to by całość wyglądała coraz bardziej naturalnie i realistycznie. Jak to gdzieś przeczytałem w komentarzu na ten temat: "Ty co prawda nie zauważysz różnicy ale twój mózg już tak". I to doskonale podsumowuje o co w RT chodzi. Nie o to żeby sobie mógł jeden z drugim wskazywać palcem gdzie "znajduje się RT" tylko żeby całościowe wrażenia płynące z gry były jak najbardziej naturalne. I grając ostatnio w W3 z pełnym RT (RTX 3070) i spacerując po lesie w Białym Sadzie, nie mogłem wyjść z zachwytu jak autentycznie całość się prezentuje. I to pomimo ogrywania gry w FullHD.
Kolejna rzecz to właśnie to wyciskanie ostatnich potów ze sprzętu. Niestety wiele osób czuje irracjonalnie wysoką satysfakcję z faktu, iż mają "wszystkie suwaki w prawo". I potem nie oceniają czy grafika dobrze wygląda na ich sprzęcie tylko oczekują, że skoro kupili mocną kartę (nawet nie tą najlepszą) to wszystko będzie śmigało na maksa.
Problem w tym, że to podejście blokuje tworzenie gier. Jeżeli naczelnym założeniem jest to, że gra musi śmigać na maksymalnych ustawieniach na aktualnych kartach graficznych sprawia, że gry będą się bardzo szybko starzeć. Wiedźmin 3 miał w zalecanych wymaganiach GTX 770. W tamtych czasach to była mocna karta, dla wielu nieosiągalne marzenie (chociaż już wychodziła seria 9xx) a teraz ta karta kosztuje śmieszne pieniądze. Minęło kilka lat i obecnie przeciętne karty pokroju 1080, 3060, 2070 zjadają tamtą kartę na śniadanie. Dlaczego więc CDP RED nie mógł od początku dać opcji Uber+, długiego suwaka na odległość rysowania i wcisnąć tam tyle hairworksów ile tylko się dało?
Ponieważ wtedy wszyscy testujący co daliby wszystko na maksa, mieliby 7 fpsów i cały internet grzmiałby, że Wiedźmin 3 jest beznadziejnie zoptymalizowany. Co z tego, że grając na wysokich wciąż mieliby piękną grafikę a po paru latach każdy by mógł już tę grę odpalić?
Tak więc ja w kwestii grafiki miałbym dwa postulaty, które na dobrą sprawę się ze sobą łączą. Niech twórcy maksymalnie rozwijają technologię w samej gry zamiast tylko podbijać rozdziałkę oraz niech wyciskają z każdego tytułu maksimum, nie przejmując się tym czy obecne karty uciągną go na mitycznym "ultra". Niech gra oczywiście działa przyzwoicie na aktualnym sprzęcie ale niech jak najwięcej zostanie odłożone na później. Bo potem chce się wrócić do gry po paru latach i okazuje się, że niegdysiejszy benchmark nie stanowi żadnego problemu dla średniej klasy sprzętu.
A jak możemy takie podejście wymóc na twórcach? Tak samo jak cokolwiek innego - kupujmy gry nie na premierę ale wtedy gdy cały hype opadnie i będzie wiadomo, która gra jest warta ceny i czasu. Wtedy twórcy będą dbać o wysoką jakość bo to ona będzie sprzedawała gry.
Od lat robię to samo, nie mam czasu ogrywać to po co mam kupować na premierę.
niestety większość graczy tego co napisałeś nie zrozumie. dla niech grafika zależy od 4k/8k na premiere
To się akurat bierze z potrzeby skonkretyzowania wybieranej oferty. Gracz kupując konsolę, chce wiedzieć za co płaci i czy bardziej mu się to opłaca niż wybór konkurencji. A najłatwiej jest skonkretyzować coś poprzez sprowadzenie do liczb - 2160p to lepiej niż 1080p, 60 fps to lepiej niż 30, obecny HDR to lepiej niż jego brak. I o ile to wszystko to oczywiście prawda, tak nie odzwierciedla ona w pełni ostatecznego wrażenia estetycznego, które chociaż można przynajmniej w części sprowadzić do pewnych obiektywnych konkretów (rozdzielczość tekstur, cieni, odległość rysowania) tak w dużej mierze pozostaje skrajnie subiektywne. Dowód? Wszystkie te regularnie wrzucane screeny z modami, które całkowicie zmieniają oryginalny klimat ale które przez wpasowanie się w osobiste preferencje stylistyczne, są postrzegane jako jednoznacznie lepsze.
Dlatego najlepszym tak naprawdę kierunkiem rozwoju grafiki w grach jest postawienie na wolność wyboru. Na PC to było od zawsze bo było mnóstwo ustawień, suwaków oraz oczywiście mody. Na konsolach gorzej bo tam wszyscy mają ten sam sprzęt ale też od jakiegoś czasu zmierzamy w tę stronę - ktoś woli 4k kosztem RT? ok. Ktoś woli lepszą grafikę kosztem płynności? spoko. Więc jakaś nadzieja tam jest ale nie łudzę się żebyśmy mieli zupełnie wyrwać się z przeliczania wszystkiego na Teraflopsy, 2k, 4k czy fpsy bo to po prostu działa marketingowo.
Wiedźmin 3 na PC pokazuje, że ray tracing to.... zwykły przekręt
Mając RTX-a 3090, musiałem wyłączyć ray tracing w siedmioletniej grze, bo ścinki okazały się tak potężne, że nie dało się grać.
Spokojnie poczekaj do przyszłego roku i kup RTX 5080 za 10 tysięcy wtedy już zagrasz komfortowo.
Mimo to coś tam jest skopane, albo z RT albo DX12 albo oba mają coś skopane, skoro nawet na DX12 włączenie/wyłączenie RT to jakieś 40-60fps zależnie od rozdzielczości. Coś jest nie halo.
Jakoś Metro Exodus potrafi działać w wersji EE, działa tylko na oświetleniu RT, gdzie zmienić można jedynie jego jakość i na 3070Ti Na ultra w 1440p utrzymuje sztywno 60fps niemal w 99% czasu grania.
I znowu pajacerka ignorantów...
Ten 3090 ma pewnie tyle samo fps co 4090 i tyle samo ile będzie miał 5080 za te 2 lata, bo to nie GPU ogranicza fps w Wiedźminie tylko silnik gry, który nie potrafi korzystać z procesora.
Mnie w sumie bardzo zdziwiło, że uznano, iż CDP, który w bardzo dosłownym tego słowa znaczeniu kłamał jak z nut przy Cyberpunku może faktycznie zmienić swoje podejście do graczy - jako dojnej krowy.
Prawda jest taka, że różnica graficzna między Raytracingiem i jego brakiem w Wiedźminie 3 jest mocno zauważalna w kontekście odbić na PC natomiast jeśli chodzi o resztę... jest zauważalna i to w zasadzie tyle. Jeśli postawicie mi dwa obrazki obok siebie będę widział, że się różnią głębią cieni i punktowością oświetleń, ale... jeśli zacznę grać na jednej i drugiej wersji przyjemność będzie dokładnie taka sama.
W gruncie rzeczy zwyłączonym Raytracingiem ta gra wygląda i tak zjawiskowo w tej chwili. Jest tam wszystko, czego mi brakowało - bliska kamera, bogatsza roślinność, lepsze tekstury i zjawiskowo wyglądające oświetlenia. Raytracing to wg. mnie niepotrzebny gadżet dla wizualnych onanistów - w tej konkretnej grze, bo w Cyberpunku 2077 Raytracing mnie rozłożył na łopatki. Dlaczego? Bo w Wiedźminie 3 większość (pewnie 99%) lokacji to otwarte pola i łąki i tam po prostu nie ma prawa występować tak spektakularna gra światłocieni.
Nei zrozumcie mnie źle :) wciąż uważam, że Cedep traktuje graczy niczym dojną krowę i ja już im raczej nigdy nie zaufam :) Wiedźmina 4 kupię pewnie tak jak 3 w wersji GOTY (jeśli taka się pojawi) i dopiero w taką zagram, ale warto też zauważyć, że Raytracing zwyczajnie nie jest nam potrzebny tutaj do szcześćia.
Co tu dużo mówic:
1. kolejna wtopa, i to duża, CDP
Zespołu, który wydaje sie totalnie nie uczyć na błędach
2. REMEMBER NO PRE ORDERS
Wiedźmin 3 (next-gen) – rekomendowane wymagania sprzętowe do RT
System operacyjny: 64-bitowy Windows 10 lub Windows 11
Procesor: Intel Core i7-9700K 3,6 GHz lub AMD Ryzen 7 3700X 3,6 GHz
Pamięć RAM: 16 GB
Karta graficzna: GeForce RTX 3080 lub Radeon RX 6800 XT
Dysk: 50 GB wolnego miejsca
Jest to komputer rekomendowany przez CD Projekt RED do nowej wersji gry w trybie DirectX 12, rozdzielczości 4K z DLSS lub FSR, ustawień uber i wszystkich aktywnych opcji RT oraz liczby klatek zależnej od trybu DLSS/FSR.
Sporo tego patchowania jeszcze żeby to się ziściło.
Dzisiaj boję się tego, że jak wyjdzie dodatek do CP2077 to go tak spier...., że będzie wymagał patchowania przez kolejne kilka miesięcy.
"Dzisiaj boję się tego, że jak wyjdzie dodatek do CP2077 to go tak spier...., że będzie wymagał patchowania przez kolejne kilka miesięcy."
Kaska z preorderów już zgarnięta, więc nie muszą się spinać, by dostarczyć grywalny produkt, bez większych bugów. Naprawią chociażby za 2 lata :PP
Prawda jest taka że nic bardziej nie poprawiło wyglądu Wiedźmina 3 next-gen niż odświeżona roślinność i drzewa a do tego nie potrzeba żadnego ray-tracingu
Znowu te baity o RT? RTX GI i DI potrafią być szybsze od tradycyjnych technik - chociaż faktycznie jest to trudne...
Tak czy inaczej dajcie spokój RT - już wychodzą pierwsze "current-genowe" gry na UE4, które zażynają każdy sprzęt, poczekajcie do premiery UE5, dopiero będzie się działo.
To nie RT jest winne, tylko to, co ogólnie dzieje się w branży - a wracamy po prostu do słodkich lat początku XXI wieku, kiedy roczna karta nadawała się do muzeum :D Tyle że wtedy mimo wszystko winny był szybki rozwój, teraz... teraz też! - a komercjalizacja, gonienie terminów, MTX, graze kupujący jak barany pre-ordery - to nie ma nic do rzeczy :P
Z cyklu "nie gram, ale widziałem" (mówię o sobie) - i jestem pod wrażeniem:). Zobacz sobie co potrafi Lumen w UE 5.1 (softwarowy i hardwarowy, nie powiem co i jak, jestem laikiem). Materiał masz na Digital Foundry, dotyczy gry Fortnite (nie moje klimaty, nie grałem i nie zamierzam) - wygląda to (IMO) obiecująco, także pod względem płynności:). Już, teraz, nie za 5 lat.
ps. RT ma dziś typowe choroby wieku dziecięcego (sprzętożerność), ale IMO ma przyszłość. Także moim zdaniem, pojawią się alternatywy, tak jak do innych cudów Nvidii - vide PhysX, który ma dziś solidną konkurencję i jest tylko jednym z kilku silników fizyki, niekoniecznie najlepszym :). Takoż NVIDIa fur i kilka innych rozwiązań, które doczekały się alternatyw.
Wystarczy zobaczyć co potrafi Lumen w najnowszym UE5.1 (te same efekty przy o wiele niższej zasobożerności) by samemu przyznać, że ten cały RT od Nvidi jest zwyczajnie bez sensu i służy jedynie by wymusić zakup ich kart.
Ale dużo potrafi też optymalizowany ciągle RT.. i to w UE.
Przy czym to nie oznacza, że gry będą dobrze działać :D
Zwłaszcza, że Nanite wymaga większości oświetlenia na lumen i cieni w tej nowej technice z UE albo na RT, bo zmienne modele kłócą się z tradycyjnymi metodami...
Dokładnie, a UE4 nie ma LUMEN.
Co nie zmienia faktu, że lumen to jest sprzętowy RT, a jak nie masz sprzętowego RT to jest szereg limitów i potrzebne i tak mocne GPU.
Więc de facto gry które dopiero wyjdą na 5.1+ i będą miały lumen i tak nie będą już raczej dobrze działały na niczym poniżej rtx 2xxx, czy 2060 czy wyżej, to się okaże.
Jedyną dużą grą obecnie na ue 5 z lumen i nanite jest Fortnite.
https://www.youtube.com/watch?v=FUGqzE6Je5c
Co nie zmienia faktu, że lumen to jest sprzętowy RT, a jak nie masz sprzętowego RT to jest szereg limitów i potrzebne i tak mocne GPU.
Nie sprzętowo tylko programowo (software) to RT od Nvidi jest sprzętowy (hardware) bo masz fizycznie rdzenie. To czego ty nie rozumiesz jak i inni to to, że właśnie dzięki lumen nie musisz mieć dedykowanej karty by dostać to samo a testy obecnie potwierdzają że Lumen jest kilkukrotnie wydajniejszy niż RT od Nvidi. Dokładnie jak DLSS i FidelityFX od AMD które również jest leprze. Tu nie chodzi oto, że jak sobie z lupą sprawdzisz to udowodnisz, że technologie od Nvidi są leprze, bo są, tylko oto że 99% nie zobaczy różnicy a technologia od AMD czy UE5.1 nie ogranicza cie sprzętowo jak technologia Nvidi i oto tu chodzi.
Na finalne oceny przyjdzie nam czekać do pierwszej gry która będzie miała Lumen zaimplementowany ale obecnie wszystkie testy mówią ze Lumen niczym nie ustępuje RT od nvidi.
Ray Tracing jest ewidentnie zaimplementowany, jak dla obcego. Nie wiem tylko, czego się w CDPR spodziewali? Że ludzie nie zauważą i jakoś rozejdzie się po kościach? Jak zabawa granatnikiem? Podobnie było z Cyberpunkiem. Myśleli, że nikt nie zwróci uwagi, w jak katastrofalnym stanie jest wersja na PS4 oraz XO? RT, to był jeden z głośniej reklamowanych bajerów aktualizacji do Wiedźmina, więc można było zakładać, że tym razem zrobią to dobrze. Nic z tych rzeczy. Do tego oczywiście cała masa innych problemów, które zgłaszali gracze.
I na koniec, żeby nikt nie bredził więcej, jakiego to mocarnego sprzętu potrzeba do śledzenia promieni, jako takiego. Za przykład niech posłuży RTX 2080 Ti. Miles Morales, Dying Light 2, Cyberpunk 2077 - ponad 60 albo prawie 60 klatek w 1080p i najwyższych ustawieniach. W Wiedźminie, grze dużo starszej od tamtych? Grubo poniżej 40 fps.
https://www.purepc.pl/marvels-spider-man-miles-morales-pc-test-wydajnosci-kart-graficznych-nvidia-geforce-i-amd-radeon?page=0,8
https://www.purepc.pl/test-wydajnosci-nvidia-dlss-w-dying-light-2-pc-sposob-na-plynne-granie-z-ray-tracingiem-porownanie-jakosci-obrazu-dlss-i-fsr?page=0,8
https://www.purepc.pl/test-wydajnosci-cyberpunk-2077-pc-patch-1-23-ray-tracing-na-kartach-graficznych-nvidia-geforce-i-amd-radeon?page=0,13
https://www.purepc.pl/wiedzmin-3-dziki-gon-next-gen-test-wydajnosci-kart-graficznych-potworne-wymagania-sprzetowe-z-ray-tracingiem?page=0,8
ale przeciez masa ludzi nie zauwazyla tego problemu i tylko placze ze inni im psuja zabawe. teraz nie moga uwolnic oczu od licznika FPS. ah te nikczemne zle trolle...
Nie ma to jak kupować topowa kartę za 5 czy 10 k dla efektu sztucznie podbitych świateł w wodzie.
Jak "sztucznie"? W założeniu RT działa właśnie odwrotnie do czegoś takiego jak "sztuczne oświetlenie". Co ty bredzisz?
Osobiście wolałbym aby technologia grafiki szła w stałe 140 FPS a nie efekt który będzie cieszył oko 1 dzień może tydzień.
Odpalam każda grę na tych 140, 165 czy 240 FPS zależności od karty i ciesze się plynnoscia gry, zupełnie inne dozdanie jak jaranie się jakie to światła są w jeziorze.
Takie jak między 60 fps a 120 fps
Oczywiście w grach jak :
-CS Go
-Lol
-Warzone
-Apex Legends
-World of warcraft
Widać plyniejszy obraz podczas poruszania
a miałem szanse porównać 140 fps vs 240 fps na monitorze 240 Hz
I zupełnie inne doznanie rozrywki, zarówno podczas Raidu w Wowie
Jak i czuciu Movementu w Warzone czy feeling broni w CS GO.
Podczas walki w Wiedźminie również poczuł byś różnice machajac mieczem.
Podniecacie się tym srajtracingiem który zarzyna karty to gównianą technologia nieudany eksperyment lepszym rozwiązaniem będzie lumen z U5
który działa nawet na GTX 1060
Mordo, nikt się nie podnieca, spoko jest to co wrzuciłeś i na pewno bardziej opłacalne dla nas konsumentów. Dobrze wiemy jednak, ze wystarczy tu i tam posypać groszem, żebyśmy nagle zaczeli otrzymywać zewsząd informacje że tylko nowe rtx np minimum 4070 będą nadawać się do nowych gier (mimo że stosunkowo niedawno wyszły 30xx) a gry będą dopakowane niepotrzebnymi bajerami tylko po to, żeby niedawno dobre karty ledwo dawały radę i jak nie kupisz nowej, to sobie nie pograsz nawet w 30 klatkach. Serio, nie mam złudzeń że jak się dogadają to nam wcisną co będą chcieli, ale mam nadzieję że tak się jednak na razie nie stanie. No i zawsze znajdą się frajerzy, co za hajs od matki/ojca kupili kartę wartą kilka średnich krajowych i mówią żeby nie narzekać, bo jak masz słaby sprzęt (wg nich taki to karty sprzed 2-3 lat xD) to nie wypowiadaj się że coś nie działa, a takich tu paru ostatnio spotkałem.
Tu macie demko z odbiciami można sobie sprawdzić
na moim gtx 1070 działa w miarę po kilku ustawieniach
https://www.youtube.com/watch?v=UKQiL2bEPm4&t=42s
Największy problem z RT jest taki, że to bardziej bajer dla gamedevu niż dla gracza. Owszem jest to spory krok na przód ale do czasu aż RT nie będzie standardem i każdy będzie z niego korzystał, będzie to niepotrzebny bajer. Dlaczego? Bo powstał on głównie po to żeby oszczędzić roboty grafikom i nie marnować czasu na implementacje sztuczek udających np: efekty kaustyczne tak by były renderowane w czasie rzeczywistym. Nie wszyscy mają RT więc i tak trzeba z tych sztuczek korzystać, będą też coraz bardziej ulepszane i coraz bardziej będzie się zacierać różnica między sztuczkami, a RT. Będą one jednak także coraz bardziej czasochłonne przy tworzeniu.
A wystarczy włączyć rozdzielczość 1080p i dlss ustawiony na balans i stan czy byle ftx 3070. Mało tego: wszystkie inne detale możemy ustawić na maksa
Na szczęście na 4090 nie ma takiego problemu i nie trzeba obniżać rozdzielczości, bo nie ważne czy 1080p czy 4K i tak dokładnie tyle samo fps.
(ps. dlss balanced jeszcze fajnie zadziała przy 4K, ale w 1080p wszystko poniżej quality to już jest poważna degradacja jakości obrazu)
Patrząc na osiągnięcia Epica z Unreal Engine 5.1 i Lumen/Nanite/TSR to wątpię w sukces technologii NVidii w przyszłości. Minęło już ponad 4 lata od wydania pierwszej karty rtx i nadal nie udało się przystosować tej technologii dla powszechnego konsumenta.
Lumen istnieje tylko dzięki temu, że to NV zaczęła pchać RT do GPU, Lumen opiera się o RT, i bez sprzętowej obsługi RT działa znacznie gorzej, wszystko jest opisane w dokumentacji UE, tyle z twoich mądrości.
Tyle, że Lumen jest około pięć razy bardziej wydajny od RT i konsole są w stanie obsługiwać tech od Epica w 60ciu klatkach na sekundę bez większych kompromisów. No ale co ja tam będę tłumaczył psychofanowi nvidii xD
Dobrze napisany artykuł, poruszający istotny problem w grach - niewspółmierność wymagań do efektów graficznych. Szczególne plusy za nawiązanie do mundialu i błyskotliwą implementację cytatu Vilgefortza odnośnie ray tracingu ;)
Wiesiek potrafił śmigać na 1060, a te drobne zmiany graficzne sprawiają, że są problemy z płynną grą na 3060, czy nawet na 3080 z rt... przecież to jakiś cyrk. Wkurza mnie, że gracze wybaczają takie wtopy. Co prawda, bardziej niż na developerów gier, gniew powinien skupiać się imo na korporacjach pokroju ngreedii i amd, że podnoszą ceny gpu z generacji na generację o kilkadziesiąt procent, ale kwestia optymalizacji też od jakiegoś czasu jest mocno zaniedbywana. Finalnie rynek gier na tym traci, bo grafika się nie rozwija, a cena gpu wynosi tyle, co kiedyś złożenie całego komputera gamingowego z peryferiami.
Jak mnie wkurzają ludzie którzy tak bezmyślnie powtarzają głupoty na tematy o których nie mają pojęcia.
Ten patch wizualnie zrobił z 7-letniej gry coś co wygląda teraz jak wydane w tym roku Dying Light 2.
Jedyny problem to to, że ten patch jest tragiczny od strony technicznej, ale to nie karty graficzne w nim niedomagają tylko gra nie potrafi poprawnie wykorzystać mocy procesorów i przez to są problemy z wydajnością. GPU się w tej grze nudzi.
Spuszczanie się nad tym wiedźminem jak byście w niego nie grali nigdy, przecież 90% z was ukończyła go więcej niż raz, poza tym widać że nie wyciagneliście wniosków z lekcji o cyberpunku albo zapomnieliście kto jest producentem gry... Prawda jest taka że gracze postękają, z siłą wprost proporcjonalną redsi grę połatają, coś wam jeszcze dorzucą, jakiś mini quest lub element wyposażenia i będzie po staremu. Wybielą się, pokażą wam jak dzielą się opłatkiem i będziecie zadowoleni. Tak to się kręci. Pozdrawiam
"ray tracing to Święty Graal, którego nikt nie znajdzie" - ja przeszedłem z RT Control, Guardians of the Galaxy. Doom Eternal też wygląda świetnie z RT. I to na 2060S. Dopiero W3 jest grą w której muszę sobie RT odpuścić.
Sam byłem kiedyś zwolennikiem RayTracingu w grach - ale to była głupota i było to marzeniem może 10 lat temu.
Przy obecnych technikach 100lat nie starczyłoby aby doścignąć równoległe gałęzie, chyba, że w ogóle zakopią rozwój równoległych gałęzi. Muszą trafić w równie opłacalny trick z tym raytracingiem co z DLSS.
Ray tracing dalej głównie ma sens dla głównie jednego modelu/postaci i zastanawia czy czasem odwrotny-raytracing nie dałby jakiegoś pola do popisu (może jest stosowany, a tego nie wiem). Odwrotny raytracing polega na śledzeniu promieni od kamery, a nie od źródła światła.
W każdym razie na 2070S przy drobnym, amatorskim doświadczeniu z Blednerem, stwierdzam, że nie opłaciło się do tej pory żadnej grze raytracingu. Prawie wybrałbym cienie z Dying Light 2 - ukończyłem z włączonym kampanię. Potem zacząłem bez RayTracingu i zostanie on wyłączony forever. RayTracing może wygrywać na screenach, ale w gameplayu wygrywają stare metody (o ile są dostępne metody alternatywne, bo czasem wrzuca się tylko RayTracing bez alternatywy)
Ciekawy i fajnie napisany artykuł, co jak ostatnio bywam tu częściej - jest rzadkością. Co do refleksji autora, to od pewnego czasu (od premiery cyberpranka stało się to oczywiste) mam tako samo i cieszę się że nie tylko ja to widzę. Narzekania, narzekania, mija trochę czasu i tak wszyscy steam *klik klik* i "a dobra, co mi tam". Według mnie wynika to z prostego faktu, firmie X czy Y o wiele łatwiej zainwestować w marketing (zapewne zlecić zewnętrznie) niż zrobić grę dopracowaną w 100%. Dlaczego? Można sobie pozwolić na pewną dozę lenistwa i pewne rzeczy zostawić lekko niedopracowane, a nawet jak się ludzie wkurzą to marketing załatwi sprawę tak, że kupią grę. Później się wypuści patcha jednego, dwa ewentualnie siedem :) Kumacie tragizm? Inna sprawa, że od czasów gdy (starsi z nas pamiętają) na premierę wydawano porządnie dopracowane i zoptymalizowane gry to technologia poszła bardzo do przodu i same gry tak się rozrosły, że jest trudniej to wszystko spiąć. Tylko nie zrozumcie mnie źle, nie uważam żeby to producentów usprawiedliwiało, bo środki na to żeby wydawać gry dopracowane na premierę mają na pewno. Nie mam recepty na ten stan rzeczy, jedyne chyba co można by zrobić w tej sytuacji, to naprawdę olać marketing i jak coś jest zepsute to olać totalnie. Dopóki firmy nie zobaczą że ich niekompetencja (jak w stylu next gen do W3 teraz) przekłada się drastycznie na ich wyniki finansowe, dopóty sytuacja nie ulegnie zmianie. Fajnie że autor przywołał temat piłki nożnej, bo to ma przełożenie 1:1 do rynku gier. Jeśli nawet Ty nie kupisz i nawet 10 Twoich kumpli nie kupi, to na Wasze miejsce i tak ZAWSZE znajdzie się kolejnych 100 którzy sypną groszem. Także chyba nie ma co liczyć, ale cieszę się że temat został poruszony.
Gram na PS5 i tryb "jakości" jest jak dla mnie zupełnie niegrywalny. Tnie jakby tam było z 15klatek. Tryb performance niby "brzydszy" ale wygląda i działa super.
Ray tracing będzie fajny ale najwcześniej za kilka lat, obecnie wciąż jest opcją eksperymentalną, która zarzyna wydajność i z tego powodu często jest implementowany tylko częściowo.
A Cyberpunk pokazuje że RT to świetna technologia, która dodaje niesamowite efekty wizualne i sprawia że grafika wygląda naturalniej. W3 nigdy nie był grą projektowaną pod RT, a i tak ten RT ulepsza jeszcze bardziej wizualia gry która ma już na karku siedem i pół roku, a graficznie wygląda lepiej niż nie jedna nowość...
RT działa beznadziejnie? Też nowina xD
Problem z tą ciekawostką jest taki, że ciężko będzie ją optymalizować. Na początku bardzo promowałem rt, mega odciążenie dla developera, nie trzeba implementować skomplikowanego oświetlenia do silnika. Generalnie rt robi wszystko za ciebie.
Niestety ale rzeczywistość jest taka, że z jakiegoś powodu nie mieliśmy tego techu w grach, mimo iż rt samo w sobie jest bardzo stare.
Okazuje się że podobnie jak to miało miejsce z physx, okrutnie uwala wydajność, a bez dlss nie ma możliwości odpalić płynnych 30 klatek na dedykowanym akceleratorze (rt cores)
RT będzie miało minimalny sens w grach dopiero w chwili kiedy będą przystępne cenowo karty z wielokrotnie bardziej wydajnymi akceleratorami rt.
No i AMD musi zaimplementować akceleracja rt w kartach, puki co żaden developer nie będzie na poważnie myśleć o implementacji rt jako rdzenia oświetlenia w silniku, jeśli tylko kilka procent graczy może pozwolić sobie na płynną rozgrywkę.
Mam nadzieję że tech nie skończy jak physx o którym pamiętają już tylko nieliczni że był, i że zjadał klatki, ale fajnie kamyki się odbijały.
Na początku bardzo promowałem rt, mega odciążenie dla developera, nie trzeba implementować skomplikowanego oświetlenia do silnika. Generalnie rt robi wszystko za ciebie.
ahahahahahahahahahahahahahahah
RT pokaże pazur dopiero jak gra pędzie od podstaw projektowana z użyciem tej technologii. Bez używania innych elementów do generowania światła, cieni czy odbić. CP2077 pokazał, że można mieszać klasyczne projektowanie z RT i wyjdzie to bardzo dobrze, ale to wciąż promil wykorzystania.
Sama technologia ma przecież z 50 lat, tyle że co innego generować ja na supermaszynie jako render, a co innego w czasie rzeczywistym.
Nawet w tej pierwszej sytuacji, użycie tylko i wyłącznie RT było możliwe dopiero niedawno.
Pierwszym filmem pełnometrażowym wykorzystującym RT w jakimś znaczącym zakresie były Auta czy Straszny Dom z 2006. Pełne wykorzystanie tylko i wyłącznie RT było dopiero w Potwory i Spółka z 2013.
Pierwsze użycie śledzenia promieni za pomocą sprzętu komputerowego miało miejsce w 1968. Sama idea wykorzystania śledzenia promieni ma kilka wieków, bo już w 16 wieku kombinowaną z tym, tylko wiadomo, że nie cyfrowo :)
To pokazuje jak daleko jeszcze gry są od pełnego wykorzystania tylko i wyłącznie RT.
Ale dobrze, że coraz więcej gier będzie miało tą technologię. bo się będzie rozwijać. Z każdą taką technologią jest na początku tak, że jest ona droga, jest zwykły bajerem, ale z czasem wchodzi coraz bardziej w użytek i staje sie standardem.
Nawet w tej pierwszej sytuacji, użycie tylko i wyłącznie RT było możliwe dopiero niedawno.
https://www.youtube.com/watch?v=rNqpD3Mg9hY
Rok 2000, intro 64kb, dos. Realtime.
Mnie te wszystkie nowe wodotryski w grach nieco męczą. Mam już dosyć leciwego kompa i zaczęła się u mnie zabawa z ustawieniami graficznymi. Zdarzało mi się nimi bawić naprawdę długo żeby znaleźć konsensus między wyglądem a wydajnością i powiem wam, że przy większości suwaczków nie za bardzo dostrzegam jakąkolwiek różnicę. Wiem, że ona jest, ale pochłonięty grą absolutnie nie zwracam na to wszystko uwagi. Czy to jest warte coraz większych cen i trwającej w nieskończoność produkcji? Wkurza mnie, że kolejne twory 3A to rozwijanie bajerów, które można ładnie zaprezentować na screenach, a gra często obdarza nas kulejącymi animacjami, kiepskim AI i niedopracowanym, wtórnym gameplayem. A kwestia W3 jest wyjątkowa irytująca, bo odpaliłem na chwilę i widocznie chodzi gorzej. Jak będę chciał przejść ponownie, to znowu czeka mnie zabawa z suwaczkami -.-
Z tego co wiem, to zastosowanie RT w kartach graficznych ma za zadanie głównie ułatwić i przyspieszyć prace grafikom i animatorom a dopiero potem ma to być technologia, która wypala oczy podczas gry. Ale bogaty gracz nie kupi ot tak grzałki za 8000 zł i potrzebuje zachęty, wiec wykorzystuje się RT raczej jako bajer niż rewolucyjne narzędzie przy tworzeniu oświetlenia gry. Do pełnej implementacji RT i jego wykorzystania w grach, jak i kart, które nie kosztują majątku i są skierowane do szerszego grona graczy potrzeba jeszcze czasu, 5-7 lat, jeśli nie więcej. Technologia ta ma swoje perspektywy i jest niezwykle obiecująca ale na ten moment RT to raczej drogi eksperyment.
Ale ... w komentarzach, w art podobne :) RT zmienia znaczaco odbiór sceny i obecnie w grach dodawany jest jako opcja dla światłocieni i odbić. Jak napisałem opcja. Nie masz na czym / nie chcesz nie używaj. Te same bzdury były przy wprowadzaniu HDR. Dzisiaj gra bez HDRu to ewenement i właściwie nie korzysta z tego nadal tylko ulamek pctowców. Z RT bedzie podobnie obecna generacja konsol daje już radę, w następnej bedzie to standard. I znowu narzekać będą głównie pctowcy których do dzisiaj nie stać na monitor z HDRem. Poza tym dzięki wprowadzeniu RT trzeba było znaleźć rozwiązanie optymalizacyjne i szczerze mówiąc niczego lepszego niż DLSS branża dawno nie dostała.
Co do HDR to się nie zgodzę. Jaki ułamek PCtowców nie korzysta z tego? Mam monitor za 3000zł z HDR i w wielu grach po sprawdzeniu jak wygląda, po prostu wyłączam. A wielu jest takich co mają monitory bez HDR...
Jakieś statystyki podaj na ten ułamek PCtowców co nie korzystają z HDR. Proszę, wykaż się.
Alex - trochę masz rację, a trochę nie :P Żeby jakaś technologia się przyjęła, upowszechniła i trafiła "pod strzechy", to musi trafić do sprzętu używanego masowo i nie tylko z górnej półki :)
HDR wylądował w telewizorach. Pojawiły się więc filmy z HDR, także w serwisach streamingowych. Dalej to już poszło - HDR zawitał na konsolach i w grach konsolowych. Dalej to telefony, ale przede wszystkim HDR masz dziś nawet w telewizorach budżetowych (pomijam tutaj jego "jakość", no ale jest). Na pecetach służących przecież także do pracy (a u niektórych przede wszystkim), to się tak nie przyjęło i nie jest standardem. Co jest zresztą zrozumiałe, bo przy kompie/notebooku przeznaczonym przede wszystkim do pracy jest to zbędne.
Jest jeszcze jeden fajny patent HDR - uniknął on jednej z chorób wieku dziecęcego: sprzętożerności :). To (w tym sensie) darmowy ficzer - czy jest "on", czy "off" gra generuje tą samą liczbę klatek. Dlatego czy chcemy z tego skorzystać, czy nie, decydują tylko i wyłącznie nasze preferencje :)
Z ray tracingiem nie będzie tak łatwo, prosto i szybko, ale ogólnie zgadzam się z Twoją hipotezą, że w następnej generacji konsol będzie to już standard. Tym bardziej, że (w ograniczonym oczywiście stopniu) ray tracing ma wylądować na smartfonach. No, to za kilka lat będzie już z górki :-).
Takie pitolenie słyszę od 4 lat, a z dostępnością RT dla przeciętnego konsumenta dalej słabo
Mam lekkie wrażenie, że artykuł pisany nieco wcześniej niż mamy stan teraz.
Bo nie wiem o co chodzi z tym wyglądem Callisto Protocol na PC, no jak wygląda, wygląda świetnie, wygląda jak remake "dead space remake", EA się chowa z tymi swoimi bajkami jak to oni od zera tworzą.
Ale fakt, nadal wielu ma problemy z RT w tej grze, stan się jednak polepsza.
Tu po części wychodzi patologia IT, a dokładniej zarządzania projektami w metodyce zwinnej. Polega to na tym, że masz sprint trwający 1-4 tygodnie (zależnie od projektu) i ty jako developer bierzesz na siebie zadania, które wcześniej zostały wyestymowane na podstawie ich opisów. Bierzesz ich tyle, żeby mieć co robić przez cały sprint. Niestety, życie to nie bajka i czasami (w niektórych projektach b. często) zadanie się komplikuje, ponieważ albo coś nie zostało przewidziane w opisie, albo ktoś błędnie założył, że biblioteka, od której zależy zrobienie zadania działa bezproblemowo. No i z czasem zadania zaczynają przeciekać między sprintami, data wydania (ustalona wcześniej na bazie estymacji zespołów +/- X% na fuckupy, X zależy od firmy) zbliża się coraz bardziej i zamiast przesunąć datę to zaczyna się cięcie funkcjonalności przewidzianych w pierwotnym planie. Pół biedy jak jest to apka dla zewnętrznego klienta - wtedy można powiedzieć, że dalsze funkcjonalności dowieziemy później, ale jak jest to gra dla graczy... Cóż... Kiedyś było to nie do pomyślenia, żeby wydać niedopracowaną grę (też nie było kanałów dystrybucji patchy), a teraz dominuje podejście, że dorobimy brakujące funkcjonalności po wydaniu gry. Tylko wiecie co się na ogół dzieje po wydaniu gry? Wszyscy patrzą na wyniki sprzedaży, zależnie od poziomu otwierają szampana lub nie, a potem przenoszą developerów do innych projektów. Przy grze zostaje tylko szkieletowa załoga do bugfixów, a do funkcjonalności nie ma mocy przerobowych (poza tym często osoba, która miała wiedzę dot. sposobu implementacji danej funkcjonalności, siedzi po uszy w innym projekcie).
Także, dopóki branża nie znajdzie sposobu na tworzenie lepszych estymacji niż te obecne, z fusów (opisów tasków) to cała sytuacja będzie się pogarszać. Szczególnie że złożoność pracy developera rośnie i coraz mniej da się przewidzieć przed rozpoczęciem prac.
Ostatnio dość powszechnym zjawiskiem jest trzymanie nowych gier we wczesnym dostępie przez kilka lat. Jest finansowanie, nie ma presji czasu a narzekania można skwitować krótko: nie chcesz grać w betę - czekaj na release
Czasy małych studio robiących gry dawno minęły. Teraz gry tworzą bezduszne korporacje a nad produkcją pracuje kilkaset albo kilka tysięcy osób. 90% z nich ma pojęcie o drobnym wycinku bez możliwości spojrzenia na całość. Poza tym gra to tylko środek do podnoszenia słupków na giełdzie. Samo ogłoszenie kilku produkcji podniosło ceny akcji CDR z poziomu 70zl do 130zl. Teraz jak ktoś miał 100k akcji to ma głęboko w poważaniu czy one będą działać albo czy będą w ogóle dobre. Oni już zarobili. Zarobili miliardy na akcjach. Oceny i recenzje są dla menadżerów niższego szczebla i zwykłych pracowników tych firm.
Ja na RTX 3080 (zwykła nie Ti) gram z włączonym RT i full detale na 2K. FPS 30-60 dla tego typu gry to wystarczające. Zero ścinek. Może to zasługa mojego procesora AMD 5800x3d ale gra się bardzo przyjemnie.
"Może to zasługa mojego procesora AMD"
hahaha - się troll chwali czego to on nie ma xD