Wiedźmin 3 Next Gen będzie lepszy, CD Projekt obiecuje poprawki [Aktualizacja]
Widze ze Cyberpunka sami omijaja szerokim łukiem. Naprawiaja nie ta gre co trzeba :)
Niestety, ale mimo "RTX" w tytule (chwyt marketingowy), RTX 3060 tak naprawdę nie nadaje się do RT.
RT to obecnie zabawka zarezerwowana tylko dla najmocniejszych kart graficznych. Efekt RT zjada bardzo dużo zasobów i dławi nawet GPU ze średniego segmentu jakim był 3060 w dniu premiery (obecnie to mid-low).
Skoro w Cyberpranku RT działa mi bardzo dobrze, to czemu w wiedźminie ma nie działać ?
RT to obecnie zabawka zarezerwowana tylko dla najmocniejszych kart graficznych.
Bzdura. RT jest zarezerwowane tylko dla najmocniejszych kart, a właściwie jedenj - 4090, ale tylko jak chcesz grać w 4K.
W sensownej rozdzielczości dla 3060 jaką jest 1080p, jak najbardziej pograsz już z RT.
Ok, ale w natywnym 1080p i 60 FPS na 3060?
Czy tylko z włączonym rozmazanym DLSS, czy innej technologii polegającej na obniżeniu rozdzielczości obrazu do nawet 720p?
Implementacja RT w Cyberpunka to tylko i wyłącznie użycie rdzeni RT do symulowania "realistycznych" odbić, tak by te zasłonięte "słupkiem" nie zawierały tego słupka w sobie, i nie były delikatnie przesunięte.
W Wiedźminie implementacja RT jest na kilka innych elementów. Co jest moim zdaniem trochę głupotą, bo roboty z tym kupę, a efekty potrafią być gorsze od oryginału (przeskakujące cienie na granicy renderowania cieni RT 10metrów od postaci). No ale chcieli zaimplementować "cokolwiek" to zaimplementowali i jest nextgen z RT...
Ogólnie na pełną implementacje RT w grach trzeba by pewnie poczekać z 10lat, bo obecnie, to trzeba by z 10x RTX4090, by pociągnęły oświetlenie w ładnie wyglądającej grze w 30fpsach, bez użycia lightmap i by nie było widać ograniczonego rysowania cieni.. Ogólnie to co Nvidia reklamowała już przy serii RTX20x0.
Implementacja RT w odbiciach (jak to było w Cyberpunku), ma trochę sensu, ale Cyberpunk był grą bogatą w te odbicia. W normalnym świecie, nie bardzo widać tak dużo obiektów odbijających inne obiekty w sobie.
Czy tylko z włączonym rozmazanym DLSS
Oczywiście, że tak. DLSS Quality. Po tym jak się wypowiadasz można śmiało zgadywać, że nie miałeś nigdy okazji zobaczyć tej technologii na oczy i tylko powtarzasz bzdury po innych zawistnych dzieciakach, które również się jeszcze swojego RTXa nie doczekały.
Dokładnie tak samo 4090 w 4K - również DLSS Quality, bo tego po prostu nie ma sensu nie włączać.
W każdym razie RT obniża wydajność w zasadzie o tyle samo o ile DLSS Quality podnosi. Jak sobie porównasz takiego Cyberpunka w full RT i DLSS Quality do Cyberpunka DLSS off w native to wygląda jak 2 różne gry z dwóch różnych generacji sprzętu. Oczywiście na korzyść wersji RT. Różnic w ostrości obrazu natomiast nie ma żadnych.
Wiem, bo sam to testowałem.
Implementacja RT w Cyberpunka to tylko i wyłącznie użycie rdzeni RT do symulowania "realistycznych" odbić
Chyba na konsoli, lmao.
Cyberpunk ma zaimplementowany cały zestaw RT, tj. Global Illumination, Ambient Occlusion, Shadows i Reflections. W Wiedźminie masz dokładnie te same technologie. Jedyna różnica jest taka, że Cyberpunk poprawnie korzysta z możliwości współczesnych komputerów, podczas gdy Wiedźmin zabija wydajność rzucając wszystko na jeden rdzeń, podczas gdy pozostałe rdzenie, jak i również karta graficzna się nudzą.
Bardziej zaawansowany raytracing niż w Cyberpunku masz już wyłącznie w grach z pełnym path tracingiem jak np. Portal RTX, ale od tego to potrzebujesz 4090, żeby grać w fullHD.
W normalnym świecie, nie bardzo widać tak dużo obiektów odbijających inne obiekty w sobie.
Widać, że nie mieszkasz w dużym mieście albo nigdy nie wyszedłeś z domu po deszczu.
„Wiedźmin Riff Raff” Wiedźmin zulu z Afryki już powstaje na Netflixie o to jest news warty uwagi :)
Chyba już o tym był kiedyś news. Historia ma dotyczyć gangu szczurów z Wiedźmina, przed tym jak spotkali Ciri (ziew). Ten serial to będzie takie same dno jak ich ostatni hit, czyli Witcher Błąd Origin.
Jedynym plusem może być zakończenie historii tego gangu (to bym chętnie obejrzał), o ile netflix odważy się pokazać coś takiego albo nie zmieni całkowicie historii jak ma to w zwyczaju.
Riff Raff ma być lesbo story i ma mieć inne zakończenie oraz możliwe że to będzie wstęp solowego serialu o cirri.
dziękuje panie cdprojekt że będe mógł pograć normalnie w grę którą kupiłem 8 lat temu
Czy oni w ogóle są w stanie jeszcze zrobić coś, czego nie trzeba będzie poprawiać przez następne dwa lata?
Mogli wgrać dużo więcej modów zamiast pchać się w RT i się teraz bujają z optymalizacją. Na konsolach tryb RT lekko poprawiony ale tryb Performance działa gorzej, no nieźle im idzie ale co zrobić skoro teraz musi być RT inaczej nie można mówić o next-gen.
https://m.youtube.com/watch?v=VNWmo_WeGSU
patch 4.01 naprawiał błąd, w wyniku którego mogło nie dać się wejść w interakcję z Avallac''hem
To ciekawe który patch naprawi tego kowala ze Skellige. Po ośmiu latach to już by w sumie mogli...
Serio? A ja już skończyłem n-g i co teraz robić, jak żyć, jak żyć?
Ja to jestem niespotykanie spokojny człowiek, ale te Wiedźmińskie poprawki to obok większości PC-towych premier w ostatnim czasie, to jak wrzód na d... porządnego gracza. Weźcie się jakoś ludzie ogarnijcie. Gra zrobiona x lat temu i ile będziecie ją poprawiać - w nieskończoność, aby było o czym pisać. Nintendo wypuściło w zeszłym tygodniu Metroid Prime Remaster. Patrzcie i uczcie się. Launch, 0 błędów, gra, zachwyt, fun.
Zanim zrobi poprawki CDPR już teraz można samodzielnie sporo zoptymalizować w działaniu RT, polecam zapoznać się z moim poradnikiem optymalizacji do W3 NG 4.01, są w tym 3 mody do RT i fix na wyciek pamięci, dzięki tym zmianom można zyskać ponad dwukrotnie więcej FPS przy włączonym RT:
forums.cdprojektred.com/index.php?threads/the-witcher-3-ng-4-01-rt-optimalization-guide-memory-leak-fix.11112433/
CDPR i tak okazuje się OK, zapoczątkowali "tylko" nowy trend, natomiast perełki takie jak Calisto, Hogwart i inne optymalizacyjne cudeńka, gdzie 3070 starcza do low-medium w FHD, od biedy 1440p, podczas gdy podobne gry dwa lata temu śmigały na 2070 na high to nowy standard.
Nie wspomnę już tunelowych indyczków na Unity/nieogarniętym UE4, które powinny śmigać na high na 1070, a mordują 2070, cisnąc zegary i temperatury na maksa, jakby były jakimś nowym Microsoft Flight...
A najlepsze są gry do których wszystko poniżej 3080 albo 4070 się nie nada, bo wymagają 12 GB VRAM minimum, chociaż grafika i tak stoi w miejscu, nie licząc RT albo jedynie lepszego HBAO.
Chcieliście powrotu do złotych czasów gamingu, czyli początku XXI wieku? Uważajcie na drugi raz, o co prosicie :D
Ok, ale nie płacz potem, że gra wygląda brzydko.
z Hogwartem bywa różnie, bo na topowym sprzęcie potrafi ciąć, ale to kwestia tego, że teraz ciężko jest dopasować dużą grę, by dobrze chodziła na każdym sprzęcie.
Dla przypomnienia, w Wiedźmina można grać bez DirectX12 i bez RT, wtedy mamy tylko mody graficzne bez RT. Gra nie potrzebuje wtedy dużo lepszego sprzętu niż wcześniej.
od biedy 1440p
A czego niby się chciałeś spodziewać bo starej karcie ze średniej półki? Ta karta nigdy nie była przewidziana do wyższej rozdzielczości, nie licząc jakichś starych i mało wymagających graficznie gier.
A najlepsze są gry do których wszystko poniżej 3080 albo 4070 się nie nada, bo wymagają 12 GB VRAM minimum, chociaż grafika i tak stoi w miejscu, nie licząc RT albo jedynie lepszego HBAO.
Najlepsi to są ludzie, którzy się z takimi kartami próbują rzucać na 4K gdzie one nawet nie były projektowane z myślą o takiej rozdzielczości i później płaczą, że im gry nie chodzą tak płynnie jakby chcieli.
To trochę smutne, bo odpuściłem sobie Wieśka 3 Next Gen na półtora miesiąca i liczyłem, że po takim czasie będzie już dobrze działał, a tu taki zonk.
Po ostatnim patchu Wiesiek z tym RTX na Series X wygląda cudnie i płynnie - wcześniej ten tryb był nie grywalny.
CD Project mógłby zmienić nazwę na Patch Project.
Dajcie znać czy najnowszy patch poprawił coś na PC. Zaraz będę testował czy jest lepiej na Steam Decku.