Tylko, ze w wypadku CP2077 chociaż to jak gra wygląda usprawiedliwia wymagania. Gorzej jak wymagania są z czapy a na ekranie za nic nie widać na co to idzie.
Nie jestem twórca gry, ale też mam dobrą (myślę) radę: nie kupujcie na premierę.
I bardzo dobrze. Chcecie fajerwerków i filmowych wrażeń? To zainwestujcie w sprzęt a nie z 6-letnimi rzęchami się do nowych gier zabieracie. Progres wymaga poświęcenia od wszystkich. A nie, siedzą bolki przy sprzęcie za 2,5 tysiaka i pytają, gdzie te next-genowe wrażenia.
Tu zapewne chodzi o fixa na SMT, bo bywało tak, że Ryzen 6/12 dawał lepszy fps niż 8/16, dla 8/16 jest fix na nexusie, a teraz będzie natywnie dodany do gry.
Ten komunikat wygląda trochę jak ukryty przekaz, "Skopaliśmy optymalizacje , więc musicie zrobić upgrade sprzętu ". Zrobili to w inteligentny sposób ;)
Ja też mam radę - tylko pamiętajcie o karcie za 8 koła żeby cieszyć się Path tracingiem i rozdzielczością 4k. Inaczej was FOMO dopadnie i nie będziecie się dobrze bawić! Pozdrawiam.
Szkoda, że to ostatnia produkcja na Red Engine. Za kilka lat to każda gra będzie na UE.
Dzięki temu dowiedzieliśmy się, że uruchomienie techniki wielowątkowości współbieżnej (SMT) w procesorach maksymalnie 8-rdzeniowych będzie korzystne z punktu widzenia gry, podczas gdy w przypadku sprzętu z 12 rdzeniami i większą ich liczbą, lepiej, aby opcja ta pozostała wyłączona
Czyżby mówimy o dodatkowe E-rdzeni od przykładowy i5-13600k? W sumie 14 rdzeni. Czyli mam wyłączyć E-rdzeni i zostawić 6 wydajne rdzeni z 12 wątków? Inaczej będzie tylko mniej FPS? Na Cyberpunk 2077 w trybie Path Tracing nie miałem takiego problemu, bo uzyskałem ponad 90 FPS dla 1080p na Ultra.
Nie dało się napisać, żeby gra 2.0 zignoruje nadmiaru rdzeni i wątków, jak nie będą do tego potrzebni? 12 generacji Intel i słynne E-rdzeni istnieją na rynku już od kilku lat, więc nie ma mowy, by twórcy gier będą to zignorować.
Mam złe przeczucia jakoby już sami Redzi nas ostrzegali, że na RTX 4080 z I5 12600K/13600K gra będzie działać w 60fps przy rozdzielczości 1080p z DLSS3 by uniknąć rozczarowania jak przy premierze CP2077 w 2020r. Twórcy Starflield'a bezczelnie powiedzieli, że jak ich nowa gra słabo działa to nie z winy kiepskiej optymalizacji tylko z powodu słabego sprzętu który należy wymienić na mocniejszy. Do czego to zmierza?
Ale tak ogólnie to ja nie wiem o co się ludzie spłakali z optymalizacją. Gość tutaj ma na myśli granie na full, no sorry.. Cyberpunk wygląda bardzo dobrze, to i się nawet nie dziwię, że wymaga sprzętu jakiego wymaga. Płakać to można nad Starfieldem, bo wygląda słabo, a wymaga sprzętu nie wiadomo jakiego, a i tak chodzi na takim RTX 3060 jak gówno.
Tutaj w przypadku Cyberpunka zero zdziwienia.
Oczywiście też nie powiedziane, że będzie jakaś super optymalizacja, ale z pewnością gorzej niż w Starfieldzie nie będzie.
Czyli SMT do max 8 rdzeni będzie korzystne a 12 lub wiecej juz nie. Ciekawe co mam zrobic w przypadku 10 nie chce mi sie tego testowac.
A tak w ogóle to by mogli zrobić niespodziankę i wydać dodatek tydzień wcześniej.
Tylko że w grze Cyberpunk 2077 przejście w trybie Path Tracing może daje widoczna zmiana, np. lepsze cieni dla rośliny, ale różnica jest dość mała, a znacznie podnosi poziom wymaganie sprzętowe.
Wiesz, ile FPS zabrał Wiedźmin 3, jak tryb Hair Works jest włączony.
Będą jakieś ulepszenie dla grafiki, ale za jakim kosztem. Nie zawsze będą ogromne różnicy.
Mam nadzieje, że ta wypowiedź skierowana jest do osób, które liczą na granie na najwyższych ustawieniach w 4K, bez żadnych kompromisów. Ja z i5 12400f, 16 GB RAM i RTX 3060 12 GB, celowałem w granie na wysokich (ale nie ultra) w 1440p z włączonym DLSS ustawionym na wydajność. Aczkolwiek chyba się trochę przeliczę. Ale z drugiej strony pojawią się szybko testy kart i podzespołów więc będzie można szybko zweryfikować na co się mam nastawić.
>Deweloper CDP-u przyznał, że wymieniony wyżej Cinebench jest aplikacją zasobożerną, dlatego lepiej, aby podczas regularnego grania pozostała wyłączona.
Kto gra z chodzącym cienebenchem w tle? xD
Po miedzy I7-12700K a I9-12900K jest jakieś 6-9% różnicy w wydajności gdzie 12700 polecany jest do 1080P a ten drugi do 4K... trochę z dupy te wymagania... no Ale może mój i9-11900F rozwinie skrzydła bo ledwo 30% w każdej grze przekracza :P
Nie za bardzo rozumiem, to teraz Cyberbunk będzie korzystał z jakiś nowych instrukcji i małych paczek danych?
To może jednak lepiej testować OCCT na maxa (proponuję small, extreme, AVX2 i wszystkie wątki).
Po pierwsze: testowanie samym Cinebenchem nie da wiarygodnych rezultatów. W grze odpali się również karta grafiki, zacznie produkować gorące powietrze które pójdzie do góry. W przypadku chłodzeń wieżowych trafi prawie od razu do niego. W przypadku AiO zamontowanego na szczycie - spora część zostanie wyssana przez tylny wentylator, ale i tak sporo wpadnie do chłodnicy. I temperatury będą wyższe.
Po drugie: już pół roku temu ktoś wpadł na pomysł przetestowania starego i7-4790K + RTX 4090 w nowych grach. W Cyberpunku 2077 płynnie, z DLSS3 ponad 100 fpsów - przy czym należy zauważyć, że użycie GPU wynosiło 70%, więcej niż w niektórych innych grach.
Natomiast testy nowszych procesorów - od 9700K do 13700K - pokazują, że co prawda w FullHD różnice są wyraźne, ale w 4K wykresy się wypłaszczają, w C2077 różnica między najsłabszym i najmocniejszym procesorem to zawrotne 5%.
Tak że nawet jeśli zwiększyli użycie procesora w Cyberpunku, to i tak nie widzę powodu żeby się szczególnie martwić. Jeśli ktoś ma 8700K sparowany z mocną kartą - typu 3090/4080 - to bez problemu pogra sobie w 4K w pełnych detalach.
https://www.youtube.com/watch?v=DEdmvH4QgUU
https://www.youtube.com/watch?v=98ZmMuOTeqQ
Czy długo jeszcze będziecie pisać, że X to były Twitter? Ludzie nie są tępi :)
Przed zakupem chyba obowiązkowo najpierw obejrzę sobie testy gry-dodatku... bo jeżeli na zestawie poniżej wartym ok 2500pln nie będę w stanie względnie komfortowo pograć na 6 rdzeniowym procku w 1080P na detalach średnio-wysokich w okolicach 50-60 fps bez RT i dupowtrysków i optymalizacja będzie masakryczna i wymagać kombajnu typu 12700-12900K no to sory to całkowicie odpuszczam sobie bo to jest kur nieporozumienie... a znając REDÓW to z optymalizacją u nich na premierę zawsze była kaszana straszna..
i5-10400F 6/12
B560 Gigabyte DS3H
16GB Ram DDR4 2666hz
RTX 2080 8GB GDDR6
Silentium PC 600W Vero L3
SSD M.2 1TB Samsung 970
Windows 10
Sprawdziłem, przetestowałem aktualizację 2.0 jak u mnie działa na Wymaganiach z Widma Wolności - Zdecydowanie czekam na Dodatek.
Jak w Cyberpunka 2077 u mnie da się grać na Updacie 2.0 na Stabilnych Wysokich Ustawieniach Graficznych w Stałych 60 FPS-ach, na Konfiguracji : i7-4790 3,60 GHz (4/8) + 16 GB RAM-u + GeForce GTX 1660 SUPER 6GB GDDR6 to w Dodatek : Widmo Wolności tymbardziej.
Ja zacznę całość od nowa, czyli najpierw od Podstawki.
Akurat w CP2077 coś jednak usprawiedliwia takie wymagania czego nie można powiedzieć o wielu grach w tym roku.
Ulepszyć komputer?
EDIT:
Buahahha - jeszcze nie zobaczyłem tekstu, a wiedziałem.
Martwi mnie to, o czym informujecie w artykule, tak jak i zmartwiły mnie zaktualizowane wymagania CPU Cyberpunka. Ich wzrost to ponury żart ze strony Redów. Poczekamy, zobaczymy jak to będzie, ale przeczuwam kolejną aferę z Cyberpunkiem w roli głównej. Jeśli chodzi o mnie, to jeżeli mój i9-10900K nie wystarczy do spełnienia wymagań oczekiwanej przeze mnie jakości obrazu z włączonym RT wraz z płynnością rozgrywki przy takowych (oczekuję tego samego, co miałem w podstawce), a na to się zapowiada XD, to poleci zwrot dodatku i tyle w temacie. Poza Cyberpunkiem, to żadna z gier w które gram/grałem nie obciążyła mojego CPU powyżej 50%, więc nie mam najmniejszego zamiaru upgrade’ować tak dobrego procesora specjalnie dla jakiegoś dodateczku na paręnaście godzin zabawy, by uzyskać jakość jak w podstawce. W ogóle to współczuję osobom, które zrobiły w 2020 upgrade komputera specjalnie dla Cyberpunka, bawiącym się w podstawce na CPU spełniającym opisane wtedy wymagania podstawki lub niewiele lepszym, i chcącym ograć teraz dodatek. Czuć się oszukanym w takiej sytuacji to chyba najdelikatniejszy opis tego, co czują.
Nice, czyli jednak przyznają się że kłamali mówiąc że wyłączone SMT zwiększa wydajność. Śmiesznie to wygląda bo cały ten fix to po prostu przestawienie jednej flagi z off na on i zajęło im to prawie 3 lata.
Macie procesory z większą ilością rdzeni niż 2? Będziecie mieli w końcu możliwość ich wykorzystania.
Szczerze nie rozumiem skąd ten zachwyt nad grafiką w Cyberpunku. Owszem, Raytracing jest super, ale cała reszta: tekstury, efekty cząsteczkowe czy animacje to nic nadzwyczajnego. Takie Red Dead Redemption 2 jest według mnie dużo bardziej plastyczne, a wymagania z 2x niższe.
Będziesz grać w Cyberpunk 2077 2.0 na PC?
Nie, nie będę. Podstawka mi wystarczyła, nie chcę już do tego wracać.
Marketingowy bełkot CDP Red. Przypomina mi to trochę działanie korporacji z uniwersum CP, kłamanie, manipulacja, kontrola, bezwzględna chęć zysków. Jestem w trakcie przechodzenia tej gry na aktualnej wersji, nadal są bugi( ostatnio wystrzeliło mój samochód jak z katapulty), ale da się przyjemnie grać w 1080p na ultra bez żadnych dlssów ( 4070 ti). A teraz jeszcze podwyższają wymagania, uprawiając przy tym korpo propagandę. Dlatego jeśli ktoś ma słaby sprzęt jak ja, polecam, w ustawieniach steam zablokować aktualizację i uruchamiać program w trybie offline. Powtórka z W3 Krew i Wino kiedy też potwornie podwyższyli wymagania względem podstawki każę sądzić że tu będzie tak samo.
To będzie ta gra dla której warto będzie kupić 5080/90, a do tego czasu trzeba będzie zabawić się suwakami no ale na pocieszenie jest i7 13700k i 32GB ramu :D
No to blokujemy na steamie tą aktualizację.W tej chwili gram na tym co jest i gra sprawnie chodzi.
Jak widać, ameby w komentach nie potrafią odróżnić cpu od gpu.
W zalecanych do 1080p jeśli chodzi o gpu - 2060S, za to jeśli chodzi o cpu, o którym mowa w tekście - 12700.
Niech lepiej optymalizuje tego crapa, a nie mi rady daje. Jak mi się laptop zjara, to zrobię m wjazd na chatę i się skończy kozaczenie.