Będziesz grać w Cyberpunk 2077 2.0 na PC? Twórca gry ma dla Ciebie dobrą radę
Tylko, ze w wypadku CP2077 chociaż to jak gra wygląda usprawiedliwia wymagania. Gorzej jak wymagania są z czapy a na ekranie za nic nie widać na co to idzie.
Nie jestem twórca gry, ale też mam dobrą (myślę) radę: nie kupujcie na premierę.
I bardzo dobrze. Chcecie fajerwerków i filmowych wrażeń? To zainwestujcie w sprzęt a nie z 6-letnimi rzęchami się do nowych gier zabieracie. Progres wymaga poświęcenia od wszystkich. A nie, siedzą bolki przy sprzęcie za 2,5 tysiaka i pytają, gdzie te next-genowe wrażenia.
True. I koleś ma na myśli granie na full wypasie, a nie jakieś low detail. A nie, że ludki już płaczą o optymalizację.
Jestem na to spokojny, jeśli chodzi o mój komputer PC. Ale niestety za to musiałem wydać sporo oszczędności. Portfel bardzo boli. Nic nie jest za darmo. Piękna grafika Cyberpunk 2077 ma swoją cenę.
Gdyby siedziałbym na i5-3570 i GTX 1060, to absolutnie nie mam na to szans.
Więc upgrade PC jest potrzebny i nie byłoby problemu dla większości, gdyby nie ta cena...
Starfield to zupełnie inna bajka. Wymagania sprzętowa jest z kosmosu, a grafika i jakość gry jest z czasów średniowiecza, czyli wiek Skyrim. Oni nie mają na to usprawiedliwienie.
Buraku jeden, dziecko tulipanów. Przez takich jak Ty producenci mają w dupie optymalizację bo i tak kupi się sprzęt który to pociągnie. Jakoś za czasów ps2 potrafili się pogłowić i wycisnąć wszystko, dziaj to mają w dupie i szukają frajerów jak Ty co wydadzą ile się da na sprzęt.
Ja też mam radę - tylko pamiętajcie o karcie za 8 koła żeby cieszyć się Path tracingiem i rozdzielczością 4k. Inaczej was FOMO dopadnie i nie będziecie się dobrze bawić! Pozdrawiam.
Albo mniejszy, ale ten zawijany LG, którego można krzywić i prostować wedle potrzeb :)
I obowiązkowo Oled 77 dla lepszej imersji.
Już za duży ekran to imersja w dół np. wyobrażasz sobie grać w kinie na kilkuset calach? Z ciekawości raz można byłoby sprawdzić ale nie grać cały czas.
Ja tylko tak gram. Siedzę w wielkiej sali kinowej.(tryb kinowy VR lub 100 cali na scianie) Jeśli ktoś gada że duży ekran to immersja w dół, powinien wrócić do czasu monitora i na nim pozostać. Duzy ekran, mniejsza immersja - dawno nie czytałem większych bzdur
Tylko, ze w wypadku CP2077 chociaż to jak gra wygląda usprawiedliwia wymagania. Gorzej jak wymagania są z czapy a na ekranie za nic nie widać na co to idzie.
Gorzej jak wymagania są z czapy a na ekranie za nic nie widać na co to idzie.
Starfield be like.
Niech lepiej optymalizuje tego crapa, a nie mi rady daje. Jak mi się laptop zjara, to zrobię m wjazd na chatę i się skończy kozaczenie.
Ojoj, ale z Ciebie groźniak!
Via Tenor
Ok. Zaraz, gdzie są numery do policji? Jest. Halo, policja? Mamy tu potencjalny terrorysta.
Ojoj, ale z Ciebie groźniak!
Niedługo będą takich jak on sprzedawać w biedronce jako "gang Groźniaków"
Tu zapewne chodzi o fixa na SMT, bo bywało tak, że Ryzen 6/12 dawał lepszy fps niż 8/16, dla 8/16 jest fix na nexusie, a teraz będzie natywnie dodany do gry.
Nice, czyli jednak przyznają się że kłamali mówiąc że wyłączone SMT zwiększa wydajność. Śmiesznie to wygląda bo cały ten fix to po prostu przestawienie jednej flagi z off na on i zajęło im to prawie 3 lata.
Nie jestem twórca gry, ale też mam dobrą (myślę) radę: nie kupujcie na premierę.
No to blokujemy na steamie tą aktualizację.W tej chwili gram na tym co jest i gra sprawnie chodzi.
Macie procesory z większą ilością rdzeni niż 2? Będziecie mieli w końcu możliwość ich wykorzystania.
Pewnie odpali ale będzie to pokaz slajdów. Swoją drogą jak kupowałem 8 rdzeniowy procek to mówili bier 6 bo nie opłaca się kupować. Nie ma na to gier itd. A tu widzę że niedługo bez tego mało co z nowości odpali.
Ale optymalizacja, a to czy gra jest wynagająca to 2 różne rzeczy.. cyberpunk to gra z najbardziej zaawansowaną grafiką i technologiami, więc jest to uzasadnione. Słabą optymalizację to ma Starfield...
Szczerze nie rozumiem skąd ten zachwyt nad grafiką w Cyberpunku. Owszem, Raytracing jest super, ale cała reszta: tekstury, efekty cząsteczkowe czy animacje to nic nadzwyczajnego. Takie Red Dead Redemption 2 jest według mnie dużo bardziej plastyczne, a wymagania z 2x niższe.
Dokładnie tak. Poza Ray i Path tracingami, to grafika i tekstury są w sumie przeciętne.
W Immortals of Aveum jeszcze bardziej to widać. Niby silnik Unreal Engine 5, a oprócz tych wszystkich efektów specjalnych podczas walki, to np: ściany budynków, skały, drzewa i tekstury wyglądają bardzo przeciętnie, a w wielu miejscach nawet biednie, i ja przykładowo nie czuję w tej grze żadnego next genu, tym bardziej, że widziałem co ten nowy silnik Unreal 5 potrafi.
RDR2 to akurat przykłąd gry, która jest dopieszczona optymalizacyjnie i wizualnie.
Poza tym, stopień skomplikowania geometrii w RDR2 jest prawie żaden. Widzisz w zasadzie płaską mapę z kilkoma budynkami, do których można wejść.
Zobacz sobie jak wygląda geometria w CP2077 jak przejeżdżasz gdzieś mostem i widzisz całkiem sporo skomplikowanych brył budynków, w których jest sporo wnętrz.
Poza tym, ten silnik idzie do śmietnika na rzecz Unreala, bo Unreal umożliwia dużo łatwiejszą automatyczną optymalizacje. RedEngine ma wiele bolączek, jak np. gigantycznych rozmiarów Update (przez co update są co pół roku-rok, bo gracze muszą zasysać update wielkości prawie gry, częstsze update byłby po prostu męczące).
W RDR2 też nie ma takich tłumów w mieście. To bierze sporo CPU, ale tak silnik Rockstara jest cudownie zoptymalizowany... Tylko Rockstar jest 3-4x większy od CDPR.
Bez modów i modyfukacji ta gra oferuje tyle co gta 6 co najwyżej.
Bieda cieniowanie, bieda oświetlenie [zwłaszcza w ciemnych pomieszczeniach].
Dzisiaj sie wymaga sporych wymagań sprzętowych do kiepskich gier niestety.
Jak widać, ameby w komentach nie potrafią odróżnić cpu od gpu.
W zalecanych do 1080p jeśli chodzi o gpu - 2060S, za to jeśli chodzi o cpu, o którym mowa w tekście - 12700.
Szkoda, że to ostatnia produkcja na Red Engine. Za kilka lat to każda gra będzie na UE.
Dzięki temu dowiedzieliśmy się, że uruchomienie techniki wielowątkowości współbieżnej (SMT) w procesorach maksymalnie 8-rdzeniowych będzie korzystne z punktu widzenia gry, podczas gdy w przypadku sprzętu z 12 rdzeniami i większą ich liczbą, lepiej, aby opcja ta pozostała wyłączona
Czyżby mówimy o dodatkowe E-rdzeni od przykładowy i5-13600k? W sumie 14 rdzeni. Czyli mam wyłączyć E-rdzeni i zostawić 6 wydajne rdzeni z 12 wątków? Inaczej będzie tylko mniej FPS? Na Cyberpunk 2077 w trybie Path Tracing nie miałem takiego problemu, bo uzyskałem ponad 90 FPS dla 1080p na Ultra.
Nie dało się napisać, żeby gra 2.0 zignoruje nadmiaru rdzeni i wątków, jak nie będą do tego potrzebni? 12 generacji Intel i słynne E-rdzeni istnieją na rynku już od kilku lat, więc nie ma mowy, by twórcy gier będą to zignorować.
Jestem niesłyszący i mogę popełniać błędy w pisaniu, więc proszę o wyrozumiałość. Dziękuję.
Sam X-Benix wyszedłeś na ebila.
Przydzielaniem wątków do rdzeni zajmuje się system operacyjny.
Mało kto o tym wie, że np. 7900X3D może w niektórych grach działać znacznie gorzej od 7800X3D. Wynika to z tego, że część rdzeni w 7900X3D czy 7950X3D nie ma dostępu do X3D Cache, przez co w grach mogą działać znacznie wolniej.
Teoretycznie jest na to hotfix, ale Microsoft był skory zrobić ten hotfix tylko na najnowszą wersje Windows 11 i w zasadzie nie wiadomo, czy to działa, tak jak powinno.
Już ci tłumacze, zwyczajnie nie rozumiesz czym są P cores (Performance-cores) i E cores (Efficient-cores) przez co źle odczytujesz specyfikacje dlatego ci się myli. To nie jest dosłownie procesor 14 rdzeniowy tylko 6 rdzeniowy z 8 pomocniczymi. Żadna gra nie wymusi by twoje pomocnicze rdzenie były używane w grze chyba, że sam sobie to ustawisz.
6 rdzenie P to są twoje główne pełnowartościowe (wielozadaniowe) rdzenie z których korzystają gry i reszta programów, 8 rdzeni E służy głównie do wspomaganie reszty sytemu i programów typu discord, przeglądarka, itp. by nie obciążać głównych rdzeni jeśli nie jest to wymagane. W praktyce działa to tak, że jeśli odpalisz grę, to twoje główne rdzenie skupiają się w całości na niej a rdzenie pomocnicze na całej reszcie programów, dzięki temu w praktyce wszystko działa lepiej i szybciej bo masz dedykowanie "niepełnowartościowe" rdzenie, które służą właśnie do takich sytuacji i one przejmują na siebie zadania, które musiały by wykonywać w innym przypadku twoje głównie rdzenie.
Wiec opis jest ok. nie potrzeba dodatkowo pisać ze chodzi wyłącznie o rdzenie P bo to się rozumie samo przez siebie.
Zaskoczę Cię. Wiem o "hybrydowe" procesory aż za bardzo, bo poświęciłem czas na zbieranie wiedzy na tej temacie. W końcu nie kupiłem i5-13600k "na ciemno". Ale dziękuję za uwagę. :)
Wiem, że E-rdzeni mają niższe taktowanie i są przeznaczone do mniej wymagające aplikacji.
Mój przykładowy i5-13600k ma:
6 P-rdzeni i 12 wątków = 3,50~5,10 GHz
8 E-rdzeni i 8 wątków = 2,60~3,90 GHz
Więc wiem o oczywiste różnicy. To są dwie różne rdzeni. Stąd te nazwa "hybrydowa".
Ale też wiesz, że dla niektórych gier nie wszystkie P-rdzeni i wątków pracują na pełne obciążenie. Czasem 2 rdzeni pracują na 100%, a pozostałe rdzeni i wątków mniej %, choć program MSI Afterburner nigdy to nie pokazuje z 100% dokładności. Choć też wiem, że większości skrypty są obliczone na wszystkie rdzeni i wątków równocześnie dla przyśpieszone pracy.
Po prostu jestem ciekawy, czy twórcy Cyberpunk wykorzystują potencjały P-rdzeni i E-rdzeni naraz, by przydzielić odpowiednie "rozkazy" do właściwe rdzeni. To kwestia zarządzenia. Czas pokaże.
Żadna gra nie wymusi by twoje pomocnicze rdzenie były używane w grze chyba, że sam sobie to ustawisz.
Jeśli chodzi o stare gry, to nie zawsze tak działa, jeśli nie otrzymają odpowiednie łatki. Zdarza się, że niektóre gry korzystają z E-rdzeni zamiast P-rdzeni i stąd te niższe FPS. Czasami trzeba wyłączyć E-rdzeni, by mieć jak najwyższy FPS. Inne gry retro lub Indie są mało wymagające na tyle, że nie potrzebują P-rdzeni, bo E-rdzeni są wystarczające. Ale dla nowe gry AAA nie powinno mieć to problemu, bo umieją się odróżnić P-rdzeni od E-rdzeni dzięki odpowiednie instrukcji. Tylko dziwię się, żeby twórca gry sugerował, aby wyłączyć dodatkowe rdzeni.
Przydzielaniem wątków do rdzeni zajmuje się system operacyjny
To zależy od wersji Windows i Linux. Starsze systemy operacyjne nie odróżniają się P-rdzeni od E-rdzeni w sposób poprawny, bo nie mają odpowiednie instrukcji.
Życzę Wam miłego grania!
Ale tak ogólnie to ja nie wiem o co się ludzie spłakali z optymalizacją. Gość tutaj ma na myśli granie na full, no sorry.. Cyberpunk wygląda bardzo dobrze, to i się nawet nie dziwię, że wymaga sprzętu jakiego wymaga. Płakać to można nad Starfieldem, bo wygląda słabo, a wymaga sprzętu nie wiadomo jakiego, a i tak chodzi na takim RTX 3060 jak gówno.
Tutaj w przypadku Cyberpunka zero zdziwienia.
Oczywiście też nie powiedziane, że będzie jakaś super optymalizacja, ale z pewnością gorzej niż w Starfieldzie nie będzie.
Z tym, że gorzej nie będzie to bym się tak nie rozpędzał.
Tutaj wątpliwości głównie budzą wymagania procesora, które drastycznie poszły w górę.
W podstawce gra była bardzo słabo zoptymalizowana i nawet na zalecanym CPU nie dało się osiągnąć 60 fpsów.
Czyli SMT do max 8 rdzeni będzie korzystne a 12 lub wiecej juz nie. Ciekawe co mam zrobic w przypadku 10 nie chce mi sie tego testowac.
A tak w ogóle to by mogli zrobić niespodziankę i wydać dodatek tydzień wcześniej.
Tylko że w grze Cyberpunk 2077 przejście w trybie Path Tracing może daje widoczna zmiana, np. lepsze cieni dla rośliny, ale różnica jest dość mała, a znacznie podnosi poziom wymaganie sprzętowe.
Wiesz, ile FPS zabrał Wiedźmin 3, jak tryb Hair Works jest włączony.
Będą jakieś ulepszenie dla grafiki, ale za jakim kosztem. Nie zawsze będą ogromne różnicy.
Ktoś ci każe włączać HairWorks w Wiedźminie 3 czy Path Tracing w Cyberpunku?
Skoro zmiana dla ciebie jest drobna to graj bez. Jeśli na dziś nie jesteś jeszcze gotów ponieść kosztów ulepszenia to nikt przecież do niego cię tu nie zmusza.
Wiesz, że to kwestia gustu? Kto lubi, ten lubi.
Niektórzy wolą grać i podziwiać grafiki z wszystkie możliwe opcji. Nawet jeśli będą to drobne zmiany, to zawsze coś.
Nikt nie kupuje lepszy PC tylko po to, by tylko zmarnować.
Owszem, 60 FPS, fabuła i rozgrywka jest ważniejsza niż grafika, ale każdy ma wybór i wybiera to, co lubi.
No właśnie, każdy ma wybór i wybiera co lubi.
Więc o czym był twój pierwszy post?
Że niektórzy mają zbyt duże oczekiwanie co do odczuwalne poprawy jakości grafiki na ekranie w stosunku do wzrostu wymaganie sprzętowe. Ale nie wszystko jest takie proste. Nawet na drobne zmiany i błahostki widoczne na ekranie czasem mają wysokie ceny dla CPU i GPU.
Jeśli na dziś nie jesteś jeszcze gotów ponieść kosztów ulepszenia to nikt przecież do niego cię tu nie zmusza.
Może najpierw sprawdzisz mój profil, a potem napiszesz? Ten kawałek jest tu zupełnie zbędny. ;)
Chodzi o specyfikacji mojego komputera PC. Więc nie mam problemu z granie wszystkie gry AAA na Ultra (na razie). Sam napisałeś, że nie stać mi na ulepszenia PC na dziś, więc to już nieaktualny.
Jeśli naprawdę masz na myśli tylko opcji graficzne z gry, to wyłączam tylko wybrane opcji, co nie dają nic i da się żyć bez tego. Jeśli są drobne zmiany, to zawsze lepsze niż nic. W moim przypadku, oczywiście.
Miłego grania i miłej nocy.
Nie pisałem, że Cię nie stać finansowo tylko, że jeśli nie jesteś jeszcze gotów ponieść kosztów nowej technologii (czyli korzystanie z DLSS, FG, niższa płynność itp) to nie musisz tego robić. Możesz grać w niższych detalach, zmniejszyć rozdzielczość, wyłączyć najnowszy graficzny wodotrysk, zaczekać aż on się upowszechni, zostanie zoptymalizowany, pojawią się kolejne generacje sprzętu itd itd. I wtedy się nią cieszyć bez wyraźnych strat fpsów. To jaką masz w tej chwili kartę nie ma tu żadnego znaczenia (o ile nie jest to kartofel sprzed 10 lat), ważne na czym Ci bardziej zależy.
Jeśli tylko masz przyzwoity sprzęt (czyli na przykład karta mid-range nowej generacji jak 4070) to przecież masz różne możliwości manewru w opcjach graficznych. Wystarczy przestawić sobie myślenie na mniej roszczeniowe i nie zakładać, że zakup karty ze średniej półki pozwoli Ci na odpalenie każdej nowinki graficznej bez żadnych kompromisów jeśli chodzi o klatkarz.
Będziesz grać w Cyberpunk 2077 2.0 na PC?
Nie, nie będę. Podstawka mi wystarczyła, nie chcę już do tego wracać.
Nie teraz, ale może za 5-10 lat, jeśli tęsknisz za klimatem Night City. Niektórzy gracze są sentymentalni i czasami lubią wracać do starych hitów. To dobrze, że nadal poprawią i ulepszą Cyberpunk 2077.
Na przykład ja mam ochoty zagrać jeszcze raz w Gothic 1-2, Baldur's Gate 1-2 i Fallout 1-2.
To twój wybór i kwestia gustu i ... czasu. Miłego grania.
Mam nadzieje, że ta wypowiedź skierowana jest do osób, które liczą na granie na najwyższych ustawieniach w 4K, bez żadnych kompromisów. Ja z i5 12400f, 16 GB RAM i RTX 3060 12 GB, celowałem w granie na wysokich (ale nie ultra) w 1440p z włączonym DLSS ustawionym na wydajność. Aczkolwiek chyba się trochę przeliczę. Ale z drugiej strony pojawią się szybko testy kart i podzespołów więc będzie można szybko zweryfikować na co się mam nastawić.
>Deweloper CDP-u przyznał, że wymieniony wyżej Cinebench jest aplikacją zasobożerną, dlatego lepiej, aby podczas regularnego grania pozostała wyłączona.
Kto gra z chodzącym cienebenchem w tle? xD
Via Tenor
Deweloper przyznał, że przy okazji „odrestaurowanego” Cyberpunka twórcy zmaksymalizowali użycie procesora, dlatego istotne będzie wcześniejsze przetestowanie sprawności systemów chłodzenia. Pierściński do tego celu sugeruje użycie aplikacji Cinebench lub podobnej
Chodzi o to, że lepiej jest sprawdzić, czy chłodzenie i CPU w pełnej obciążenie działa bez zarzutu na dłuższy metę. Żeby nie doszło do wybuchu PC. XD
Albo do Throthlingu, który może powodować bardzo negatywne odczucia w grze. Bo jak gra wymaga dużo CPU, a CPU zwalnia z przegrzania, to lagi są przepotężne.
A co do chodzącego Cinebencha w tle, to lepiej dać taką informacje, bo różni ludzie grają w gry, niektórzy nie potrafią korzystać z narzędzi/nie wiedzą do czego one są. Ktoś mógł zrozumieć, że to jest do podnoszenia osiągów kompa
Mam złe przeczucia jakoby już sami Redzi nas ostrzegali, że na RTX 4080 z I5 12600K/13600K gra będzie działać w 60fps przy rozdzielczości 1080p z DLSS3 by uniknąć rozczarowania jak przy premierze CP2077 w 2020r. Twórcy Starflield'a bezczelnie powiedzieli, że jak ich nowa gra słabo działa to nie z winy kiepskiej optymalizacji tylko z powodu słabego sprzętu który należy wymienić na mocniejszy. Do czego to zmierza?
Marketingowy bełkot CDP Red. Przypomina mi to trochę działanie korporacji z uniwersum CP, kłamanie, manipulacja, kontrola, bezwzględna chęć zysków. Jestem w trakcie przechodzenia tej gry na aktualnej wersji, nadal są bugi( ostatnio wystrzeliło mój samochód jak z katapulty), ale da się przyjemnie grać w 1080p na ultra bez żadnych dlssów ( 4070 ti). A teraz jeszcze podwyższają wymagania, uprawiając przy tym korpo propagandę. Dlatego jeśli ktoś ma słaby sprzęt jak ja, polecam, w ustawieniach steam zablokować aktualizację i uruchamiać program w trybie offline. Powtórka z W3 Krew i Wino kiedy też potwornie podwyższyli wymagania względem podstawki każę sądzić że tu będzie tak samo.
Ulepszyć komputer?
EDIT:
Buahahha - jeszcze nie zobaczyłem tekstu, a wiedziałem.
To będzie ta gra dla której warto będzie kupić 5080/90, a do tego czasu trzeba będzie zabawić się suwakami no ale na pocieszenie jest i7 13700k i 32GB ramu :D
Będzie się uczył nie stawiać spacji przed znakami interpunkcyjnymi.
konewko - oczywiście że nie będę się już niczego zbędnego w życiu uczył ! Jak to mówi młodzież mam wywalone na wszystko na tyle że do sklepu mogę wejść w samych bokserkach i papciach na nogach ;) bo czemu by nie ?
Nie jesteś młodzieżą tylko starym facetem na utrzymaniu, który udaje, że jest fajny.
Martwi mnie to, o czym informujecie w artykule, tak jak i zmartwiły mnie zaktualizowane wymagania CPU Cyberpunka. Ich wzrost to ponury żart ze strony Redów. Poczekamy, zobaczymy jak to będzie, ale przeczuwam kolejną aferę z Cyberpunkiem w roli głównej. Jeśli chodzi o mnie, to jeżeli mój i9-10900K nie wystarczy do spełnienia wymagań oczekiwanej przeze mnie jakości obrazu z włączonym RT wraz z płynnością rozgrywki przy takowych (oczekuję tego samego, co miałem w podstawce), a na to się zapowiada XD, to poleci zwrot dodatku i tyle w temacie. Poza Cyberpunkiem, to żadna z gier w które gram/grałem nie obciążyła mojego CPU powyżej 50%, więc nie mam najmniejszego zamiaru upgrade’ować tak dobrego procesora specjalnie dla jakiegoś dodateczku na paręnaście godzin zabawy, by uzyskać jakość jak w podstawce. W ogóle to współczuję osobom, które zrobiły w 2020 upgrade komputera specjalnie dla Cyberpunka, bawiącym się w podstawce na CPU spełniającym opisane wtedy wymagania podstawki lub niewiele lepszym, i chcącym ograć teraz dodatek. Czuć się oszukanym w takiej sytuacji to chyba najdelikatniejszy opis tego, co czują.
i9-10900K starczy ci spokojnie na płynne granie z RT. Ja na moim AMD 9 5900X też pewnie zagram na full. Nie ma co panikować.
Tabelka pokazuje, że wcale nie musi być tak pięknie jak miałem kiedyś w podstawce. Stąd też moje obawy.
Pożyjemy i zobaczymy. Głowa do góry.
Często jest tak że podaje się zawyżone wymagania żeby podłechtać twórców sprzętu - wiadomo im większe wymagania, tym więcej ludzi zupgraduje sprzęt przed premierą.
Jeśli grasz na ultra w podstawke - zagrasz i w dodatek. Przecież to nadal ta sama gra. Dodatek nie może ci zwiększyć aż tak wymagań, szczególnie że od premiery, do teraz zoptymalizowali grę perfekcyjnie. Gdyby dodatek to teraz wszystko zepsuł to byłoby jakieś kuriozum i strzał w stopę.
Faktycznie. To słabo. :/
Już poprawione. Wielkie dzięki. Plus dla Ciebie.
Dla 1080p, RT i 60 FPS bez trybu Overdrive wymagają i9-12900 i RTX 3080Ti. Nieźle... Taka jest moja reakcja, jak to zobaczyłem za pierwszym razem. Nie chcę w to wierzyć.
Ale z drugiej strony, różnica i9-12900 przeciwko tańszy i5-13600k dzieli się niewielki przepaść w przeciwieństwie do i9-13900, jeśli chodzi o obliczeniowy wielowątkowości. A twórca gry napisał, że do max. 8 rdzeni, więc raczej nie wykorzystują cały potencjału i9-12900. Nie musi być tylko i9-12900.
https://www.purepc.pl/test-procesorow-intel-core-i5-13600k-vs-amd-ryzen-5-7600x-wiecej-rdzeni-i-swietna-wydajnosc-porownanie-w-grach-i-programach?page=0,7
Tym bardziej, że FG jest wspierany tylko dla RTX 4000, a RTX 3080Ti przecież nie obsługuje FG, a tylko max. DLSS 2. Każdy to wie, jak wygląda Cyberpunk 2077 w trybie Overdrive na RTX 3000 bez FG w przeciwieństwie do RTX 4060 i RTX 4070. Niedługo będzie FSR 3.0, który wspiera również RTX 3000, 2000 i inne starsze karty graficzne, a to da niektórzy pewne szanse. Cyberpunk też obsługuje FSR, więc wątpię, by twórcy będą to zignorować.
Tym bardziej, że oficjalne wymaganie sprzętowe często są mało dokładne i nie mamy wszystkie potrzebne informacji.
Jak już pisałem, pożyjemy i zobaczymy. Tym bardziej, że nie wszystkie opcji graficzne muszą być na Ultra, gdyż różnicy są trudne do zauważenie.
Poczekamy na prawdziwe testy PurePC i youtuberzy, jak dostaną w ręce DLC do Cyberpunk 2077.
Jak Cyberpunk 2077 dostał aktualizacji, co daje RT w trybie Path Tracing, to mamy możliwość przełączenie na klasyczny RT Ultra. Tutaj też będzie to samo.
Nie ma co się denerwować.
Tyle, że to nie będzie ta sama gra, tylko Cyberpunk ulepszony do wersji 2.0, gdzie sama przebudowa SI wymaga ze 20% mocy procesora więcej. Poza tym minęły 3 lata od premiery i gra została dostosowana do sprzętu i oczekiwań jakościowych gracza anno 2023.
Bez przesady. Nie wierzę, że Redzi są na tyle ułomni i strzelą sobie w stopę. Że ci, co wcześniej grali, nie uruchomią w ogóle gry. A zejście z Ultra na High nie spowoduje masowe samobójstwa czy żałobę narodową.
A zejście z Ultra na High nie spowoduje masowe samobójstwa czy żałobę narodową.
Bez przesady. XD
Cyberpunk 2077 w wersji 2.0 na High będzie wyglądać dość ładnie na tyle, że da się grać przyjemnie. Ulepszenie grafiki od wersji 2.0 są tylko dodatkowe atrakcji z myślą o nowsze komputery PC podobnie jak Crysis. Tak jak Path Tracing (lub Overdrive) jest też opcjonalny.
Tak jak ray tracing dla Elden Ring i Metro Exodus, ale też da się żyć bez RT.
Po miedzy I7-12700K a I9-12900K jest jakieś 6-9% różnicy w wydajności gdzie 12700 polecany jest do 1080P a ten drugi do 4K... trochę z dupy te wymagania... no Ale może mój i9-11900F rozwinie skrzydła bo ledwo 30% w każdej grze przekracza :P
Dlatego napisałem w powyższy postu, że oficjalne wymaganie sprzętowe są mało dokładne.
Pożyjemy i zobaczymy.
w 4K gdzie jest docisk na GPU szczególnie po włączeniu RT to GPU staje się wąskim gardłem i CPU ma marginalne znaczenie żeby nie powiedzieć żadne. Oczywiście że te podane spec są bez sensu chodzi tylko o podkreślenie że jak chcesz ładnie i ultra to musisz mieć wszystko z wysokiej półki a to nieprawda.
To są zakładane wymagania, jest szansa, że jeszcze je poprawią.
Co do CPU, to w zasadzie wyższa rozdzielczość nie koniecznie powoduje wyższe zużycie CPU. GPU musi wyrenderować 4x więcej pixeli pomiędzy fullHD a 4K, stąd też jest dużo mocniej obciążone.
W większości gier podaje się szybszy procesor do 4K, bo im krócej klatkę przetwarza procek, tym więcej czasu zostaje dla GPU. W wiekszości przypadków, przy sporo mocniejszym GPU, mocniejszy procek nie jest potrzebny do 4K. Do wyższej ilośći FPSów już tak...
Wymagania są wysrane z tyłka jeżeli do 4K zalecają I9-12900K, a do 1080p I7-12700K gdzie jest większy nacisk na CPU niż na GPU. Co do obciążenia CPU to bym się nie sugerował samymi liczbami bo często jest tak, że 2 rdzenie są obciążone pod korek zaś pozostałe w kilkunastu % i ogólne obciążenie CPU wyniesie np.: 40%, a w rzeczywistości procek już w danej grze jest wąskim gardłem. Moim zdaniem CDP trochę nas przygotowuje na to, że CP 2.0 będzie mieć ogromne wymagania sprzętowe by uniknąć sytuacji jak przy premierze CP2077.
Nie za bardzo rozumiem, to teraz Cyberbunk będzie korzystał z jakiś nowych instrukcji i małych paczek danych?
To może jednak lepiej testować OCCT na maxa (proponuję small, extreme, AVX2 i wszystkie wątki).
Po pierwsze: testowanie samym Cinebenchem nie da wiarygodnych rezultatów. W grze odpali się również karta grafiki, zacznie produkować gorące powietrze które pójdzie do góry. W przypadku chłodzeń wieżowych trafi prawie od razu do niego. W przypadku AiO zamontowanego na szczycie - spora część zostanie wyssana przez tylny wentylator, ale i tak sporo wpadnie do chłodnicy. I temperatury będą wyższe.
Po drugie: już pół roku temu ktoś wpadł na pomysł przetestowania starego i7-4790K + RTX 4090 w nowych grach. W Cyberpunku 2077 płynnie, z DLSS3 ponad 100 fpsów - przy czym należy zauważyć, że użycie GPU wynosiło 70%, więcej niż w niektórych innych grach.
Natomiast testy nowszych procesorów - od 9700K do 13700K - pokazują, że co prawda w FullHD różnice są wyraźne, ale w 4K wykresy się wypłaszczają, w C2077 różnica między najsłabszym i najmocniejszym procesorem to zawrotne 5%.
Tak że nawet jeśli zwiększyli użycie procesora w Cyberpunku, to i tak nie widzę powodu żeby się szczególnie martwić. Jeśli ktoś ma 8700K sparowany z mocną kartą - typu 3090/4080 - to bez problemu pogra sobie w 4K w pełnych detalach.
https://www.youtube.com/watch?v=DEdmvH4QgUU
https://www.youtube.com/watch?v=98ZmMuOTeqQ
To trochę błędne myślenie. Jeżeli i7 8700k blokował np. RTX 4090 w 1080p, a w 4k, w stosunku do innych cpu, wykresy się spłaszczają, nie oznacza z automatu, że wszystko jest ok.
FPS to tak naprawdę fremtime i do póki nie porównanym wykresów frametime oraz czasów następujących po sobie klatek (frametime variance), to nie wiemy, czy mamy mikroprzycięcia, czy nie.
Świetną robotę robi tu np. Igor's lab, mierząc frametime i wariancę sprzętowo.
My sami możemy programowo - np. CapFrameX.
Jeżeli nie mierzymy tych dwóch, jakimś wskaźnikiem będzie różnica pomiędzy FPS średnim a 1%low. Im większa, tym większe frem time variance, czyli mikroprzycięcia, jeżeli 1% low oraz AVG nie przekraczają docelowego fps (odświeżania monitora).
Czy długo jeszcze będziecie pisać, że X to były Twitter? Ludzie nie są tępi :)
Ten komunikat wygląda trochę jak ukryty przekaz, "Skopaliśmy optymalizacje , więc musicie zrobić upgrade sprzętu ". Zrobili to w inteligentny sposób ;)
Przed zakupem chyba obowiązkowo najpierw obejrzę sobie testy gry-dodatku... bo jeżeli na zestawie poniżej wartym ok 2500pln nie będę w stanie względnie komfortowo pograć na 6 rdzeniowym procku w 1080P na detalach średnio-wysokich w okolicach 50-60 fps bez RT i dupowtrysków i optymalizacja będzie masakryczna i wymagać kombajnu typu 12700-12900K no to sory to całkowicie odpuszczam sobie bo to jest kur nieporozumienie... a znając REDÓW to z optymalizacją u nich na premierę zawsze była kaszana straszna..
i5-10400F 6/12
B560 Gigabyte DS3H
16GB Ram DDR4 2666hz
RTX 2080 8GB GDDR6
Silentium PC 600W Vero L3
SSD M.2 1TB Samsung 970
Windows 10
Sprawdziłem, przetestowałem aktualizację 2.0 jak u mnie działa na Wymaganiach z Widma Wolności - Zdecydowanie czekam na Dodatek.
Jak w Cyberpunka 2077 u mnie da się grać na Updacie 2.0 na Stabilnych Wysokich Ustawieniach Graficznych w Stałych 60 FPS-ach, na Konfiguracji : i7-4790 3,60 GHz (4/8) + 16 GB RAM-u + GeForce GTX 1660 SUPER 6GB GDDR6 to w Dodatek : Widmo Wolności tymbardziej.
Ja zacznę całość od nowa, czyli najpierw od Podstawki.
Akurat w CP2077 coś jednak usprawiedliwia takie wymagania czego nie można powiedzieć o wielu grach w tym roku.