Procesor z więcej niż 8 rdzeniami przydaje się w nowych grach – oto dowód
Nie ma to jak wyciągać wnioski na podstawie jednej gry.
Nie ma to jak wyciągać wnioski na podstawie jednej gry.
Przyszłość. Przy nowej generacji przyda się każdy dodatkowy wątek i rdzeń. Dlatego tak szumnie propagowany obecnie Ryzen 3600, to według mnie za mało.
Jasne, to samo było mówione przy premierze bulldozerów. "Gry będą wykorzystywały milion wątków", "nowe konsole, nowe wymagania" i tym podobne bzdury. A dzisiaj, prawie po 10 latach, większość gier ledwo wykorzystuje 6 rdzeni, a jeszcze niedawno 4. Także takie gadanie to zwykłe wróżenie z fusów.
Ja nadal z 7700k i czteroma rdzeniami gram we wszystko... po cichu liczę, że gry z nowej generacji w końcu zarżną ten procesor żeby uzasadnić sobie zakup nowego
To za mało... ale na co konkretnie? Do 60fps jest raczej w sam raz jeszcze na dłuższy czas, na pewno jest tańszy o kilka stów od 3700x i wydajniejszy od 2700, który mimo większej ilości rdzeni, to niekoniecznie jest lepszym wyborem do gier.
i7-7700K zarzyna gra tej generacji, tj. Assassin's Creed: Odyssey i Origins. Największy przeskok jest w klatkach minimalnych. Miałem i5-8600K i przeskok po przejściu na i9-9900K to jakieś 30 klatek w minimalnych w 1440p i 40 klatek w 1080p. W końcu żadnych spadków fps, tearingu czy stutteringu. Komfort grania bardzo na plus.
Różnica tkwi w minimalnych fps'ach, nie w tych najwyższych. To najniższe fps'y wpływają na finalną płynność rozgrywki. Takich gier, które obciążą procesor, będzie tylko więcej, nie mniej, dlatego twierdzę nadal, że 6c/12t, to za mało i optimum niedługo będzie 8/16, szczególnie jeśli widzimy za horyzontem nowe konsole i liczymy na to, że nie będziemy musieli ulepszać sprzętu przez najbliższe 2-3 lata. To idzie tylko w jednym kierunku obecnie.
Assasiny mają problemy przez zabezpieczenia i ocenianie przyszłości przez pryzmat tej serii to błąd. Osobiście wątpię aby mocne 6/12 było niewystarczające przez kolejne 4/5 lat.
Grając w Odyssey po prostu grałem w 60 klatkach i nie miałem żadnych problemów z procesorem. Uwierz, że gdyby jakaś gra zażynałaby mi procesor to wymieniłbym go od razu :)
Cztery jaja zarzyna AC: Origins i Odyssey, Andromeda, Wildlands, Watch Dogs 1(!) i 2... Ech, te bajki ludzi, którzy jeszcze nie kupili nowego CPU...
Już pomijam fakt że wszystkie gry jakie podałeś to gry ubi, które znane są z tego, że przez zabezpieczenia antypirackie mają wyśrubowane wymagania względem procesorów. Tak tak, wiem, wymieniłeś jeszcze andromede. Tylko nie wiem po co, bo tam 7700k trzyma prawie 100 klatek :)
Tak jak pisałem wyżej, AMD 10 lat temu poszło już w więcej rdzeni, bo niby gry i programy miały tego wymagać. No i wymagają, ale prawie dekadę później, a AMD ładnych kilka lat zajęło podjęcie wyrównanej walki z intelem. W procesorach liczą się nie tylko rdzenie. Jeśli miałbym obstawiać, to bym obstawiał że dobre 6/12 dla przeciętnego gracza starczy jeszcze na wiele lat.
Dobrze, że wreszcie coraz więcej gier zaczyna wykorzystywać więcej rdzeni i wątków, najwyższa pora.
Myślę jednak, że obecnie nie warto inwestować w więcej niż 8 rdzeni i 16 wątków jeśli komputer służy głównie do gier. Produkcji, które wykorzystają więcej niż 8 rdzeni jest raptem kilka i jeszcze długo tak pozostanie (proce w nowych konsolach to też 8/16).
To bardzo dobry prognostyk dla Horizon 2. Zapowiada się na to, że gra spokojnie wykorzysta wszystkie wątki dostępne dla programistów na PS5 (czyli pewnie około 14, bo przynajmniej 2 wątki będą na OS).
Po prostu jest to bardzo dobry port jakich mało. Drugą rzeczą jest granie w 1080p na komputerze za ponad 10 tys. złotych. No raczej bardzo mało osób się do tego dopuści. Przy tańszym procesorze i wyższej rozdzielczości różnica będzie znikoma.
Ja kupując monitor chciałem mieć najlepsze odwzorowanie kolorów. Było to w 2016 roku i 60 fpsów oraz FHD to świetna sprawa przy 24 calach. Ja nie widzę sensu w posiadaniu większych monitorów. 4k zostawiam 50-60 calowym telewizorom które się ogląda z kilku metrów. Nigdy nie będę fanem 4k bo to jest wciskanie ludziom niepotrzebnych rzeczy. W smartfonie mam większą rozdzielczość niż w monitorze co jest też bez sensu ale taki był, trudno ;D Części do komputera wymieniam od czasu do czasu i niezależnie od mocy komputera raczej monitora nie wymienię bo po co? Chce mieć 60 nie 200 fpsów. Zależy mi także na tym aby gry nie miały dropów a podbijanie rozdziałki z fhd do 4k bardziej męczy kartę przy małej różnicy wizualnej. Więc to także powód aby zostać przy 24 cale 60 fps.
Jestem ciekaw, kiedy chociaż te 12 wątków będzie minimum do gier. Na razie to sporo osób siedzi na 4 rdzeniowych intelach, a oni sami dopiero w tej generacji dali Hyper-threading w tańszych modelach.
Ale cieszy, że ktoś wydał grę prawie rok później i nie spartolił portu tak, że masa osób nie mogła gry uruchomić w premierę (to ciekawe i sporo mówi o wydawcy/twórcach, skoro taki "Dawid" zrobił lepszy port niż "Goliat" Rockstar).
Kiedy? Wystarczy, ze wyjda gry pisane pod nextgeny, a nawet i wczesniej, bo pamietam jak pierwszy Watch Dogs w 2014 zajezdzal CPU, ktore jako tako sobie radzily z Tomb Raiderem, BioShockiem itp
Zanim wyjdą gry w pełni pisane pod next-geny to pewnie i tak miną z 2 lata.
Choć różnie może być, PS4 i Xone miały te 8 rdzeni (choć o śmiesznie niskim taktowaniu), a PCtowe gry pod te 8 rdzeni pisane, to zbyt często nie były.
(Watch Dogs to w ogóle słaby przykład, WD i Assassiny mają chyba najgorszy silnik z gier Ubi, taki Far Cry, to już działa jak marzenie w porównaniu z tymi dwoma).
Bo to byly 2 moduly po 4 rdzenie
Gry pisane pod nexgeny wyjdą szybciej niż myślisz. Na początku obecnej generacji też wychodziły takie gry już w pierwszym roku. Chociażby po to żeby sprzedać konsole
Jak mój półroczny (nieco ponad) core i5 9400f nie da rady odpalić już żadnej nowej gry AAA na medium detali w 1080p bo 6 rdzeni nawet do minimum będzie za mało, to zainwestuje w GeForce Now i będę miał w d.pie programistów, którzy wymusza na ludziach co chwilę zmiany hardwaru.
Skupić się na najlepszym możliwym wykorzystaniu tego co jest i nie produkować miliardów ton elektrosmieci, bo się nie chce należycie kodu napisać.
Czas by wkoncu ekologia i szacunek do planety i zycia, a także zdrowia zawitał także do tych betonowych łbów w IT.
Co mi z tego, że będą pisać grę na 100 rdzeni jak będzie nudna i odtwórcza pozbawiona grywalności?
Już 10 lat czekam na godnego następcę trylogii Mass Effect, 9 lat na następcę Skyrim, 5 lat na następcę Wiedźmina 3.
Wymagania rosną, a gry są słabe. W dupie mam taki gamedev, niech sami sobie ten drogi hardware wymieniają i dewastują środowisko w imię nudnych, powtarzalnych i propagujących wypaczenia i LGBT gierek.
Jedyne na co czekam to prawdziwy przełom w VR, żeby w tych okularach był obraz jak z OLED4K telewizora, słuchawki z jakością kina i z maks jednym elastycznym kabelkiem. To mnie zachęci do zakupu nowego hardware, a nie jakieś guano odtwórcze bzdetne gierki, które od 10 lat stoją w miejscu, a fabularnie się cofają, bo coraz bardziej tępych scenarzystów zatrudniają.
Oby Cyberpunk był wyjątkiem.
Ale przecież gry z roku na rok stają się bardziej złożone. Jeśli zostaniemy przy jednej konkretnej liczbie rdzeni i wątków to nic nowego nie powstanie. No i pamiętajmy że to nie twórcy gier dyktują warunki odnośnie liczby rdzeni tylko producenci procesorów.Deweloperzy tylko powoli się adaptują do zmieniającego się rynku i wykorzystują to co mają do dyspozycji.
Na 100 gier na pewno znajdziesz wiele nudnych i odtwórczych gier - Nie wszystko jest idealne ,lepsze i nie wszystkim podoba się to samo.
Tępych scenarzystów zatrudniają? A spójrz pod kogo te gierki są pisane. Graczom obecnie często wystarcza prosta ,czasami nawet liniowa fabuła.,więc dlaczego twórcy gier mają im dostarczać coraz lepszych historii?
PS:Godny następca Skyrim'a od Bethesd'y? lepiej nie. Bethesda powinna w końcu uczyć się na swoich błędach. Dosyć silnika pełnego bugów - nie muszą go porzucać ale niech chociaż go w pełni naprawią a nie czekają aż gracze to załatwią. Ale z drugiej strony..czy Bethesda musi coś zmieniać? Nie ,bo ma nadal fanów którzy największe badziewia od nich kupią w preorderach..
W rozdzielczości 4k, różnica między procesorami zapewne będzie minimalna. Optymalizacja gry jest bardzo dobra. Na RTX 2080 działa stabilnie w 4k 60 fps, bez DLSS w ogóle mi sie ta opcja nie podoba, obraz jest wtedy jakiś taki plastikowy.
Dowód, że procesor z 4 rdzeni dla przyszłe gry AAA to przeżytek. Procesor z 6 rdzeni i 12 wątki staje się nowy standard dla wymagające graczy.
I tak nie warto kupować obecnych procesorów wielordzeniowych, bo za rok-dwa okażą się one słabe w porównaniu do tych, które wyjdą po premierze nowych konsol.
Ide o zakład, że u siebie będę miał więcej klatek niż na Ryzenie 3700x. Powyżej 6 rdzeni nie liczą się tak klatki jak megaherce. Dlatego 4 ghz z Ryzena nigdy nie dobije do pięciu z Intela I5/I7/I9 dziewiątej i dziesiatej generacji ;)
Niestety nie znalazłem jeszcze testu twojej i5, ale wszystkie inne procesory 6c/6t odpadają przy tej grze. bez przerwy 100% zużycia i bardzo niestabilny framerate (spadki do 20-30FPS), 4c/8t jakoś sobie radzą - nie jest idealnie, framerate nie jest bardzo stabilny ale nie ma już spadków takich jak w przypadku 6c/6t, 8c/8t radzą sobie jeszcze lepiej, ale do ideału trochę brakuje, sabilny framerate zapewniają dopiero 6c/12t. Gra wykorzystuje dużo wątków, widać to przy testach takich procesorów jak i7 10700k i Ryzen 7 3700x - ich wykorzystanie w DS utrzymuje się na poziomie 50-80%.
Co ty za głupoty wypisujesz? Starocie z 4 rdzeniami i 8 wątkami w KAŻDEJ grze jest wolniejsze od i5 8xxx wzwyż, które mają 6 rdzeni i 6 wątków.
Tak, jak napisałem - ten proc ratuje zegar. 5 ghz na każdym rdzeniu robi znacznie więcej już 16 watkow na 4 ghz w Ryzenie.
Tylko, że przyrost zauważalnie zwalnia po 8 rdzeniach. A mało kogo stać na więcej.