Assassin’s Creed: Valhalla - RTX 3090 nie wystarczy do 60 fps w 4K
Poprostu XD.
A ludzi się śmieją, że nowe konsole są słabe, bo nie dają rady generować 4K w 60 fps...
A coś się w tej kwestii zmieniło? Pomijając fakt że nowe konsole pewnie nawet obok ustawień ultra nie stały.
^^no więc właśnie, czyli na karcie za 10 000 zł da się zagrać w 4k60 pewnie schodząc na jakość grafiki dostępna na nowej generacji konsol za 2200 zł. Top kek z pc mustard race. Już nie mówiąc o tym, że taki RTX 3070 (czyli karta w cenie XSX czy PS5) będzie miała pewnie spadki w full HD i to nie na najwyższych detalach.
W świetle tych komentarzy zatwardziałych pecetowcow którzy się śmiali że nowe konsole kosztujące 500 EUR nie są w stanie odpalić gier w 4k60 nic tylko można się uśmiechać z politowaniem.
Problemem nie jest wcale to, że PC nie potrafi generować takiego obrazu. Xbox Series X ma dużo słabszą grafikę od RX6800/RTX 2080Ti. Problemem jest to, że olali optymalizację na PC i wrzucili tam Denuvo.
Poza tym, gry Ubisoftu nie są optymalizowane pod Nvidię jak większość gier, tylko pod AMD.
Z tego co się orientuje Valhalla nie jest jeszcze dostępna w wersji na Xboxa Series X, da się ją odpalać przy pomocy wstecznej kompatybilności.
Ja osobiście jako doświadczony gracz PC nigdy niczego nie preorderuje. Kupuje zwykle jak już gra działa jak trzeba. Przy okazji jest tańsza o połowę. Z zasłyszanych informacji odnośnie tej gry mogę powiedzieć, że najmniejszym zmartwieniem graczy PC jest na razie optymalizacja i brak 4K. Ci co mają wersje recenzenckie czekają na patch dnia premiery.
To nie problem sprzętu, tylko optymalizacja leży.
Ale fakt jest taki, że PS5/XSX wcale tak dużo nie kosztują, bo za 2300zl mamy sprzęt do grania na lata i nie martwimy się ,,ulepszaniem,,
No chyba, że ktoś musi koniecznie grać w 4K60FPS no to już trzeba mocnego PC za kupę hajsu ( pewnie równowartość paru konsol PS5/XSX) a i to może nie wystarczyć, bo zależy od optymalizacji.
Śmiała teoria, widocznie zdążyłeś zapomnieć że w takim RDR2 na konsolach żeby działać w 30 klatkach niektóre z ustawień były niższe niż LOW na PC :)
No nic, pozostaje uśmiechać się z politowaniem.
Misiu a masz jakieś źródło tych rewelacji czy tak ci się wydaje bo ci kolega w szkole powiedział?
Digital Foundry misiu, a filmiku szukaj sobie sam bo widocznie masz za dużo czasu żeby pisać głupoty.
Lol chodzi ci o to że efekty wolumetryczne i dalekie cienie były zredukowane? Ale że tekstury, cienie i efekty świetlne były na ultra/high to już oczywiście ci nie pasuje do tezy?
Btw, nadal ta gra na ustawieniach ultra/high z zaawansowanymi wolumetrycznymi efektami na low chodziła na konsoli za 1200 zł w 30 klatkach w 4k. Ciekawe czy na karcie za 1200 zł odpalisz RDR2 w 4k z teksturami na ultra w stałych 30 klatkach, powodzenia.
Nawet jeżeli na nowej generacji konsol w Valhalli cienie w dalekim planie i efekty wolumetryczne beda low ale tekstury, ciebie i inne efekty będą na ultra/high i to wszystko będzie chodziło w stałych 60 klatkach w 4k w cenie 2200 zł to trochę kompromitacja że na kompie za kilkanaście tysięcy nie odpalisz tego w takiej jakości.
Ale spoko, chcesz to doplacaj 10k złotych żeby dym lepiej wyglądał w grze.
Chyba co (prawie) nową grę AAA będziecie musieli tłumaczyć sobie, że słaba optymalizacja. "bo w doomie w 8k działa"
Czekam na komentarze PC master race, użalających się na nowe konsole :-D
Styknie, ale do dobrze zoptymalizowanych gier, podobnie jak PS5/xbox.
Liczę na to, że będę mieć te 60 fps na ultra 1440p, a co do konsol to jeszcze kupię kiedyś tam PS5 i będę miał full zestaw do grania:) i nie będę biadolić który sposób grania jest lepszy. Te dziecinne wojenki PC- konola - Xbox-PS5 są na poziomie mniej niż zero.
A jaki masz sprzęt? Bo ja po tych wszystkich informacjach o słabej optymalizacji zaczynam się bać, że nie pójdzie mi w 60 fps na 3600 i rx 5700 xt w 3440x1440. Od biedy mogę zejść do 2560x1440 byle tylko było w miarę płynnie.
Śmiano się z konsol za troszkę ponad 2 tyś, że nie ogarniają w 4k. A tu najnowsze karty za grube tysiące nie ogarną. Więc już nie gadajcie tyle na skalowanie na konsolach czy może w przyszłości jakieś technologie podobne do dlss. I tak te rtxy nie starczą na całą generacje. A assassin też jakoś nie powala graficznie.
No i trzeba zaznaczyć, że nowy Assassin jest grą jeszcze na OBECNĄ generację, a nie prawowitym nextgenem.
odyssey przy valhalli wygląda dużo gorzej
O to akurat nietrudno, bo Odyssey przy czymkolwiek wygląda żalowo.
Przecież valhalla wykorzystuje wiele tych samych assetów z poprzednich części. Pod względem graficznym wygląda bardzo podobnie, tylko setting się różni.
Nie, nie mylę się. Przeszedłem tę grę na maksymalnych detalach i widziałem jak wygląda.
Zobacz jakie gry wyszły w 2018 i nie żartuj tak więcej.
przechodzę odyssey na średnich i ta gra wygląda lepiej niż wszystkie gry co wyszły w 2018 roku
No to kek.
Po pierwsze nie ma sensu testować tej gry na PC przed premierą. Bo optymalizacja po premierze może być lepsza.
Po drugie konsole generują obraz 1440p i leci upscaling do 4K. Na PC również można tak zrobić i to prawdopodobnie z lepszym efektem wizualnym (DLSS wydaje się przynajmniej na papierze lepszym upscalingiem). Renderowanie obrazu 4K trwa prawie 2x dłużej na karcie graficznej niż 1440p.
Nie ma się co kierować tym jak działa gra, która ma na PC Denuvo i jeszcze nawet nie wyszła, więc optymalizacja może być skopana. Poza tym, gra jest raczej optymalizowana pod karty AMD, więc może się okazać, że tam uda się osiągnąć coś zbliżonego do 4K.
W końcu ktoś, kto gada z sensem, a nie coś w stylu "A KoNSOle To dajo Rade, sOm tSŃszE, bEKA z pc"
Po drugie konsole generują obraz 1440p i leci upscaling do 4K.
Na XSX / PS5 wiele (a praktycznie większość) gier działa w natywnym 4K.
Microsoft już wspomina, że niektóre gry renderowane będą w 6K by zmniejszać je do 4K co daje jeszcze lepszy efekt.
Poza tym... co tu porównywać, nowe konsole kosztują 2250zł, RTX 3090 to około 7500zł !
Microsoft już wspomina, że niektóre gry renderowane będą w 6K by zmniejszać je do 4K co daje jeszcze lepszy efekt.
Na razie to tylko Ori and the will of the wisps ma mieć 6k. Gra piękna i w ogóle... ale to 2D, więc nic tak wymagającego, jak choćby Assassin's Creed Valhalla czy nawet Wiedźmin 3.
4K 60FPS na kompie z Nasa zapomnij biedaku za słaby komp.
My nie mamy czasu w optymalizacje bo musimy na kolanie szybko fabułę dla 6 latków a przecież nie moze zabraknąć też tak uwielbianych przez graczy fedexów i biegania po dachah za karteczkami.
Kochamy cię ubi.
4k... A ja tutaj na high/medium w 1080p będę grał tak jak w odyssey i origins. ^^
Bo tu sami milionerzy z kartami po 10 tysięcy.Połowa pewnie 4K na YT widziała i rżnie ekspertów.
4K telewizor to już nie jest taki rzadki widok.
No i to jest taka marketingowa porównarka mocy '4K 60FPS' jako jakiś złoty standard.
Chociaż moim zdaniem ogólnie 144fps > duża natywna rozdzielczość do gier.
To jest ta sławna optymalizacja Ubisoftu. :) W dniu premiery nigdy nie ma sprzętu, który zapewniałby 60 fps-ów w 4K. A jakość grafiki nie jest wcale znacząco lepsza niż w przypadku Odyssey.
E tam, taki clickbaitowy trochę artykuł. Po pierwsze, z tego co się orientuję najwcześniej zwykły gracz odpali grę o 14:00 dzisiaj naszego czasu (strefa Nowa Zelandia). Po drugie, ma być day one patch więc pewnie te testy były na wersji early access dla recenzentów i wybranych osób. Po trzecie, nic z tego co napisałem wyżej nie uzasadnia tego, że zagramy na 3090 w Ultra 4k 60FPS ale jedno się wydaje pewne, testy były robione na grze przed poprawkami z day one patcha.
Kogoś to dziwi biorąc pod uwagę, że ostatnie dobrze zoptymalizowane gry Ubisoftu na PC to Assassin’s Creed: Revelations i Far Cry 3?
The Divisiony były całkiem dobrze zoptymalizowane, tam było to zrobione jak powinno być sam mogłem zdecydować czy chcę detale, na jakim dystansie lub czy chcę płynność. Dało się suwaczkami je dobrze ustawić pod każdy sprzęt.
Najnowsze gry ubi oferują znacznie mniej opcji.
Myślę, że problemem nie jest optymalizacja. Gry Ubisoftu wyglądają ślicznie nawet na Low, a działają wtedy znacznie szybciej i nawet na słabych sprzętach.
Większym problemem jest raczej połączenie kilku faktów:
— developerzy, którzy podkręcają wysokie i maksymalne ustawienia graficzne czysto matematycznie pod sprzęt przyszłości, byle zadławić sprzęt, z bardzo małym zyskiem faktycznej jakości, który zauważą lub usprawiedliwią sobie tylko nieliczni
— Ci nieliczni, którzy łapią się na zabieg developerów powyżej i nie mogą znieść, że na karcie na którą wydali tyle oszczędności nie mogą pograć na swoich własnych warunkach, czyli suwaczki "na prawo patrz" bo taką opcję przecież oficjalnie dał developer
I mamy takie fajne zamknięte kółeczko samonapędzające się co roku, gdy tylko wyjdzie kolejny "najszybszy" sprzęt, który bardzo szybko tą koronę traci.
Ciekawi mnie kiedy niektórzy zrozumieją, że to właśnie ten sprzęt napędza suwaczki "na prawo"... (czy to aktualny najszybszy na rynku czy też taki, który jeszcze nie wyszedł, ale wyjdzie już całkiem niedługo na 100%)
Za ~2 lata wyjdzie karta, która będzie dała radę mieć ~2x tyle fps na tych samych suwaczkach, a ten RTX 3090 stanie się już przestarzały. Jak zawsze.
Wybacz, ale moim zdaniem mocno przesadzasz.
W tym co mówisz jest jakaś prawda, natomiast to nie jest tak, że drogi, dobry sprzęt będzie po 2 latach do duszy.
Miałem komputer ze średniej półki I5 4590k (chyba nie pamiętam dokładnie modelu), R9 280X OC Gaming, 16GB Ram. Sprzęt kupiony na premierę wiedźmina, nie byłem w stanie grać w ,,Wieśka" nawet na wysokich przy rozdzielczości FullHD, nie mówiąc już o najwyższych możliwych ustawieniach.
Potem w połowie 2017-tego zakupiłem naprawdę mocny sprzęt I7 7700k, GTX 1080ti oraz 32GB Ram. Do tej pory większość gier śmiga w 60-144fps i rozdzielczości 2k, oczywiście są wyjątki i przy takim RDR2 czy najnowszym Metro, musiałem odrobinę pobawić się suwaczkami. A to filtrowanie anizotropowe dać z x16 na x8, albo cienie z ultra na wysokie, ale bądźmy szczerzy...różnicy praktycznie nie zauważysz.
Także, gdyby ktoś zapytał mnie czy warto wydać 3500zł na sprzęt ze średniej półki lub 8000zł na ten z wysokiej, bez wahania wybiorę droższą opcję. Koszt dwukrotnie wyższy, natomiast kiedy gorszy komputer od początku miał jakieś mniejsze, większe problemy, a po 2 latach był jak konsola - do duszy i gotowy na wywalenie aby zostać zastąpiony przez nową generację, tak droższy sprzęt po 3.5roku nadal śmiga i ma się świetnie. Zapewne nie wymienię go przez kolejne 2 lata.
W takim razie być może źle się wyraziłem i mogłeś mnie nie do końca zrozumieć. Zdarza się. :)
"Przestarzały" sprzęt to nie to samo co "będzie po 2 latach do duszy." (to sobie sam dodałeś). Przestarzały to taki, który stracił koronę topowej wydajności. Następuje to zawsze po jakimś czasie (krótszym lub dłuższym), jest to naturalna kolej rzeczy i nic się z tym nie zrobi.
Sam fakt o którym mówisz, czyli to, że można całkiem rozsądnie pograć w nowe gry, jeśli tylko nie przesadzamy z ustawieniami (jak niektórzy developerzy i użytkownicy) i mamy rozsądne oczekiwania — to jest fakt, z którym się totalnie zgadzam jeszcze zanim w ogóle napisałem ten powyższy komentarz. Ma to zastosowanie do każdego sprzętu (nie tylko topowego).
Sprawa inwestycji w topową półkę sprzętu to już kwestia totalnie subiektywna i indywidualna dla każdego. Ani się nie zgadzam, ani nie popieram specjalnie. Jak u Ciebie to działa i się sprawdza, to najważniejsze :) Bo właśnie o to chodzi.
Powiem tak też przy okazji, że aktualnie gram na Intel HD Graphics 4600 (integra z 2013 roku) i bardzo chciałbym mieć tak szybką kartę jak R9 280X. Wtedy mógłbym pograć sobie np. w AC Odyssey. Lub w Watch Dogs w rozdzielczości większej niż 720p i fps wyższym niż ~30 :)
Ubi to chyba specjalnie tak robi gry na PC. By się wydawało że ich gry tak zarzynają sprzęty to muszą być super. Oby się na tym partactwie przejechali.
Dobrze, że jestem fanem Full HD i wysokich detali, jeszcze długo nie będę się musiał martwić o optymalizację ;)
To jakim cudem na XSX i PS5 mają działać w 4K 60FPS? Domyślam się, że zapewne jest to dynamiczne 4K.
Wersja na XSX i PS5 działają w FAKE 4k, nie są to ustawienia ultra ani stałe 60fps, szczególnie PS5 gdzie jeszcze niższą ma rozdzielczość niż XSX
gra była uruchamiana na ustawieniach ultra , na konsolach to co najwyżej będzie high
Na PC główna przyczyną słabej wydajności jest ponoć Denuvo na konsoli tego nie masz. Śmieszne te analizy że konsole to poziom High poczekajcie na konkretne testy a nie jakieś gdybanie.
radzik21. to nie gdybanie. Nie ma czegoś takiego jak magiczna moc obliczeniowa. WSZYSTKO kosztuje. Więc normalne że muszą te gry ostro optymalizować do średnich/ wysokich i zawsze tak było. do tego na pc włączasz wiele ustawień których nie ma na konsolach. W tym ray tracing napewno nie będzie na ultra. Na testy się poczeka ale wystarczy zobaczyć jak było w poprzednich generacjach. Sam styl optymalizacji na konsolę się wiele nie zmieni . Tym bardziej że to robią twórcy gier a im zależy tylko na osiągnięciu pułapu klatek. Co będzie ciężkie skoro moc obl nowych konsol nie jest równa 3070 rtxowi ani nawet radkowi 6800 ale w końcu celują w 30 więc jest szansa na 4k
Bo to nie czasy na 4k. Chcecie to grajcie na 40 fps w kompie za 15 k
Druga rzecz, co to za granie w 60 fps i modlitwa czy nie spadnie. By to miało sens musiało by trzymać w luźnych momentach 80-90. Jaka gra akcji utrzyma 60fps +/-10 ??
Daje +1
Przecież pisze jak byk ze gra była testowana pod ustawienia ultra, a wiadomo jak wygląda uruchamianie takich ustawień gdzie większość użytkowników nie widzi różnicy miedzy high a ultra oprócz mniejszej liczby klatek, już odyssey z swoimi globalnymi chmurami pokazał jak się zażyna wydajność, a wystarczyło obniżyć właśnie to ustawienie i mieliśmy przyrost nawet o 15 klatek
https://www.youtube.com/watch?v=4RHRfI932iM
A teraz proszę o wskazanie jakiejkolwiek różnicy graficznej miedzy ustawieniami jakości na powyższym materiale oprócz liczby klatek
Ciężko cokolwiek zobaczyć bo sama nazwa ustawienia brzmi "wolumetryczne chmury" a na materiale widać głównie skały i drzewa w miejscach gdzie powinny być chmury. Ale w momentach gdzie można spojrzeć na chmury widać że na low chmury wyglądają jak białe plamki na niebie wzięte z rysunku zrobionego przez byle dzieciaka na plastyce w podstawówce a na ultra chmury wyglądają jak chmury.
Nie wiem czy gry Ubisoftu to najlepszy benchmark dla kart, oni są znani z beznadziejnej optymalizacji
Bez denuvo bedzie na ... 3080
Czy ktoś jest zaskoczony? Nie dość że graficznie jest tylko "ok" to jeszcze jeszcze optymalizacja leży i kwiczy.
Ha tfuu na ubi.
Na presetach to grają konsolowcy (bo w większości przypadków nie mają wyboru) Po to są opcje graficzne w grach komputerowych by z nich korzystać. Na pewno jest jakiś żarłok, który wpierdziela FPSy, a nie zmienia praktycznie nic.
Pamiętam że w AC Odyssey mój gtx 1080 to nie była wystarczająco mocna karta do 1080p/60fps. Na absolutnie wszystkim wymaksowanym miałem pomiędzy 40 a 50 fps. Powodem była jedna z opcji graficznych, coś chyba z wolumetrycznymi chmurami którą trzeba było obniżyć lub wyłączyć i od tamtej pory zawsze 60fps.
To prawda, w Odyssey wystarczyło dać chmurki na średnie i framerate znacznie się zwiększał : )
Takie tam gadanie :)
Jutro odbieram XSX z AC Valhalla, a w domu czeka 3090 i AC Valhalla w ramach Uplay+, więc porównam obie wersję na tym samym ekranie (4K) i zobaczymy.
Watch Dogs Legion na ustawieniach RTX Ultra i z DLSS włączonym "balanced" działa w stałych 60fps na 3090, więc nie mam mowy o "kiepskiej" optymalizacji, szczególnie przy takiej jakości grafice. Jak ktoś nie wierzy - niech sobie zobaczy jak ta gra wygląda z ray tracingiem na poziomie ULTRA.....
Nie przeszkadza ci rozmycie tekstur w dlss na balanced? Przecież obraz wygląda tak , jakby się miało wadę wzroku. Strasznie skopali to w tej grze.
nie przeszkadza ... ale faktycznie jest neiwielka, ale wyraźna różnica między quality i balanced
w takiej sytuacji niestety chrupie już momentami, więc RTX musi wrócić na ustawienia średnie - co i tak robi robotę
generalnie dla mniew pierwszej kolejnosci liczy się płynność w natywnej rodzielczości - czyli 4K - 1% low fps min 50 i wtedy reszta się jakoś dopasuje :)
Pewnie znowu będzie tak samo - dać wolumetryczne chmury na niskie, ewentualnie obniżyć jakieś pomniejsze detale o jeden i już, wygląda prawie tak samo, działa 50% lepiej. Ja często nie widzę większych różnic między średnimi, a ultra, za to perfekcyjnie odróżniać 30fps od 60fps :v
Ustawienia graficzne na PC to świetna rzecz, problem jest tylko, gdy ludzie ich do końca nie ogarniają.
Fakt, warto w nowych tytułach pobawić się ustawieniami i zobaczyć jak dane efekty wpływają na wydajność, często między ultra a high różnice są niezauważalne a wydajność skacze do góry, pomijam fakt słynnych chmur wolumetrycznych w Odyssey.
No wiadomo ustawienia są po to żeby się nimi bawić i sobie wszystko ustawić jak się chce. Problemy zaczynają się gdy między ustawieniami ultra a low nie ma zbytnio różnicy w wydajności :)
Kęsik, przestań wymyślać. Mam wrażenie, że piszesz, nie ogrywając gry, w Odyssey mam przegrane ponad 100h i sprawdzałem ustawienia na wylot aby dostosować je idealnie, między low a ultra jest kolosalna różnica, pomijam fakt, że można dostosować grę tak aby wyglądała prawie tak dobrze jak na ultra i chodziła płynnie.
rok temu był płacz nad opytmalizacją RDR2, a tymczasem kowboje dają radę w 4K na 3090 i wyglądają o wiele lepiej niż rok młodsi wikingowie: https://www.youtube.com/watch?v=MPiD-R3YQOw
A da radę uruchomić grę na lapku GTX1050 4GB, i7, 8Gb ram.
Na ustawieniach Low tak by były stałe 30 FPS?
Ciekawe jakim cudem w takim razie nasz polski Corle wstawia materiały na YT w rozgrywce 4k i (chyba) wysokimi detalami na RTX 3080 w 60 fpsach ze spadkami do 50 w maksie. Bzdura jakaś.
jeśli nie podaje szczegółów - to można się domyślać, że ustawienia są "pocięte", ale to jest możliwe na spokojnie do ogarnięcia - niewielkim kosztem w jakości grafiki. 3080 jest tylko ŚREDNIO o 10-15% wolniejsze od 3090, ale różnica jest dotkliwie odczuwalna w 1% low fps - gdzie dodatkowa moc 3090 jest nie do przecenienia (no chyba, ze komuś mikro dropy nie przeszkadzają :) ).
Aż z ciekawości włączyłem sobie filmik Corle. Jak dla mnie to on ma tam pokaz klatek a nie grę.
Miałem nadzieję, że zagram na kartach serii RTX 3xxx w 4k60fps. Ostatnio jednak kupiłem TV Oled 4k i okazało się, że 1440p wygląda doskonale dzięki świetnemu upscalingowi telewizora. Kiedyb jeszcze zobaczyłem płynność przy 100 lub 120Hz, przesunąłem na przyszłość plany gry w 4k i ostatecznie wybieram 1440p@100lub 120 Hz, "Wszystko na ultra" na i9-990k i RTX 3080.
Ubiszaft i optymalizacja na PC. Poprzednie dwa AC chodziły koszmarnie więc nie jest niczym dziwnym że nowy chodzi jeszcze gorzej. Tego należało się przecież spodziewać. Ten ich silnik od AC to tylko na śmietnik się nadaje, z nim zawsze były jaja na PC. Nie ważne czy to była wersja silnika z ACIII, Unity czy Origins.
Oczywiście wszyscy zwracają uwagę na grafikę ale spójrzcie co tu się wyrabia
https://youtu.be/8q52rKXsDlI?t=386
i porównajcie to z takim RDR2. Podobnie zresztą z animacją i zachowaniem tego jelenia.
fajne porównanie zwłaszcza jak się wyczyta ile czasu spędzono przy produkcji oraz kosztach obydwu tych gier...
No, wygląda genialnie.
I zwrócie uwagę jak responsywny jest nowy Assassin. Kowboj z RDR2 żeby dosiąść konia potrzebuje z 5 minut. Nie wspominam już o tym, że żeby ruszyć koniem w podróż musi go nakarmić, wyczesać i po szudrać po ja*ach.
Cieszcie się widokami na wersji 1.0 bo wersja 1.1 albo 1.2 będzie downgradem.
-Przeciętna optymalizacja i srogie spadki fpsów
Ta gra nie jest jakoś super szybka, wiec tutaj brak 60 klatek przy 4k prawie nikogo nie zaboli, zwłaszcza ze gra chodzi od 50 do 60 wiec małe spadki. Przy fullhd jest bardzo dobrze i przy 1440 także, wiec 4k można sobie darować.
Główną przyczyną słabej wydajności na PC jest ponoć Denuvo, więc prawdopodobnie tutaj leży przyczyna. Na konsolach nie ma tego zabezpieczenia więc mimo waszych wróżb na tym sprzęcie gra może chodzić całkiem przyzwoicie.
Jedna wielka kpina, ta seria chyba od zawsze miała skopaną optymalizację.
Biorąc pod uwagę, że przeważnie gram w starsze gry na opcjach jakie zapewnia mi mój komputer lub w nieco nowsze gry na średnich ustawieniach, czasami nieco zastanawiam się, jak bardzo odbiegam od przeciętnej części społeczności graczy.
Klasyczne dno ubi szrota, optymalizacja żadna, z tego co widać jeden rdzeń cpu i tak 99% czyli nawet mocniejsza karta za wiele by tu nie dała.
Całe ubi, pełno zapasu mocy na cpu, ale nie, po co, lepiej zrobić na odwal się, przynajmniej jest w końcu dx12, więc jest jakieś światełko, że choć trochę to zoptymalizują.
Nie ma co jęczeć, tylko trzeba pokombinować ustawieniami graficznymi. Na 1440p w Odyssei mam cały czas ponad 60fps (wszędzie! nie tylko poza miastem) a zmniejszyłem wygładzanie krawędzi z wysokiego na średnie, cienie z Ultra na Bardzo wysokie i Chmury z Ultra na Bardzo wysokie.
Macie nie równo pod sufitem, co w tym dziwnego że gra nie będzie chodziła na 60 FPS w 4K, przecież zaledwie 3% graczy gra w 4K i to dane z całego świata, założę się że w polsce jeszcze mniej.
Chyba że większość tutaj to osoby z grubym portfelem.
Nie mam grubego portfela,nie mam 3090 a gram we wszystko w 4K l, tyle, zevz cieniami na medium (bo ich jakości nie da się rozróżnić w ruchu w grze) i bez AA (bo nie widać go w 4K).