Wymagania sprzętowe LotR Gollum są wysokie, budzą niepokój
Ta gra ni cholery nie wygląda jak by miała mieć takie wymagania. A to znaczy, że optymalizacja jest skopana w uj i pewnie w niektórych miejscach się będzie siepić aż miło, nawet na mocnym sprzęcie.
GTX1080
Na średnich ustawieniach w rozdzielczości 1080p
No ładnie lecą gdyby ta gra jeszcze miała grafikę z nowej generacji to było by to zrozumiałe.
Jak ktoś nienormalny kupił preorder to niech go jak najszybciej wycofuje. Przecież oni będą to łatać przez najbliższy rok albo dwa xD
Jak ktoś nienormalny kupił preorder to niech go jak najszybciej wycofuje. Przecież oni będą to łatać przez najbliższy rok albo dwa xD
Ta gra ni cholery nie wygląda jak by miała mieć takie wymagania. A to znaczy, że optymalizacja jest skopana w uj i pewnie w niektórych miejscach się będzie siepić aż miło, nawet na mocnym sprzęcie.
GTX1080
Na średnich ustawieniach w rozdzielczości 1080p
No ładnie lecą gdyby ta gra jeszcze miała grafikę z nowej generacji to było by to zrozumiałe.
Wymagania sprzętowe to jest najmniejsza sprawa, która budzi niepokój w przypadku tego wysrywu xD
zabawniejsze jest wymagania RAMu, sama gra ma 45GB a ramu trzeba 32?
juz boję się wiedzieć ile trzeba na RT
Jaka ta gra to będzie piękna porażka. Nie dość, że sama g ra wygląda przeciętnie, chociaż parę elementów może mieć fajnych, to te wymagania są żartem. Te wymagania z 32 gb ram, to raczej na 4k powinno być, a i tak byłoby za dużo, jak na tak wyglądającą grę. 16 gb ramu na średnie w FHD to też lekki żart.
Procesor: Intel Core i3-6100 / AMD Ryzen 5 2600
Karta graficzna: Nvidia GeForce RTX 3080 (przy wykorzystaniu DLSS)
tani procesor z 2015 i RTX 3080, niezłe combo XD
PROMOCJI NVIDII CIĄG DALSZY.
Po procku widać, że wymagania co do karty są na wyrost.
Heh.. No i 32 GB pamięci jak we Flight Symulator to już jest grube przegięcie, a gra wygląda normalnie, wręcz przeciętnie jak na dzisiejsze czasy, czyli szału żadnego nie ma.
Karta graficzna: Nvidia GeForce RTX 3080 (przy wykorzystaniu DLSS)
przy wykorzystaniu DLSS
Nowy standardzik na przyszłość się szykuje, korporacje znowu zrobiły was bez mydła, mówię was bo mnie nie gdyż od samego początku wiedziałem, że to nowy patent, przekręt aby sprzedać nowe podzespoły bo przecież wymagania gier są sztuczne zawyżane, a barany nadal się podniecają nowy kartami graficznymi i te ich durne analizy, liczenie pikseli itp. bzdety. też się tym jarałem 15 lat temu ale kto tego nie widzi na 2023 rok jest po prostu głupi.
Dlatego się powinno jechać jak po szmacie po tej grze by inni twórcy nigdy więcej takiego zabiegu nie robili.
DLSS czy FSR to wspomagacz nie czysta rozdzielczość jeśli ktoś z dev podaje w wymaganiach DLSS lub FSR to jest dla mnie nikim i nie ważne jakie studio to robi.
Tak chłopie, masz racie. Na Tobie korpo nic teraz nie zarobi, jednak jeśli grasz w gry i interesujesz się sprzętem komputerowym i go kupujesz, to wcześniej czy później to się na Tobie odbije. Nawet jeśli grasz na konsolach, to i Sony czy Nintendo stosują swoje własne metody na zarabianie, ku uciesze ludu a lud sie cieszy, bo ma zabawę przed TV i konsolą.
PC staje się powoli sprzętem luksusowym i dla wybranych osób. Nie każdy będzie mógł grać na PC, bo ceny grzałek i wydajność słabszych układów nie idą w parze i albo kupisz sobie topowy układ albo nie kupisz wcale ale trzeba być mega naiwnym aby myśleć, że to Nvidii udzie na sucho i nie odbije się na nich za powiedzmy 4-6 lat.
Tak tak, masoni, reptilianie i 8sma gęstosci. jpd -_-;
Jak masz zerowe pojecie o gamedevie to milcz, bo komorki w mozgu sie pala od czytania takich gowno-postów.
Tymczasem nowy Jedi ma w zalecanych 16 GB RAM a w minimalnych tylko 8 GB.
Gra na trailerach wyglada bardzo przeciętnie, niczym się nie wyróżnia a wymagania są za to wysokie. Być może jak już wyjdzie, to nie będzie tak słabo i mniej wydajnie PC sobie z grą poradzą ale jeśli to nowy sposób na wymuszanie zmiany podzespołów( bo te schodzą ostatnio bardzo słabo), to niech się bujają i pieniędzy ode mnie nie zobaczą.
Gra ktorej premiera zostala opozniona bo nikomu nie urwala dupy w koncu wjezdza z absurdalnymi wymaganiami (ciekawe jakie sa dla 4k) i doplata do pelni klimatu. Juz sie wypi.am na zakretach po ten preorder.
Nie śledzę gry tej gry, ale to, co się odwaliło w prockach jest dla mnie niepojęte xD.
Tylko pomachać
Na swoim GTX 1080 jestem wstanie grać na mieszaninie wysokich/ultra w 40/50 klatkach.
Albo na uber+ w W3 dx11 w 4k w 40 klatkach
A tu mi starczy na najniższe?
No nieźle... Rozumiem, że najniższe to te na których zostały nagrane wszystkie zwiastuny?
Pomijając fakt że te wymagania są za wysokie raczej, to Wiedźmin to nadal gra która ma 8 lata nieważne z jakim patchem to nadal ośmioletnia gra. W żadnej nowej grze aaa nie pograsz na tej karcie w 8k.
Spece od marketingu tej gry są chyba z łapanki. Jak można nałapać takiego anty-hajpu jeszcze przed premierą? Rozumiem, szczerość jest cnotą, ale tutaj ktoś ewidentnie zawalił.
Gra której nikt nie chce, nikt na nią nie czeka. Historia głownego bohatera mało ciekawa, a on sam wygląda jak z bajek dla dzieci. Dodatkowo mamy wymagania wyśrubowane w kosmos. Można się tylko domyslać, że na premierę będzie niegrywalna lub gracze uświadczą takich dropów klatek, że 3/4 zrezygnuje po 15 minutach. Ah, ale już czekam na te płacze twórców, ze gra się zle sprzedała i muszą zamknąć studio :)