Avatar: Frontiers of Pandora kontynuuje trend gier z wysokimi wymaganiami sprzętowymi
Dla mnie uwzględnianie technologii FSR i DLSS w wymaganiach to patologia. To powinno być pomocniczym dodatkiem a nie wyznacznikiem tego czy gra będzie działać.
A ja kontynuuje trend nie kupowania nowych nie zooptymializowanych gier. Same plusy, za rok będzie w promce za pół darmo i do tego załatane.
Jak na wymagania bez RT to grubo.
Kolejna dziwna rzecz dlaczego FSR 2.0 jak już AMD opracował FSR 3.0.
Powiedziałbym, że całkiem spoko w mojej opinii gdyby nie ten FSR w każdym jednym ustawieniu.
Dla mnie uwzględnianie technologii FSR i DLSS w wymaganiach to patologia. To powinno być pomocniczym dodatkiem a nie wyznacznikiem tego czy gra będzie działać.
A ja kontynuuje trend nie kupowania nowych nie zooptymializowanych gier. Same plusy, za rok będzie w promce za pół darmo i do tego załatane.
Owszem, kupisz w promce za połowę ceny ale czy grę załataną i naprawioną, to nie wiem. Jeśli gra ma duże wymagania co do sprzętu, to patchem już tego nie poprawisz. Bardziej prawdopodobne, że przez ten czas zmienisz coś w PC: kartę, dodasz więcej Ram niż będziesz czekał na magiczną optymalizację.
Cóż jest troche lepiej niż z alanem ale tylko troche. Jak widać że po co optymalizować gre jak można dać FSR/DLSS. Mam nadzieje ze to sie zemsci i gracze w końcu przestana kupować te gry
Wymagnia może by i uszły, gdyby nie to FSR 2.0 już jako standard... Aczkolwiek szkoda, że UBI też pocisnął, bo rewolucji graficznej chyba tam nie ma, a silnik przecież znany i nieźle zoptymalizowany (choć akurat z trójcy Anvil, Dunia, Snowdrop - ten ostatni jest najgorszy)
To będzie norma w grach pisałem żeby bojkotować każdą grę która podaje w wymaganiach FSR DLSS ale można mówić jak ściany.
To teraz będzie norma.pogratulować tępym dzidom swojej durnoty
Przez 20 lat zelazną regułą w gamingu było to ze grało sie w NATYWNEJ rozdzieczosci.To było najwazniejsze przykazanie a reszta opcji graficznych była tylko dodatkiem(moze poza teksturami na low).Dzis mamy rok 2023 a graczowi wmawia sie ze co tam ze bedzie grał w 720 p ,co tam ze mydło ktore robi dlss,fsr czy inny cudowny "dodawacz klatek" :lol sprawi ze cały ekran podczas gry wrecz płynie(brak jakiejkoiwlek ostrosci tekstur i efekt mydlanych tekstur,radze zwrocic uwage jak wygladaja gry bez dlss i taa =podpowiem ze chocby Kingdome COme Delivernace ) ale grunt ze bedzie widział ray traicing i odbicia w kałuzach oraz cienie tak te gdzies tam oddalone o 20 metrów od postaci.naprawde to co sie dzieje w obecnym game- devie wrecz przeraza,no ale obecne pokolenie graczy pozwala na to .Pisze obecne bo tamto strasze ,chocby 10 lat temu wywiozło by obecnych
pseudo -twórców gier na taczkach.
Jako przedstawiciel tamtego pokolenia graczy wypowiem się.
Nie.
Jakby wszystko co widzisz na ekranie monitora to iluzja. Czepianie się, że coś jest w takiej rozdzielczości i podbijanie do innej przez algorytmy AI nie ma sensu.
Patrzysz na wyświetlacz, na którym wszystko jest tworzone z 3 lub 4 różnokolorowych subpikseli, tylko twój wzrok ich nie widzi od pewnej odległości i łączy je w miliardy różnych kolorów.
Tak samo z klatkami na sekundę - wystarczy, że jest ich odpowiednia liczba, a tobie wydaje się już, że to nie osobne obrazki, a płynny ruch.
I jasne, na stop klatce zobaczysz różnicę w takim Kingdom, ale w gry się raczej nie gra z prędkością 1 klatka na minutę szukania dziury w całym.
Także nie ma co się czepiać, że ktoś tu nas oszukuje, bo od zawsze oszukiwaliśmy tu nasz wzrok.
Inna sprawa, to, czy robi to dobrze;
a jeszcze inna to lenistwo dzisiejszych twórców co do optymalizacji...
I tu pewnie się zgadzamy i kogoś na taczkach trzeba by wywieźć
Niekoniecznie - ja, ponad 20 lat temu na początku swojej przygody z PC grałem w najniższej rozdzielczości, czyli 800x600 i nie wiedziałem, że jest jeszcze wyższa ;)
Do 2010 roku grałem w 1280x1024 a dopiero od 3,5 roku gram w 1440p.
Gra niekoniecznie musi być źle zoptymalizowana, mogła być po prostu projektowana z myślą o "generatorach klatek", żeby dzięki temu osiągnąć lepszy poziom grafiki, ale bez rezygnowania z płynności. Zamiast więc celować w natywne 60 FPS, twórcy mogli optymalizować np. pod 30-45 klatek, zyskując na tym bogatsze otoczenie, więcej detali, lepsze tekstury itd. Jeżeli dodatkowo wzięli pod uwagę lekkie opóźnienie powstające przy użyciu FSR i DLSS, to całość może być całkiem niezauważalna dla gracza (ci, którzy Aavatara testowali, mówią o dużej płynności gry i braku wyczuwalnych lagów). Moim zdaniem jest to lepsze zastosowanie tej technologii, niż jako koło ratunkowe, gdy sprzęt się dławi, a klatek brakuje (o ile oczywiście mamy z tym do czynienia w tym przypadku, bo tego nie wiadomo).
Póki co, Avatar zapowiada się na najładniejszą grę na rynku. Jeżeli komuś uda się osiągnąć taki poziom graficzny przy zachowaniu stałych 60 FPS, podobnych wymaganiach sprzętowych i braku generatorów klatek, wtedy będzie można mówić o partactwie czy lenistwie ludzi z Massive.
Czyli nawet najlepsze karty graficznie by tą grę uciągnąć muszą grać w niższej rozdzielczości, która jest przerabiana na wyższą, to jest ŻAŁOSNE.
Obojetnie jak to bedzie dzialac, singloplayerowy plebs i tak kupi, a potem bedzie narzekac. Po co maja sie starac ?
Co innego multiplayery. Tworcy musza sie starac, bo inaczej ludzie beda mieli ta gre w tylku i skonczy sie kasa w plecy. Gra musi dobrze działac.
Multi to przyszłość branzy, a nie te coraz bardziej gowniane gry single, niedopracowane buble, za ktore zadaja spore pieniadze.
Dobrze sie czujesz? Chyba nie. Nawet najgorszej zrobiona gra single, wciąga gówniane live service multiplayer nosem. Maksymalnie rok dwa i owa gra multiplayerowa umiera, a gry singleplayer są nieśmiertelne. Wystarczy spojrzeć na Gothica albo Wiedzmina 1-3, a popatrzmy na Halo, pioner gier multiplayer. Nikt nie gra nawet w Master Chief Collection. Idz sobie pograj w tego chinskiego gównianego PUBGa i nie rób z siebie pajaca
"Ale ja w ogóle mam alergię na Avatara i ten świat..." Ta? To zajebiście. To po grzyba tu wlazłeś i walisz normickimi komentarzami. Za robote sie weź, a nie siedzisz tu 24/7, bo nawet to widac w twoich statystykach, prawie 5 komentarzy/dzień.
Jaki piękny, PeCetowy ból dupki widzę w komentarzach xd.
Przecież każdy z was ma w domu potwora który to pociągnie w 4k na ultra. O co ten skowyt?
Ludzie nie kupujcie tych półproduktów, gdzie w wymaganiach podaje się techniki skalowania obrazu, ta patologia developerska musi się skończyć.
Przynajmniej RAM-u wystarczy 16 GB, a nie jak w Hogwart's Legacy 20-22 GB (czyli realnie 32 GB potrzebne, bo mało kto ma konfigurację 24 GB).
Trend z "mamy wywalone na optymalizacje" jest kontynuowany.
A ja kontynuuje trend nie kupowania nowych nie zooptymializowanych gier. Same plusy, za rok będzie w promce za pół darmo i do tego załatane.
Ludzie nie kupujcie tych półproduktów, gdzie w wymaganiach podaje się techniki skalowania obrazu, ta patologia developerska musi się skończyć.
Kiedy wy w końcu zrozumiecie, że to nie wina twórców gier, a po prostu Nvidia i inne korporacje dymają was tak samo jak np. Pfizer.
To oni niszczą optymalizację gier aby wymuszać kupowanie nowych podzespołów także wyjściem jest bojkot korporacji, a nie, że gry "nie kupować".
Bojkot nVidii? Oj Wania, ale jeśli to nVidia wpływa na deweloperów, to nie za darmo. Więc jak po dupie dostaną deweloperzy, to ich drugi raz nVidia nie kupi. Panimajesz?
Zaś jeśli deweloperzy żadnej straty nie poniosą, to metod nie zmienią, ciągnąc z dwóch cyców na raz.
Nie zapominajmy o denuvo,bo to zapewne jeszcze dowali do pieca.A Ubi głupich lubi,wiec chetnych znajdzie na gre kupe.No i exclusive Epica
Wszystko zależy od tego jak graficznie gra się prezentuje.
Problemem nie są wysokie wymagania sprzętowe, a nieuzasadnione wysokie wymagania sprzętowe. Idealnym przykładem jest tutaj Starfield, gra wygląda dużo gorzej od konkurencji z niższymi wymaganiami. CP2077 czy RDR2 na premiere też miały wysokie, ale wyglądają fenomenalnie i przesunęły granicę tego jak wyglądają gry.