Tak pisałem kilka lat temu. Grałem wiele lat na na konsolach X360 i Xbox One prawie wyłącznie w gry w 30 fps i było dobrze. Potem kupiłem Xbox Series X i jakoś tak się złożyło, że ogrywałem tytuły w 60 fps i ni stąd ni zowąd nie potrafię już grać w gry w 30 fps. Jest to dla mnie jakby pokaz slajdów, sprawia, że gra staje się niegrywalna. Denerwuje mnie to, bo wykluczyłem siebie z ogrywania starszych tytułów, niedostosowanych wydajnościowo do no nowej konsoli. Jak żyć...
Miałem tak samo po przesiadce na wyższy level. Ciężko jest przywyknąć po przesiadce z powrotem do 30FPS ale nie niemożliwe. Mi wystarczy że dłużej pogram to się pomału przyzwyczajam i nawet idzie grać na tylu FPS.
Wolę grafikę jak w gothiku i 60 klatek niż męczyć się na 30. Dajcie spokój, te czasy już powinny bezpowrotnie zostać w przeszłości, gry których twórcy nie potrafią zoptymalizować na konsolach pod 60 klatek i tak w większości przypadków nie wyglądają zauważalnie lepiej od tych dobrze zoptymalizowanych
No widzisz, a ja wolę miec grafikę jak w RDR2 i 30 klatek niż męczyć oczy na pikselozie w trybach wydajności. Mam nadzieję też ze będzie coraz więcej gier wykorzystujących VRR dzięki, któremu jest fajny kompromis w 40 klatkach.
Ja trochę przekoloryzowałem swoją wypowiedź, bo zazwyczaj różnica w jakości oprawy między trybami jest prawie niezauważalna, a w płynności jak najbardziej.
Ale nawet jakby było tak jak piszę, nadal wybrałbym 60 klatek
Jak mam do wyboru lepszą oprawę (30 fps) i gorszą (60fps) to wybieram lepsza oprawe
Jak jest stałe 30 fps to spoko sie gra
Ja znowu mam odwrotnie. Wolę stałą liczbę FPS ale gorszą grafikę. Jednak są limity bo jak mam spadki FPS i jednoczenie mam grać w rozdziałce 800x600 i wszystko na minimum to już wolę nie grać.
Dlaczego wybierać między 30 a 60? 30 to rzeczywiście pokaz slajdów ale między 45 fps a 60 różnica jest minimalna, przynajmniej dla mnie. Tak więc dyplomatycznie wybiorę właśnie coś pomiędzy.
45 fps jest gorsze od 30, bo klatki nie wyświetlają się równo, chodzi też od odświeżanie telewizora bądź monitora
Też z miłą chęcią się poświęcam i gram na tych 30 gdy widzę, że muszę znacząco pogarszać grafikę by dojść do stałych 60 lub 75. A zresztą te klatkowe wojny mi zwisają, połowę gier z dzieciństwa pamiętam jako pokazy slajdów, po takim treningu to sam nie wiem czy widzę więcej niż 30.
powinieneś pomyśleć o komfortowej karcie 8 GB do FHD. nie są to duże pieniądze. RDR2 na starym sprzęcie cyka mi 60-100 fps
Granie na PC porzuciłem w okolicach 2018-19 roku i raczej nie widzę do tego powrotu bo obecnie nie cierpię grać na kompie nawet w starsze tytuły. Wolę je kupić jeszcze raz na PS/Xbox i ograć na konsoli niż instalować na PC.
PS
Mam RDR2 na PC, który działa w 50 klatkach (60 z użyciem FSR) a i tak wolę pograć w niego na Xboxie/PS.
Do tego jakbym już miał kupować kartę to tylko do 1440p bo FullHD zaczyna mocno trącić myszką i na moim monitorze wygląda paskudnie.
Aby przestawić się na mniejszą ilość klatek, to przeważnie wystarczy mi pięć minut i przestaje to zauważać. Oczywiście cały czas jestem świadom że jest mniej, bo w pewnych momentach czuć to bardziej, ale ogólnie nie robi to na mnie wrażenia.
No też się cieszę, że teraz już większość gier konsolowych ma te 60 fpsów. Jak mam wybór to sam wyłączam oświetleniowe bajery dla płynniejszej rozgrywki. Z tym, że mimo wszystko dosyć łatwo mi jest się przestawić. Jak wracam do jakieś starszej produkcji z 30 fps to zwykle jest na początku pewien szok, ale już po pół godzinie przestaję na to zwracać uwagę. Do wszystkiego można się przyzwyczaić.
Zawsze stawiam na wydajność. Z prostej przyczyny, różnice w grafice pomiędzy trybami jakościowymi a wydajnościowymi są zazwyczaj kosmetyczne i w trakcie rozgrywki całkowicie pomijalne. To jak z jakością drzew czy publiki w grach wyścigowych, po godzinie grania przestaje to mieć jakiekolwiek znaczenie. Chciałbym aby stabilne 60fps było minimalnym wymogiem aby w ogóle wydać grę na konsolach.
ja nigdy nie widzilem roznicy a przynajmniej tak mysle
czy moge sobie na konsoli ps5 ustawic jakas gre w 30 klatkach a poznienj w 60 by zobaczyc czy widze roznice?
Na PS4 niektóre gry miały opcję grać w 60fps kosztem słabszej grafiki lub 30fps i grafika super. Ja tam różnicy w klatkach nie widziałem a grafikę oko cieszyło przez pół godziny? A potem już tego się nie zauważało. Nie wiem jak jest z PS5, bo obecnie tej konsoli nie posiadam ale sądzę, że to musi być tak jak z PS4 czyli dana gra musi posiadać taką opcję.
Po co więcej? Żebyś mógł się pochwalić na forum :)
Ja mam tak jak
Nie wiem. Mi też grafika w grach nie przeszkadza. Mogę ze spokojem zagrać sobie w jakiś staroć i mi to nie przeszkadza. Jeśli gra ma wciągającą fabułę, dobrą mechanikę i dobrze się steruję bohaterem to więcej już nic mi nie przeszkadza. Fizyka gry też nie ale poważne glicze już tak. Jest taki jeden np. w grze Medal of Honor: Pacific Assault.
Np. Prince of Persia 3D nigdy nie ukończyłem z powodu skopanego sterowania bohaterem.
W takim Cyberze na ULTRA + full RT+ DLSS w 1440p na RTX 3070+11900F mam ok 60FPS ze spadkami do 50fps i gra mi się dobrze, ale 30 fps to już przycięcia i małe lagi. Tak więc to też zależy od gry/odczucia.
Oczywiście wolę większą ilość klatek oraz lepszą grafikę, ale dla mnie bardziej liczy się to, co gra ma do zaoferowania.