God of War Ragnarok ze wsparciem HDMI 2.1; znamy wszystkie tryby graficzne
Ergo - > przepustowosc.
mógłbyś zrobic minimalny research, zanim zaczniesz weszyc spiski.
Przecież to są jakieś jaja, i niech ktoś mi powie, że tu nie chodzi o marketing telewizorów z hdmi 2.1....
Nieśmieszny żart, dlaczego gra nie chodzi powyżej 60 klatek na hdmi 2.0? What?!?!?
Ergo - > przepustowosc.
mógłbyś zrobic minimalny research, zanim zaczniesz weszyc spiski.
Jaka przepustowość? What!?!? Ty zrób research za nim komuś coś wypomnisz. Wiesz do czego służy hdmi 2.1? Do gry w 4k i 120 fps. Na hdmi 2.0 możesz spokojnie grać na 1440p i 120fps.
Mhm, to ciekawe jakim cudem Warzone chodzi w 1440p i 120fps. Także nie, przepustowość hdmi 2.0 jest wystarczająca do gry w 120fpsach i niższej rozdzielczości niż 4k, oni sobie po prostu tak wymyślili. Chcą zmusić ludzi do kupna TV z niepotrzebnym hdmi 2.1. Innego wyjaśnienia nie widzę.
HDMI 2.0 miał kilka poprawek bo już w momencie wejścia na rynek był gorszy od DP 1.4 i nie wiadomo czy twój telewizor czy monitor ma hmdi 2.0a czy też 2.0b. A pozatym 2.0 nie obsługuje Dynamic HDR , VRR , ALLM , aARC
To nie ma znaczenia. Bez problemu mogli dać opcję gry w 1080p/1440p i 120fps bez hdr czy innych opcji, ale tego nie zrobili więc już ich tak nie broń.
Mhm, to ciekawe jakim cudem Warzone chodzi w 1440p i 120fps
Skąd to info? W opisach ustawień Warzone są podane takie informacje:
If your display doesn’t support HDMI 2.1, you will need to adjust your resolution first. Switch your display down to 1080p in order to reach the 120FPS mark.
You cannot get 120FPS with a 2160p output unless you have HDMI 2.1 support.
Więc nie, Warzone nie działa w 1440p w 120 klatkach na hdmi 2.0.
gra moglaby generowac wiecej FPS, ale odswiezanie ciagle byloby ograniczone do 60 Hz, wiec mogloby to zrobic tylko wiecej szkod niz pozytku.
HDMI 2.0 mogloby obsluzyc wyzsza czestotliwosc w wyzszej rozdzielczosci, ale tylko w 8 bitowej glebii kolorow.
Wy tak serio? Weźcie jeden z drugim pobierzcie WZ i zagrajcie, a nie opieracie się na jakichś informacjach z tyłka.
Tak, wiem, że odświeżanie to nie to samo co fpsy, ale ilość fps jest uzależniona od odświeżania. Proszę sobie obejrzeć.
Ale co Ty za filmik wrzuciłeś? Przecież tam ten tv nie ma wejścia hdmi 2.1 i gość zaznacz, że nie może włączyć trybu 1440p w 120 Hz, a jeżeli podłączy drugi (czyli monitor), który ma ten standard, to wykryje mu z automatu możliwość 1440p i 120 Hz.
4:50 do 6:00 minuty.
Sam film pokazuje różnice ile tracimy bez standardu 2.1, i czy warto zmieniać monitor/tv z takim wejściem.
Tu masz filmiki też z instrukcją, jak odpalić warzone 120 Hz na 2.0. Zawsze jest informacja, żeby ustawić 1080p.
https://www.youtube.com/watch?v=8QRUh4HDYRQ&ab_channel=JustinReves
https://www.youtube.com/watch?v=tUNusyPbAHg
Dobra, wrzuciłem to na szybko nie do końca to oglądając. Masz tutaj napisane na co Ci pozwala hdmi 2.0.
Nawet jeśli hdmi nie pozwalałoby na grę w 1440p 120fps to już w 1080p pozwala więc wytłumacz mi dlaczego nie ma takiej opcji? Chyba, że Gol znowu w formie i strzelił babola lub niedoprecyzował.
Nie patrz na te stare filmiki i na ps5 bo ps5 nie miał od początku 120fps, a rozdzielczość 1440p wprowadził nie tak dawno.
Wiem, że ps5 miał update, ale dalej 120 fps uzyskasz tylko przy full hd.
To gra singlowa, tu sprzedają się widoczki, więc z wyboru, czy dać 1080p z 120 hz, czy 1440p i 60hz, wybrali to co ładniej wygląda na obrazku. I tak zaskakująco dużo tych ustawień jak na konsolę.
Może dodadzą jeszcze jakieś opcje w późniejszych aktualizacjach, ale wątpię, że będą sobie głowy zaprzątać obniżaniem rozdzielczości dla ponad 60 fps.
Zdaję sobie z tego sprawę, i te 60 klatek w zupełności wystarcza, ale drażni mnie to, że promują hdmi 2.1 gdzie na hdmi 2.0 też gra będzie chodzić w 120fpsach.
Prawda jest taka, że żadna gra na konsoli nie wykorzysta hdmi 2.1, jest ono po prostu zbędne bo konsole są za słabe na to aby gry chodziły w 4k i 120fpsach.
ale przeciez wlasnie Ci pokazalismy, ze 2.1 jest potrzebne.
ten screen, ktory wstawiles wyzej - tak jak Ci mowilem, 2.0 obsluzy wiecej niz 60Hz w 1440, ale w 8 bitowej glebii kolorow, wiec, m.in. bez HDR.
i jak to "zadna gra"? przeciez wlasnie God of War robi uzytek z HDMI 2.1.
sam sobie zaprzeczasz.
Uważasz, że 4k w 40 klatkach to wykorzystanie hdmi 2.1? Fakt, wykorzystuje, ale jest to zbędne bo 30 czy 40 klatek to i tak dramat. Tym co nie przeszkadza gra w 30 klatkach nie będą mieli problemu z granie w 4k 30fps na hdmi 2.0, a wydawać kasę na TV/monito z hdmi 2.1 tylko po to aby mieć 10 klatek więcej jak dla mnie mija się z celem.
a oprocz tego, granie w rozdzielczosci 1440p w wiecej niz 60 klatkach na sekunde, ze wszystkimi bajerami jak, m.in. HDR to tez wykorzystanie HDMI 2.1.
"Tryb wydajności z kablem HDMI 2.0
1440 – 2160p (dynamiczna rozdzielczość), zablokowane 60 klatek na sekundę"
A rozdzielczość wyjściowa jaka? Czy w zależności od ustawień w konsoli?
Nie ma takiego czegoś jak rozdzielczość wyjściowa , może być średnia rozdzielczość , a ogólna zmienia się od sceny
Kiedyś to było miałeś konsolę odpalałeś jakiś tytuł i grałeś, a teraz trzeba tutaj testować jaki tryb będzie najbardziej komfortowy do gry.
Od kiedy gry maja wsparcie dla wtyczek?
Niezle sie zaczyna robic w konsolowym swiecie.
Gry nie moga osiagnac 60hz, ale juz nam wmowili, ze musisz miec 120hz w TV, a w monitorze to 144hz najmniej, a softwarw tego nie wykorzustuje.
Sam sie dalem na to zrobic, tylko wyszedlem z zalozenia, ze TV z 120hz,VRR i hdmi 2.1 na dluzej starczy niz ten bez, a monitor 144hz przydaje sie nawet przy pisaniu tekstu czy czytaniu tekstu.
Gry nie nadazaja za hardwarem, a ile bys zasobow nie dal programiatom czy grafikom, to itak to zmarnotrawia, bo będą coraz bardziej leniwi i jeszcze więcej kopiuj wklej stosować, bo więcej danych w sekundzie sprzęt przeliczy.
Jakby tak zapanowała moda na ekologię w IT i ludzie tam pracujący staliby się ludźmi odpowiedzialnymi, świadomymi i ludźmi honoru i był wyścig kto jak najmniej zasobów hardwarowych zużyje na jak najlepszy efekt, poszliby w oszczędność i reaktywacje starych sprzętów, żeby miliardy ton elektrosmieci poprze, zła optymalizację softu nie generować każdego roku.
Konsole co 10 lat, nowe procesory co 3 lata, karty graficzne co 5, ale wówczas duże skoki wydajności przy spadku poboru prądu.
Zatrzymać ta machinę marnotrawstwa zasobów, surowców, planety i zbędnej emisji CO2.
To itak jest w Chinach składane, więc mniej hardware to mniej kasy dla złych chinoli.
No proszę, to można zrobić sześć trybów graficznych (presetów), bez żadnej łaski i tłumaczeń, że się nie da, bo to dużo pracy, czy coś tam jeszcze innego :).
Gdzie się podział ten blaszany troll, który w tego typu wątkach, wyjeżdżał, że teraz to już "tylko 30 klatek" i zaraz wszyscy będą robić tak jak twórcy nowego Batmana (po linii najmniejszego oporu)? Bo coś dziwnie zamilkł :( Żyje? Czy zawał?
Muszę Cię zmartwić jego narracja była taka, że wszyscy będą robić gry w 30 klatkach, tylko Sony w 60 bo mogą sobie na to pozwolić.
Co do grania w 40fps na hdmi 2.0 to normalnie odpalałem na LG 27GP850 1440p 165hz, Horizon FW, DL2 działają w trybie balans w 40fps, do tego Spider-man Morales też działa w trybie 40fps, z tydzień temu go przeszedłem, a co do 120fps to jedynie testowałem Dirt 5 i normalnie działało, ten LG wykrywany jest jako 4k 60fps, ale zostawiłem na automatyczny. Kabel hdmi mam ten od konsoli PS5.
Oczywiście w trybie 60fps czy 40fps nie wzrosną mi fpsy, bo do tego wymagany jest już VRR i hdmi 2.1, ale do trybu balans ze "stałą" ilością fps na poziomie 40 na luzie działa.
To nie jest żadne "wspieranie" hdmi 2.1 przez grę, hdmi 2.1 wspiera konsola, a potrzebne jest do przepustowości odpowiedniej do przesłania z konsoli na telewizor obrazu w rozdzielczości 4k i odświeżaniu 120hz. Wszystkie pozostałe gry na PS5 (i na xboxie też, jak i na PC), które mają tryb 120hz wymagają hdmi 2.1 aby wyświetlić obraz w 4k. Do 1440p i 120hz wystarczy hdmi 2.0 i jako że na PS5 działa teraz tryb 1440p@120hz to jeśli Ragnarok obsługuje 120hz to domyślam się, że przy 1440p zadziała z 120hz, chyba że specjalnie to zablokowali (lub nie zrobili trybu nie osiągającego więcej niż 1440p przy 120hz w co wątpię).
Tego jeszcze nie było :) W wymaganiach podają rodzaj kabla. Bredzą o 120fps podczas gdy ta nowa generacja ma problem z 60 i muszą stosować triki żeby to osiągnąć. W normalnym 4K i tak będzie stare konsolowe 30fps i żadne sztuczki nie pomogą. Sprzęt za słaby i nawet HDMI 2.2 czy 5.6 nie spowoduje wzrostu fps tam gdzie brakuje czystej mocy. Poza tym HDMI 2.0 przerzuca 18GB danych na sekundę i to jest za mało? To ile ta gra zajmuje? Chyba kilka terabajtów. Pewnie nowy SSD trzeba dokupić :)
Niech mi ktoś wytłumaczy czemu nie zrobiono dwóch trybów jakosciowy/wydajnościowy, tylko rozbili to na 6, w tym jeszcze podział na posiadane kable. Przecież to jakiś kabaret.
Wszystko fajnie ale stosowanie aż tylu trybów w konsoli jest niedorzeczne - konsola sama powinna dostosować tryb oraz rozdzielczość w zależności od podłączonego sprzętu a my powinniśmy wybierać tylko dwie opcje w jakich chcemy grać : fps 30+ graficzny lub fps 60+ wydajnościowy.
1440 -2160 i 60 klatek najlepsza opcja ładnie i płynnie . Sam tak gram w nowego goda . Zaraz kończę pracę i znowu do 2 będę napier@#lal