futurebeat.pl News Tech Mobile Gaming Nauka Moto Rozrywka Promocje

Technologie

Technologie 20 kwietnia 2020, 14:29

Jaka rozdzielczość w monitorze do gier?. Kupujemy monitor do gier

Spis treści

Jaka rozdzielczość w monitorze do gier?

Przy wyborze rozdzielczości kierowanie się przekonaniem, że „więcej=lepiej” może być tak samo zgubne, jak przy dobieraniu wielkości monitora. 4K rozbudza wyobraźnię, ale należy realnie zastanowić się, czy posiadany teraz lub przyszły pecet sprosta wyzwaniu w postaci zapewnienia odpowiedniej wydajności w grach uruchomionych w tej rozdzielczości. Znacznie częściej będzie to możliwe dopiero w 1440p lub 1080p. Natywna rozdzielczość ekranu powinna być dobrana jednak nie tylko z uwagi na moc komputera.

Pod uwagę należy wziąć także przekątną wyświetlacza. Zbyt niska rozdzielczość w dużym monitorze przełoży się na małe zagęszczenie pikseli i negatywnie wpłynie na ostrość obrazu. Na podstawie własnych obserwacji doszedłem do wniosku, że dla 27-calowych monitorów rozdzielczość Full-HD to wartość graniczna. Choć i ta jest już nieco naciągana. Od wielkości 27 cali włącznie dobrze będzie poszukać już czegoś w 1440p. Jednak ekrany o takiej rozdzielczości wymagają mocnego PC do grania. Wraz z jej wzrostem w grach najbardziej po tyłku dostaje karta graficzna, która jest zmuszana do wygenerowania większej liczby pikseli.

Niektórzy gracze dla uzyskania przewagi obniżają rozdzielczość czy detale. Naszym zdaniem jednak FullHD to optymalne rozwiązanie. - Monitor do gier - na co zwracać uwagę podczas zakupu - dokument - 2020-04-20
Niektórzy gracze dla uzyskania przewagi obniżają rozdzielczość czy detale. Naszym zdaniem jednak FullHD to optymalne rozwiązanie.

Dlatego też przed ostatecznym wyborem modelu monitora radzę zapoznać się z testami w grach uruchomionych w różnych rozdzielczościach. Jeśli posiadana karta nie radzi sobie z produkcjami odpalonymi w 2560x1440, warto będzie przemyśleć kupno monitora o niższej natywnej rozdzielczości. Co prawda nie istnieją żadne przeszkody, aby produkcję ogrywaną na wyświetlaczu 1440p uruchomić w 1080p, ale należy liczyć się wtedy z tym, że gra będzie wyglądała gorzej. Obraz stanie się rozmyty. Krótko mówiąc, taki Resident Evil 3 w rozdzielczości FullHD będzie znacznie lepiej prezentować się na monitorze 1080p niż 1440p.

Jak pokazują statystyki, najpopularniejszą rozdzielczością wśród graczy nieprzerwanie od wielu już lat jest FullHD. Największą blokadą przed przejściem na wyższe rozdzielczości są bez wątpienia ceny najwydajniejszych kart graficznych. Dopiero one pozwalają uzyskać zadowalającą ilość fps w grach uruchomionych w 1440p i 2160p. W tej ostatniej radzi sobie w zasadzie tylko RTX 2080 Ti, którego ceny zaczynają się od 5300 złotych. Dla porównania monitor 4K można dostać już za mniej niż 1000 złotych.

Jeśli zależy nam na jak największej ilości klatek na sekundę, a do tego planujemy zakup monitora z odświeżaniem 120 lub 240 Hz, rozsądnym wyborem będzie zdecydować się na rozdzielczość 1080p.

Czy HDR jest potrzebny?

Omawiając szeroko rozumianą jakość obrazu, wypada wspomnieć o technologii, która nie jest jeszcze bardzo popularna w przypadku monitorów, ale w największym stopniu przyczyniła się do jego poprawy w telewizorach. Dla części odbiorców High Dynamic Range (HDR) jest większą rewolucją niż 4K i 8K. Obraz o zakresie jasności odpowiadającej tej widzialnej przez człowieka coraz częściej pojawia się także w monitorach, chociaż w tym przypadku technologia ta jest znacząco ograniczona w porównaniu do tego, co można zobaczyć na telewizorze.

Szeroki zakres tonalny stojący za „jaśniejszą bielą” i „czarniejszą czernią”, wymaga do pokazania pełni swoich możliwości matrycy o odpowiednim stopniu jasności. Określa się ją w nitach lub alternatywnej jednostce cd/m2 (1 kandel/metr2 [cd/m2] = 1 nit [nt]). Absolutnym minimum wymaganym do zobaczenia różnicy pomiędzy standardowym obrazem a tym z HDR jest posiadanie wyświetlacza o jasności 350 nitów. Nawet wtedy nie można jednak mówić o zadowalającym efekcie. Wysokiej klasy telewizory oferują iluminację na poziomie 1000 nitów i w ich przypadku można już mówić o dużych korzyściach płynących z szerokiego zakresu tonalnego. Posiadacze tańszych telewizorów z jasnością około 650 nitów również powinni być usatysfakcjonowani. Według ekspertów prawdziwa zabawa zaczyna się jednak dopiero od 1500-2000 nitów. HDR należy więc traktować jako technologię z przyszłością. Szczególnie że pełnie możliwości uzyska się dopiero przy 10 000 nitów. Liderem w szczytowej jasności telewizorów jest Samsung. Tańsze modele z rodziny QLED (nie mylić z OLED) pozwalają uzyskać jasność na poziomie 1000 nitów. Topowe, takie jak QLED 8K 75” i QLED 8K 65”, to odpowiednio 4000 i 3000 nitów.

HDR w monitorach to póki rzadko spotykany bajer i niewiele gier rozwija dzięki niemu skrzydła. - Monitor do gier - na co zwracać uwagę podczas zakupu - dokument - 2020-04-20
HDR w monitorach to póki rzadko spotykany bajer i niewiele gier rozwija dzięki niemu skrzydła.

Dlaczego w artykule o monitorach znalazło się tak dużo miejsca dla telewizorów? Uznałem, że te drugie będą najlepsze do przedstawienia założeń i możliwości HDR. Użyłem ich także na zasadzie kontrastu. Ekrany komputerowe są bowiem daleko w tyle pod tym względem wykorzystania szerokiego zakresu tonalnego. Przeglądając ich specyfikację, można zauważyć, że poziom jasności matrycy mieści się najczęściej w przedziale 250-300 cd/m2, co odpowiada takiej samej ilości nitów. Do minimum w postaci 350 nitów trochę więc brakuje. Nie oznacza to bynajmniej, że nie istnieją jaśniejsze monitory.

Te, z którymi miałem okazję obcować, oferują zauważalne różnice, ale bynajmniej nie były one spektakularne i niekoniecznie należało zapisać je na plus. Problematyczne okazało się dostosowanie ustawień obrazu pod HDR. Sceny we wielu miejscach zdawały się przepalone. Być może miał na to wpływ również sposób implementacji funkcji HDR w systemie Windows 10. Microsoft napotkał podczas tego zadania wiele problemów.

Moja krótka i pełna frustracji przygoda z HDR w monitorze komputerowym wystarczyła, abym nieco zraził się do pomysłu wzbogacania tego typu urządzeń o szeroki zakres tonalny. Na pewno nie będę go szukać w swoim kolejnym monitorze domowym. Mam to szczęście, że gdy chcę uświadczyć dobrodziejstw HDR w grach, mogę podłączyć peceta do telewizora OLED (średnia jasność efektu HDR to 588 nitów) i na gamepadzie ograć dany tytuł. W jeszcze lepszej sytuacji są konsolowcy posiadający telewizor, który obsługuje High Dynamic Range.

Mateusz Ługowik

Mateusz Ługowik

Swoje pierwsze teksty napisał dla portalu z ciekawostkami ze świata. Niedługo potem zaczął tworzyć artykuły, których głównym tematem była kawa. Dopiero trzecia strona dotyczyła gier, sprzętu i nowych technologii. Stamtąd trafił do Gry-Online.pl. Obecnie zajmuje się pisaniem tekstów o tematyce sprzętowej oraz aktualizowaniem tekstów growych i techowych. Od czasu do czasu opracowuje też wiadomości do newsroomu. W wolnym czasie gra, pomaga rozwiązywać problemy z PC, ogląda seriale i stare polskie komedie, czyta komiksy (team DC!) i jeździ na koncerty. Jest hopheadem.

więcej

HDMI czy DisplayPort - najlepsze złącze do monitora
HDMI czy DisplayPort - najlepsze złącze do monitora

HDMI, DisplayPort, DVI, VGA/D-Sub – za pomocą jakiego interfejsu najlepiej podłączyć monitor do karty graficznej? Należy wybrać złącze, które pozwoli w 100% wykorzystać potencjał wyświetlacza tzn. natywną rozdzielczość oraz pełen zakres odświeżania.

Monitory 144 Hz - czy warto się nimi zainteresować
Monitory 144 Hz - czy warto się nimi zainteresować

Kiedy już masz kartę graficzną typu GeForce RTX, czas na zakup porządnego monitora z wysoką częstotliwością odświeżania. Sprawdzamy, komu może się taki przydać i w jakich grach sprawdzi się najlepiej.

Monitor Full HD do gier | TOP 10
Monitor Full HD do gier | TOP 10

Monitor to jeden z najważniejszych elementów na wyposażeniu każdego gracza. To on wyświetla obraz generowany przez kartę graficzną. Dlatego postanowiłem wybrać 10 najlepszych monitorów o rozdzielczości Full HD, czyli 1920 x 1080 pikseli.