Jaka rozdzielczość w monitorze do gier?. Kupujemy monitor do gier
Spis treści
Jaka rozdzielczość w monitorze do gier?
Przy wyborze rozdzielczości kierowanie się przekonaniem, że „więcej=lepiej” może być tak samo zgubne, jak przy dobieraniu wielkości monitora. 4K rozbudza wyobraźnię, ale należy realnie zastanowić się, czy posiadany teraz lub przyszły pecet sprosta wyzwaniu w postaci zapewnienia odpowiedniej wydajności w grach uruchomionych w tej rozdzielczości. Znacznie częściej będzie to możliwe dopiero w 1440p lub 1080p. Natywna rozdzielczość ekranu powinna być dobrana jednak nie tylko z uwagi na moc komputera.
Pod uwagę należy wziąć także przekątną wyświetlacza. Zbyt niska rozdzielczość w dużym monitorze przełoży się na małe zagęszczenie pikseli i negatywnie wpłynie na ostrość obrazu. Na podstawie własnych obserwacji doszedłem do wniosku, że dla 27-calowych monitorów rozdzielczość Full-HD to wartość graniczna. Choć i ta jest już nieco naciągana. Od wielkości 27 cali włącznie dobrze będzie poszukać już czegoś w 1440p. Jednak ekrany o takiej rozdzielczości wymagają mocnego PC do grania. Wraz z jej wzrostem w grach najbardziej po tyłku dostaje karta graficzna, która jest zmuszana do wygenerowania większej liczby pikseli.
Dlatego też przed ostatecznym wyborem modelu monitora radzę zapoznać się z testami w grach uruchomionych w różnych rozdzielczościach. Jeśli posiadana karta nie radzi sobie z produkcjami odpalonymi w 2560x1440, warto będzie przemyśleć kupno monitora o niższej natywnej rozdzielczości. Co prawda nie istnieją żadne przeszkody, aby produkcję ogrywaną na wyświetlaczu 1440p uruchomić w 1080p, ale należy liczyć się wtedy z tym, że gra będzie wyglądała gorzej. Obraz stanie się rozmyty. Krótko mówiąc, taki Resident Evil 3 w rozdzielczości FullHD będzie znacznie lepiej prezentować się na monitorze 1080p niż 1440p.
Jak pokazują statystyki, najpopularniejszą rozdzielczością wśród graczy nieprzerwanie od wielu już lat jest FullHD. Największą blokadą przed przejściem na wyższe rozdzielczości są bez wątpienia ceny najwydajniejszych kart graficznych. Dopiero one pozwalają uzyskać zadowalającą ilość fps w grach uruchomionych w 1440p i 2160p. W tej ostatniej radzi sobie w zasadzie tylko RTX 2080 Ti, którego ceny zaczynają się od 5300 złotych. Dla porównania monitor 4K można dostać już za mniej niż 1000 złotych.
Jeśli zależy nam na jak największej ilości klatek na sekundę, a do tego planujemy zakup monitora z odświeżaniem 120 lub 240 Hz, rozsądnym wyborem będzie zdecydować się na rozdzielczość 1080p.
Czy HDR jest potrzebny?
Omawiając szeroko rozumianą jakość obrazu, wypada wspomnieć o technologii, która nie jest jeszcze bardzo popularna w przypadku monitorów, ale w największym stopniu przyczyniła się do jego poprawy w telewizorach. Dla części odbiorców High Dynamic Range (HDR) jest większą rewolucją niż 4K i 8K. Obraz o zakresie jasności odpowiadającej tej widzialnej przez człowieka coraz częściej pojawia się także w monitorach, chociaż w tym przypadku technologia ta jest znacząco ograniczona w porównaniu do tego, co można zobaczyć na telewizorze.
Szeroki zakres tonalny stojący za „jaśniejszą bielą” i „czarniejszą czernią”, wymaga do pokazania pełni swoich możliwości matrycy o odpowiednim stopniu jasności. Określa się ją w nitach lub alternatywnej jednostce cd/m2 (1 kandel/metr2 [cd/m2] = 1 nit [nt]). Absolutnym minimum wymaganym do zobaczenia różnicy pomiędzy standardowym obrazem a tym z HDR jest posiadanie wyświetlacza o jasności 350 nitów. Nawet wtedy nie można jednak mówić o zadowalającym efekcie. Wysokiej klasy telewizory oferują iluminację na poziomie 1000 nitów i w ich przypadku można już mówić o dużych korzyściach płynących z szerokiego zakresu tonalnego. Posiadacze tańszych telewizorów z jasnością około 650 nitów również powinni być usatysfakcjonowani. Według ekspertów prawdziwa zabawa zaczyna się jednak dopiero od 1500-2000 nitów. HDR należy więc traktować jako technologię z przyszłością. Szczególnie że pełnie możliwości uzyska się dopiero przy 10 000 nitów. Liderem w szczytowej jasności telewizorów jest Samsung. Tańsze modele z rodziny QLED (nie mylić z OLED) pozwalają uzyskać jasność na poziomie 1000 nitów. Topowe, takie jak QLED 8K 75” i QLED 8K 65”, to odpowiednio 4000 i 3000 nitów.
Dlaczego w artykule o monitorach znalazło się tak dużo miejsca dla telewizorów? Uznałem, że te drugie będą najlepsze do przedstawienia założeń i możliwości HDR. Użyłem ich także na zasadzie kontrastu. Ekrany komputerowe są bowiem daleko w tyle pod tym względem wykorzystania szerokiego zakresu tonalnego. Przeglądając ich specyfikację, można zauważyć, że poziom jasności matrycy mieści się najczęściej w przedziale 250-300 cd/m2, co odpowiada takiej samej ilości nitów. Do minimum w postaci 350 nitów trochę więc brakuje. Nie oznacza to bynajmniej, że nie istnieją jaśniejsze monitory.
Te, z którymi miałem okazję obcować, oferują zauważalne różnice, ale bynajmniej nie były one spektakularne i niekoniecznie należało zapisać je na plus. Problematyczne okazało się dostosowanie ustawień obrazu pod HDR. Sceny we wielu miejscach zdawały się przepalone. Być może miał na to wpływ również sposób implementacji funkcji HDR w systemie Windows 10. Microsoft napotkał podczas tego zadania wiele problemów.
Moja krótka i pełna frustracji przygoda z HDR w monitorze komputerowym wystarczyła, abym nieco zraził się do pomysłu wzbogacania tego typu urządzeń o szeroki zakres tonalny. Na pewno nie będę go szukać w swoim kolejnym monitorze domowym. Mam to szczęście, że gdy chcę uświadczyć dobrodziejstw HDR w grach, mogę podłączyć peceta do telewizora OLED (średnia jasność efektu HDR to 588 nitów) i na gamepadzie ograć dany tytuł. W jeszcze lepszej sytuacji są konsolowcy posiadający telewizor, który obsługuje High Dynamic Range.