autor: Jacek Winkler
Premiera PS5 i Xbox Series X - jak wpłynie na wymagania sprzętowe gier?
Kiedy na rynku pojawiają się konsole nowej generacji, wielu ludzi grających na PC zadaje sobie pytanie – czy wraz z premierą urządzeń (w tym przypadku PS5), wzrosną również wymagania sprzętowe gier? Odpowiedź na nie może nie być jednak taka prosta.
Spis treści
Wzrost wymagań sprzętowych na PC zbliża się wielkimi krokami. Nie nastąpi to jednak od razu, tak jak niektórzy gracze zdają się myśleć. Przyszłość nadejdzie stopniowo. Żeby zrozumieć ideę takiego wzrostu, najlepiej cofnąć się do premiery, która miała miejsce w roku 2013 – debiut rynkowy PS4. Już w 2012 roku, czyli na długo przed pierwszymi przeciekami dotyczącymi mocy przerobowej nieujawnionej wtedy konsoli, gry wcale nie ograniczały się do mocy drzemiącej w PS3, która jak na tamten okres pozostawiała wiele do życzenia. Pomimo tego, że w wymaganiach zalecanych wielu gier nadal widniał GeForce 8800 GTX, to przy kilku pozycjach można już było znaleźć kartę pokroju GeForce GTX 560.
Technologia stale się rozwija, a jako przykład podamy grę Far Cry 3 – ówczesny benchmark i wyznacznik postępu graficznego. Możecie być teraz zaskoczeni, ale gra działała bardzo źle zarówno na Xboksie 360, jak i PlayStation 3. Jeżeli w 2020 roku gra ukazałaby się w takiej formie, zostałaby okrzyknięta najgorzej zoptymalizowaną produkcją ostatnich czasów. 20 klatek na sekundę w rozdzielczości mniejszej niż 720p, to wszystko na co mogli liczyć gracze na konsolach. W tym samym jednak czasie, na PC mogłeś oglądać pięknie wyglądający świat w 60 klatkach na sekundę, w rozdzielczości Full HD (wtedy to był nie lada wyczyn).
Oczywiście mowa tutaj o faktycznie mocnych podzespołach (zakres 900-1400 złotych), bo karty graficzne z okresu panowania PS3 (na przykład GeForce 9600 GT) również miały ogromne problemy z wydajnością. Uzyskanie wtedy 30 fps w rozdzielczości 1080p na ustawieniach wysokich/ultra nie było problemem dla nowych kart graficznych, kosztujących nie więcej niż 600 złotych – Radeon HD 7770 lub jeszcze tańszy HD 7790 wydany pół roku później. Czy czegoś wam to nie przypomina?
Ci bardziej spostrzegawczy zapewne zauważyli, że dokładnie taka sama sytuacja ma miejsce teraz. Konsole, pomimo wyższej rozdzielczości niż 720p, znanej z czasów PS3 czy Xbox 360, nadal operują w granicach 30 klatek na sekundę (a czasem i mniej), a uzyskanie 60 fps na PC ponownie nie należy do rzeczy najtrudniejszych, bo w cenie 700 złotych możemy zakupić kartę graficzną, dzięki której taki efekt otrzymamy (na przykład Radeon RX 570, czy GeForce GTX 1650 Super w połączeniu z odpowiednim procesorem). Nie jest to jednak możliwe na sprzęcie ze średniej półki w 2013 roku właśnie.
Sugerowane przez twórców gier wymagania sprzętowe nie są zazwyczaj żadnym wyznacznikiem. Wielu deweloperów podaje je na wyrost, by uniknąć niepotrzebnego hejtu ze strony graczy, którym gra źle chodzi. Często nie jest doprecyzowane czy podana karta graficzna w minimalnych wymaganiach starczy do 1080p 30fps i wysokich detali, czy może 720p 20 fps i detali niskich. Za faktyczną informację powinniście brać recenzje technologiczne na kanałach takich jak Digital Foundry. Testów wydajnościowych w serwisie YouTube opisujących aktualnie posiadany przez was sprzęt jest bardzo dużo.
Wzrost wymagań sprzętowych po wejściu PS4
Tabelka, którą zobaczycie poniżej, prezentuje okres przejściowy pomiędzy PS3 i PS4. Zauważyć można znaczący wzrost wymagań sprzętowych gier na PC. Jako przykład weźmy jednak Śródziemie: Cień Mordoru. W zalecanych wymaganiach znajdziemy wzmiankę o GeForce GTX 660 – ówczesne średnio-półkowe GPU (2012). Pomimo tego, że karta była zdecydowanie wydajniejsza niż te z roku 2010, nadal dało się grać w rozdzielczości 1080p na karcie pokroju GeForce GTX 460, którego premiera nastąpiła w 2010 roku właśnie. To samo stało się z GTX 660. Karta widniała w wymaganiach sprzętowych przez wiele lat, ale w końcu zastąpiona została nowszym modelem – GeForce GTX 1060 (i to na długo przed premierą kolejnej generacji konsol).
Gra | Wymagania sprzętowe GPU (zalecane) |
Far Cry 3 (2012) | GeForce GTX 560 |
Dishonored (2012) | GeForce 8800 GTX |
Call of Duty Black Ops II (2012) | GeForce 8800 GT |
Dragon Age: Inkwizycja (2014) | GeForce GTX 660 |
Assassin’s Creed: Unity (2014) | GeForce GTX 780 (GTX 660 minimalne) |
Śródziemie: Cień Mordoru (2014) | GeForce GTX 660 (GTX 460 minimalne) |
Powróćmy jeszcze do okresu 2013-2015. Najbardziej wymagającymi grami tamtych czasów były Dragon Age: Inkwizycja, Far Cry 4, Assassin’s Creed: Unity (2014) oraz Wiedźmin 3, Rise of the Tomb Raider i Assassin’s Creed: Syndicate (2015). W dwa lata po premierze PS4, na rynek nadal wchodziły gry, które działały dobrze na kartach graficznych z niskiej półki wydajnościowej. Pamiętam, że sam posiadałem R9 270X (700 złotych), zakupioną w roku 2013 (swoją drogą był to refresh znanego wszystkim Radeona HD 7870). Nie było problemu, by uzyskać 30-60 fps w Wiedźminie 3 na wysokich detalach w 1080p, chociaż na ustawieniach ultra na ekranie oglądałem raczej mniej niż 20 klatek na sekundę. Wszystko zależy więc przede wszystkim od ustawień, na jakich masz zamiar grać w nowe gry, a nie granicy ustawionej przez deweloperów, którym wcale nie jest na rękę, by odcinać graczy nieposiadających odpowiedniego sprzętu (w granicach rozsądku).
Jednym z pierwszych poważnych skoków graficznych zaoferowała gra Assassin’s Creed: Unity (2014 rok). Zapewne pamiętacie jej złą optymalizację i wszędobylskie bugi, ale nie można było jej jednego zarzucić – wyglądała przepięknie. Na Radeonie 270X (ze względu na niewystarczającą ilość pamięci wideo), mogłem liczyć na maksymalnie 30 klatek na sekundę (rok po jej zakupie) i było to pierwszym znakiem, że gry zaczną wymagać jej więcej (PS4 ma w sumie 8 GB). Oczywiście po załataniu gry i poprawieniu jej ogólnego działania, produkcja działała już dobrze, ale wymóg co do VRAMu pozostał taki sam.
Pierwszymi grami z wymaganiami faktycznie przekraczającymi możliwości opisywanej wyżej karty graficznej były Doom, Dishonored 2, Final Fantasy XV i Watch Dogs 2. W 2016 roku problem niewystarczającej ilości pamięci wideo w karcie graficznej stał się już powszechny. Urządzenia z dwoma gigabajtami pamięci były skazane na porażkę tak naprawdę już tuż po oficjalnym ujawnieniu mocy drzemiącej w PS4, ale jak widać - dopiero po trzech latach od premiery konsoli Sony, gry zaczęły tego wymagać. Skutkiem tego było obniżanie detali do poziomu, w którym na ekranie nie musieliśmy oglądać pokazu slajdów. Tekstury były bardzo niskiej rozdzielczości, więc i gry nie wyglądały tak jak powinny. Później doszło również obniżanie rozdzielczości, by zachować odpowiednią płynność wyświetlanego obrazu. To wszystko działo się pomimo faktu, że moc karty Radeon R9 270X spokojnie wystarczała do 1080p 30 fps, ale była spowalniana przez niewystarczającą ilość VRAM (2 GB).