Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Wiadomość Elite Dangerous – Horizons dostało wsparcie dla SteamVR. Wymagania sprzętowe powalają

05.12.2015 10:59
1
T_D_i
145
Generał

jak sie maja takie wymagania pc do playstation vr i konsoli ps4 sprzed kilku lat , hmm

05.12.2015 12:28
2
odpowiedz
Pr0totype
165
Generał

Można było się tego spodziewać. VR obecnie trochę wyprzedza obecną epokę, raczej minie z 5 lat zanim każdy sobie będzie mógł pozwolić na taki sprzęt, żeby nowe gry ciągnęło, a z 10 lat jak VR już będzie mieć na jedno oko 2160p. Ale pewnie jeszcze więcej, żeby na najwyższych ustawieniach utrzymać 144fps xD Biorę pod uwagę fakt, że grafika tez stać w miejscu nie będzie.

05.12.2015 12:29
3
odpowiedz
Kamook
124
Generał

Tak że na psvr będzie labo mało fpsów albo niska rozdzielczość co sprawi że gra nie będzie komfortowa. Możliwe również że projekty na psvr będę spełniać te minimalne wartości (1080p, 90 FPS) ale gry będę albo proste np. zjechanie z górki zamiast symulatora kosmicznego albo brzydkie.

05.12.2015 16:16
domino310
4
odpowiedz
domino310
122
Bastard Rycerski

No właśnie ciekawe jak się będzie to miało do konsol, czyżby cięcia grafiki?
Zapowiada się, że wirtualna rzeczywistość to będzie zabawa dla bogaczy.....

05.12.2015 17:41
kaszanka9
5
odpowiedz
kaszanka9
109
Bulbulator

I tak gry dedykowane pod VR będą lepsze niż duża gra z obsługą vr jako dodatek.

Jeszcze dojdą optymalizacje, bo ne teraz wielu jeszcze renderuje 2 razy to samo, a wystarczy raz + przesuwanie obiektów, w niektórych silnikach już zaczynają to wbudowywać.

08.12.2015 08:49
Sid67
6
odpowiedz
Sid67
232
Generał

@kaszanka9 - wielu jeszcze renderuje 2 razy to samo, a wystarczy raz + przesuwanie obiektów, w niektórych silnikach już zaczynają to wbudowywać

Przesuwanie obiektów to atrapa głębi, efekt jak wycięcie obiektów ze zdjęcia i umieszczenie ich w różnej odległości (takie składane książeczki dla dzieci), same obiekty tracą głębię. No ale pewnie statystycznie to "wystarczy" (bo 6/10 nie widzi różnicy) a nakład obliczeniowy o wiele mniejszy więc możliwe, że takie "optymalizacje" wyprą prawdziwe renderowanie 2 obrazów.
W skrócie taka różnica jak film nagrany/wyrenderowany od razu w 3D, a film 2D przerobiony na 3D.

08.12.2015 10:01
7
odpowiedz
Lutz
173
Legend

@up mylisz pojęcia, grafika realtime nie ma przełożenia na film czy vfx gdzie adaptuje się techniki właśnie z grafiki 3d typu mapowanie tekstur itp.

Przesuwanie obiektów ww realtime 3d to nie jest przesuwanie warstw w filmie, tego nie robi się na etapie postprocssu tylko podczas generowania geometrii

08.12.2015 10:37
8
odpowiedz
Likfidator
120
Senator

Lutz, technik generowania obrazu 3D w grach jest wiele. Im więcej skrótów, tym efekt 3D gorszy:
- najprostszą metodę zastosowano w Crysis 2, gdzie 3D niby jest na każdej platformie, a w praktyce żaden z tego efekt 3D. Po prostu scena gry jest renderowana raz, a tylko HUD i broń są jako dwie dodatkowe warstwy. Wygląda to naprawdę sztucznie, jak najsłabsze filmy z dorabianym 3D.

- druga metoda jest bardziej wyrafinowana, polega na robieniu wycinanki tj. obraz jest renderowany raz, ale w post-process generuje się dwie klatki przesuwając obiekty na podstawie informacji zawartych w buforze głębi. Efekt jest o dziwo dobry, bo w przeciwieństwie do filmów z dorabianym 3D, tutaj mamy pełną informację o głębi. Jedyne wady tej metody to artefakty obrazu, gdyż brak informacji co powinno znajdować się w miejscu gdzie przesunięto obiekt. Druga wada, to brak głębi na shaderach materiałów, bo one są liczone tylko raz.

- trzecia metoda to po prostu renderowanie wszystkiego dwa razy. Efekt jest oczywiście najlepszy, ale i wymagania rosną najbardziej. O jakieś 30% względem wersji 2D. Jednak głównie dotyczy to wzrostu wymagań po stronie CPU, bo drawcalle rosną 2x.

Dodatkową kwestią jest to, że dzisiejsza technologia VR bardzo wiele przerzuca na komputer. Okulary to tylko smartfonowy ekran LCD i specjalna soczewka. Chyba każdy z nas widział jak dziwnie wygląda obraz pod oculusa na zwykłym ekranie. Dodatkowy shader musi specjalnie zdeformować obraz pod tą nietypową soczewkę, co w zasadzie sprawia, że tylko ostatnia metoda generowania 3D ma sens.

Drugą rzeczą jest to, że DirectX 12 i Vulcan będą bardzo pomocne dla 3D. Zmniejszają narzut API, a tym samym pozwalają wyciągnąć więcej drawcalls na sekundę. Przy 2x wzroście względem 2D będzie to bardzo istotne.

Ostatnia rzecz jest taka, że efekty graficzne kolejnej generacji m.in. Global illumination w czasie rzeczywistym, są cechą świata, a nie kąta kamery i tym samym wystarczy przeliczyć je raz. W efekcie ogólny ich koszt będzie niższy na tle renderowania całości.

08.12.2015 15:14
9
odpowiedz
Lutz
173
Legend

- trzecia metoda to po prostu renderowanie wszystkiego dwa razy. Efekt jest oczywiście najlepszy, ale i wymagania rosną najbardziej. O jakieś 30% względem wersji 2D. Jednak głównie dotyczy to wzrostu wymagań po stronie CPU, bo drawcalle rosną 2x.

jest twgo troche wiecej a metoda powyzej jest praktycznie nieuzywana (uzywana w jakichs totalnie prymitywnych enginach) bo nie ma sensu - z racji tego jak jest konstruowany obraz realtime 3D.

i wlasnie ostatnie zdanie ktore napisales ma najwieksze znaczenie, bo nie tylko AO jest cecha swiata, to samo jest z cieniami i zasadniczo teksturami. Jedyne co pozostaje to geometria, ewentualnie normal mapy i specyficzne shadery (fresnel itp).

08.12.2015 19:16
10
odpowiedz
Likfidator
120
Senator

Lutz metod jest rzeczywiście więcej, ale z tymi trzema spotykam się najczęściej. Głównie dlatego, że 3D w grach jest najczęściej osiągane przez zewnętrzne aplikacje jak 3DVision, czy Tridef. Wsparcia 3D w ramach samych gier jest dość rzadko spotykane, ale jeśli VR zyska na popularności ta sytuacja ulegnie zmianie.

Ogólnie sporo nowych technologii się pojawia w game devie, ale większość nie ma szansy na zaistnienie ze względu na moc konsol. Ciekawe są też prace nad silnikami dla serwisów streamujących. Wówczas jedna maszyna przelicza całą logikę gry i wysyła 16-64 obrazy dla graczy. Fizyka jest liczona raz i może być na niespotykaną wcześniej skalę (odpada problem synchronizacji). Podobnie efekty graficzne, czy nawet dźwiękowe. Przy takiej liczbie graczy symulowanie całego środowiska ma większy sens niż każdej kamery z osobna.

Wiadomość Elite Dangerous – Horizons dostało wsparcie dla SteamVR. Wymagania sprzętowe powalają