Fable Legends – rezultaty pierwszych testów z użyciem DirectX 12
Dopóki nie pokaże się test na dx11 vs dx12 to samą 12 można sobie wsadzić bo nie ma żadnego porównania. Równie dobrze gra może być zrobiona pod AMD i dobrze zoptymalizowana, a na dx11 ta korelacja się nie zmieni.
Średnia nie dochodzi do 60 kl/s na 970 i to w żadnym 4k tylko w FHD. A to dobre, prawie jak "GTX 660 wystarczy na całą generację" :]
A na XONE już potwierdzone full hd i 30 klatek? Nie wiadomo jakie to ustawienia, może jakiś super uber anti aliasing zabija klatki albo coś jeszcze innego czego na konsoli w ogóle nie będzie
pieterkov [1]
Dopóki nie pokaże się test na dx11 vs dx12 to samą 12 można sobie wsadzić bo nie ma żadnego porównania.
I tak nic nie porównasz, bo nie zweryfikujesz czy czegoś czasem nie pogorszono celowo albo nie wykorzystano maksymalnie najlepiej jak się da, więc jedynie średnia z kilkunastu gier mających dx11 i dx12 na raz, jakiś obraz wyłoni. No, ale wszyscy wiedzieli, że niskopoziomowe api da więcej, pytanie ile i czego.
aope [2]
. A to dobre, prawie jak "GTX 660 wystarczy na całą generację" :]
Założymy się, że ten gtx 660 będzie w stanie wygenerować lepszą grafikę w tej grze niż xone?
Poza rozdzielczością nie ma słowa o tym jakie opcje graficzne są włączone (tylko ogólnikowe "Ultra"), nie ma porównania do dx11, nie wiadomo jak gra będzie chodzić na konsoli Xbox One, obie strony (AMD, Nvidia) nie dostarczyło sterowników do dx12, tylko bazują na obecnych. Test o kant wiecie czego można obić. Ale jak widać panu aope to nie przeszkadza w podjęciu werdyktu... :)
A gdzie tutaj widać ten straszny skok wydajności względem DirectX 11?
Co ten test miał pokazać
Teraz już chyba wiem dlaczego AMD otwarcie nawoływało deweloperów do porzucenia swojej autorskiej technologii Mantle na rzecz DirectX 12...