Ray tracing zbyt wymagający do płynnej rozgrywki
Ray tracing zbyt wymagający do płynnej rozgrywki
O kurczę, no kto by pomyślał, że tak będzie… :/
Ta technologia będzie miała przyszłość wtedy, gdy większość ludzi będzie mogła z niej korzystać. Na razie jest to zasobożerna ciekawostka do jedynie 1080p. Wiadomo, że ktoś może wykorzystać SLI, jednak dalej jest to mały % ludzi. Ktoś kto kupuje topowy sprzęt z najwyższej półki, liczy na dużą wydajność i jednak mieć czas do następnej generacji. Moim zdaniem Nvidia się przeliczyła z wydajnością jej nowej karty.
I nie za mocne xD
Ray tracing zbyt wymagający do płynnej rozgrywki
O kurczę, no kto by pomyślał, że tak będzie… :/
To bylo raczej do przewidzenia... Gdy pojawil sie Hairworks od Nvidii to tez to pociagalo ze soba tyle mocy. Dzis, pare lat pozniej podobne problemy przy nowej technologii. Z reszta to sa takie efekty bez ktorych mozna sie obejsc i grac plynnie niz patrzec na super realistyczne wlosy, curwa...
Z reszta, na PC ten wyscig jest bez sensu, co chwile lepsze karty ale gier na poziomie GOW4 czy jakies topowej pozycji z Xboxa to nie ma - wiec na co one? By odapalac 2-4 letnie tytuly na ULTRA bez zajakniecia?
Tylko że te topowe pozycje z Xboxa (1-3 gier rocznie) są kompatybilne z blaszakami.
Niemożliwe. Kto by się spodziewał.
Przecież to dopiero raczkuje i fajnie, że Nvidia to wprowadziła, ktoś musiał. Ale przy takich cenach i przy takim spadku wydajności to jeszcze długo będzie raczkować.
powiedziałbym nawet, że nigdy nie wstanie z tych kolan. Co się dzieje z physix?
NVidia udostępniła physix na licencji opensource i ta technologia jest teraz praktycznie w każdej grze. Mało kto o tym wie bo logo już nie jest wymagane na splashscreenach.
To już było wiadome od dawna jak pokazano wydajność w grach z Raytracingiem pisałem że jeszcze nie ta generacja kart.
OK, tylko inaczej kiedy i jak? W tej chwili RTX to hybryda klasycznej obecnej od praktycznie 3 dekad metody rasteryzacji i podstawowego raytracingu używającego JEDNEGO sampla na piksel (plus metody odszumiania opartej w jakimś stopniu o elementy AI zdaje się), wykorzystywanego do liczenia cieni i okazjonalnie odbić. Naprawdę ładny i rewolucyjny efekt dałoby na dzień dzisiejszy 50 sampli na piksel z odszumianiem, tyle, że topowe stacje robocze potrzebują na to około sekundy na klatkę, czyli patrzymy w tym momencie na dzień dzisiejszy na 1FPSa na kompie za kilkadziesiąt tysięcy złotych. Więc jakie są opcje? Dalsza stagnacja w rasteryzacji z podbijaniem tekstur i złożoności materiałów, lub właśnie rozwiązania hybrydowe wprowadzające powoli nową metodę. Bo inaczej potrzebowałbyś do najnowszych gier karty za 40 tys zł, a płaczecie już przy 6k za topowy sprzęt. Ciekawie dopiero będzie jeśli następna generacja konsol (lub ta po niej) dostanie wyspecjalizowany układ do raytracingu i podobnych, co w połączeniu z kompletnie hermetyczną i okiełznaną architekturą da nam powtórkę z czasów premiery PS1/PS2 i próby nadgonienia wysilonego specjalistycznego sprzętu przez czystą brutalną siłę PC.
@soulldelsol - Z najbliższą generacją o taki wyspecjalizowany układ obawiałbym się tylko czy AMD jest w stanie na ten moment to zrobić. Więc może rzeczywiście bardziej kolejna.
@Ambitny Łoś - to nie musi być coś o surowej mocy RT Cores od nvidii, bo można nadrobić obciążaniem samego CPU, plus fakt, że oba układy byłyby od jednego dostawcy we współdziałającej technologii (amd ciśnie na 7nm proces bądź co bądź) powoduje, że w mojej ocenie to jest technicznie możliwe ale za mało wiem o rynku konsolowym by wyrokować na ile to prawdopodobne. Być może zieloni o tym wiedzą, stąd ta presja na RTXy już teraz? Dużo zmiennych i mało danych :), czas pokaże, ale dobrze, że jakiś ruch się robi i kto wie, za parę lat może będzie i GI w opcjach każdej gry :)
Dobrym rozwiązaniem byłoby, gdyby Nvidia wypuściła mocarne karty dla graczy które spokojnie poradziłyby sobie z 4K 60 fps (a może nawet i więcej) za rozsądną cenę, a jeśli ktoś chciałby zasmakować Ray Tracingu to dokupiłby sobie dodatkową "część" do komputera podpinaną pod drugi slot PCI-E zajmującą się tylko nim. Podłączałoby się ją do karty za pomocą NVLink.
Szczerze wątpię. Za małe nasycenie rynku by było, żeby usankcjonować koszty dewelopingu konkretnych tytułów ładnie wykorzystujących dodatkowe funkcje. A tak w naturalnym procesie upgrade'u z czasem obsługa RT w jakiejś formie będzie standardem. Zobacz jak wygląda VR w kontekście gier. Rozwój jest dużo wolniejszy niż by mógł być i tak samo wyglądałoby to w tym przypadku.
Akurat jakos PSVR radzi sobie lepiej jesli chodzi o gry mimo gorszego, technologiczne sprzetu i technologii. PC mimo ten swobody, mozliwosci wciaz jest miejscem dla "nerdow" co zagladaja w cyferki i jakos jest bardzo malo gier korzystajacych z mocy PC pod VR - wszystko sie rozchodzi o koszta, za malo graczy by kupilo jakis nowy swiezy VR tytul niz taki Portal 2 czy HL2 i przejsc te gry jeszcze raz ale w VR.
Co do technologii, to dzis, jedynie Facebook moze cos robic w tej kwesti bo oni beda inwestowac mimo strat bo 400 za nowego, Oculus Quest. Bardzo niska cena patrzac na dzisiejsze "zestawy vr" jak pc + hmd, telefon+daydream/gearvr badz wersja, AIO, Oculus GO
@Koktajl PSVR jak sam zauważyłeś to hermetyczna, słabsza technologia mająca przynajmniej podstawę w postaci konsoli której nie trzeba upgrade'ować, żeby VR działał. Poza tym sony pompuje w to pieniądze jak - sam słusznie zauważyłeś - FB. Niestety ale na rynku jest póki co za duża fragmentacja i jedyna nadzieja w tym, że powstanie zunifikowane API - kolejny update directX? - wspierające większość urządzeń VR, wtedy może nastąpić odwilż. Póki co to branża rozrywkowa okołogrowa robi niezłą robotę z VR, ale z kolei ten rynek jest niepomiernie mniejszy od potencjału rynku gier.
Porównania do PhysX akurat są na miejscu, bo ta technologia może skończyć tak samo. A wiąże się to z jednym pojęciem: monopol. A w tym przypadku zamykanie się na konkurencję.
Naprawdę wciąż nie rozumiem jaki jest sens wycinać to z DX 12 (bo RT pierwotnie miał być jego częścią) i "sprzedawać" osobno. PhysX na początku też był zamkniętym środowiskiem, dopiero potem udostępniono kod (o ile dobrze pamiętam), ale było już za późno i jest jak jest obecnie.
Z Hairworks jest inna sprawa, ponieważ jest to raczej mniej znaczący ficzer, a AMD ma tam jakiś odpowiednik (był promowany w Tomb Raider z 2013).
Co do RT natomiast, AMD również posiada własny open sourcowy kod, ale średnio to widzę, bo nawet Vulkan nie jest aż tak wspierany (jest, ale w niewielu tytułach porównując z DX)
Ja osobiście wolałbym najpierw GTX 2080/2080ti i to co zabrało RT oddać do mocy karty i mielibyśmy spokojnie na ultra w 4k z zapas fps, a gdy zostałoby zaspokojone 4k to w następnej generacji nvidia wprowadziłaby RT optymalizując i lepiej gospodarując miejsce na karcie do poszczególnych technologii, a tak to wyszła karta nie do 4k i nie do RT. (tak tak sam 2080ti nie trzyma 60 fps w niektórych starszych grach).
I regres taki że z RT cofamy się spowrotem do 1080p żeby mieć full detale i w miarę stabilny FPS 50-60. I co wtedy z osobami z monitorem 4K?
Nie Alex, SLI nie zadziała jednocześnie z RT. Nie bez wsparcia twórców.
To znany fakt, gdyż DXR api, przynajmniej na razie, działa wyłącznie z DX12, wydaje mi się wątpliwe, że m$ doda obsługę do dx11 skoro mają wywalone na wszystko poniżej win10, ale kto wie.
Kontynuując, DX12 nie obsługuje SLI, które jest automatyczne, obsługuje tylko multi gpu, ale żeby to działało to sami twórcy gier muszą obsługę mGPU dodać do gry na DX12, każdy na własną rękę.
Jeżeli tego nie zrobią to nie ma "SLI" z RT. Pewnie będą dodawać tu i tam, ale patrząc na obecną obsługę mGPU w DX12, to będzie parę gier AAA na rok maks, więc niejako gracze będą zdani na łaskę twórców, bo nie da się tego wymusić żadną konfiguracją tak jak SLI na własną rękę.
W Gears of war 4 dodali chyba po 8 miesiącach obsługę mGPU.
Piszecie, że PhysX się nie przyjął. To, że w menu nie ma opcji PhysX nie oznacza, że nie jest on wykorzystywany. Wręcz przeciwnie, jest np. przy animacji tkanin lub odłamków. Dzisiejsze karty są na tyle mocne, że nie umożliwia się już wyłączenia PhysX’a. Poza tym są też szeroko wykorzystywane technologie konkurencyjne, wcale nie ustępujące jakością. Podobnie będzie z RT.
Elevrilnar - oczywiście PhysX jest wykorzystany w bardzo wielu grach, po prostu nie jest obecnie technologią już ekskluzywną. Ten news odnośnie RT jest nieprecyzyjny ponieważ opóźnienie w generowaniu obrazu wynika po prostu z dodania nowej składowej która jest oddzielnie dodana.
No to macie tą swoją rewolucję.Karta za ponad 5K i brak choćby minimum płynności (zdaniem niektórych z tego forum) w tak podstawowej rozdziałce 1080p?To kpina NVIDIA,kpina.Ta technologia skończy jak NVIDIA HairWorks.To już dużo większe szanse ma upowszechnienie się DLSS
Pierwszy Elite chodzil w 1FPS używając rasteryzacji do wyświetlania przezroczystych wireframe'ów. Do dziś używamy dokładnie tej samej metody generowania obrazu w grach i praktycznie powoli walimy głową w mur jeśli idzie rozwój tej metody. Wiesz co jest kolejnym krokiem? Pełny raytracing, a kolejnym pathtracing. Zatem tak, hybrydowy RTX jest rewolucją, bo odchodzimy od technologii używanej ponad 30 lat. A koszt i efekt tej rewolucji pokazuje jak zasobożerna jest ta zmiana.
Konsole powiedzialy NIE. Wielkie corpa od "konsolol" nigdy sie nie zgodza, zeby gry wygladaly duzo lepiej na PC niz na konsoli. Konsole nigdy nie obsluza tej technologi i dlatego rozwoj PCtow jest hamowany. Dlatego mamy takie kosmiczne ceny nowych kart graficznych. Dobra karta graficzna to srednio dwa dobre PC lub rownowartosc czterech konsol...ot cala magia...
Swego czasu podobnie było z Radeonami HD58xx które obsługiwały DX11.
Super karty, problem w tym ze kompletnie się nie nadawały do DX11.
Różnica była tez taka, ze topowa karta AMD kosztowała 1500zł, a nie 5500zł.
Ludzie sami się na to skazali kupując telewizor/monitory 4K ;) jakby to full hd bylo jakies rozmazane czy coś.
Wolę full hd + jakies bajery graficzne niz wyzsza rozdzialke.
Tak czy siak karta za 5,5k czy ile tam powinna dawać radę ze wszystkimi technologiami dostępnymi na rynku
Telewizory kupuje się do konsol.
A adopcja monitorów 4K jest minimalna. Dodatkowo część użytkowników porusza się tej w rozdzielczości z przymusu np. związanegoz pracą (i nie gra, albo okazjonalnie w pierdoły).
Wielkiego powiązania tego z technologią 4K nie ma, choć ona sama będzie oczywiście pchana, zawsze musi być coś wyżej pod co się robi benchmarki.