Nvidia GeForce RTX 2080Ti nie uciągnie Shadow of the Tomb Raider w Full HD przy 60 FPS i włączonym RTX
Tak samo Wiedzmin 3 i sierść wilka była zbyt dużym obciążeniem. I ludzie zrezygnowali z tego bo woleli mieć 60 kl/s niż 40. Nawet test kart graficznych były bez Fur Tech.
A tu będzie to samo. Dopiero następna genaracja około 3 lata będzie odpowiednia do tej gry, ale nie do profesjonalnego Ray - tracingu. Tu minumum 6 lat poczekamy. Ale mi te efekty lśniących jaj jakoś nie jarają
Czekam bardzo długo na realistyczny ogień. Np. płonący las spalany w czasie rzeczywistym przez plomienie
Czego to Nvidia nie wymyśli żeby opchnąć karty za grube tysiące.
Kupując RTX 2080Ti zrobiłbym wielki błąd! Dlatego dziękuję za opublikowanie tego filmu, bo teraz zrozumiałem co Nvidia chce mi przekazać...muszę kupić dwie karty!
nie mogłem się powstrzymać śmieszne to wklejam mimo że jestem zachwycony technologią :)
Czego to Nvidia nie wymyśli żeby opchnąć karty za grube tysiące.
Tak samo Wiedzmin 3 i sierść wilka była zbyt dużym obciążeniem. I ludzie zrezygnowali z tego bo woleli mieć 60 kl/s niż 40. Nawet test kart graficznych były bez Fur Tech.
A tu będzie to samo. Dopiero następna genaracja około 3 lata będzie odpowiednia do tej gry, ale nie do profesjonalnego Ray - tracingu. Tu minumum 6 lat poczekamy. Ale mi te efekty lśniących jaj jakoś nie jarają
Czekam bardzo długo na realistyczny ogień. Np. płonący las spalany w czasie rzeczywistym przez plomienie
Tak z ciekawości zapytam bo sam totalnie nie kojarzę. Były jakieś gry po Wiedźminie 3 korzystających z HairWorks? No nie mogę nic znaleźć. Fakty, faktem technologia była zacna i dawała/daje naprawdę dobre efekty, ale zżera taką moc, że nie warto tego włączać.
Była, choćby Final Fantasy XV.
to zależy na czym był odpalany bo były też wtedy karty które spokojnie sobie z tym radziły nawet w 4K.
Mówię o przeciętnym zjadaczu chleba, który miał wówczas miał 960, 970 czy teraz ma 1060.
ogien juz byl w far cry 2.
niestety fizyka odeszla na trzeci albo czwarty plan na rzecz graficznych wodotryskow.
gdzie podzialy sie rozwalania budynkow z red faction albo wlasnie fizyka ognia z far cry 2???
mimo ogromnego wzrostu mocy obliczeniowej cofamy sie w rozwoju.
@Crod4312 -> Akurat Crash Bandicoot i Ratchet & Clank wypadli całkiem dobrze, jeśli chodzi o sierść bohaterowie i to bez technologie NVIDIA.
masz + za to " Ale mi te efekty lśniących jaj jakoś nie jarają" ten motyw ciągle żywy od 15 lat :D
@szejk18 100% prawdy, piszę o tym od dawna i nie mogę zrozumieć dlaczego w takim kierunku to wszystko idzie.. śliczna grafika, ale do print screenow :(
@Crod4312
NVIDIA HairWorks był ich autorską metodą "metodą" na włosy. To że nie ma tej nazwy w innych produkcjach to nie znaczy że inni nie wymyślili lepszych, wydajniejszych algorytmów. Kacper miał o tym materiał na tygry.
Też uważam że Ray Tracing to dalej przyszłość i dopiero w następnej generacji, która się pokryje zapewne z konsolami będziemy mogli o niej mówić na poważnie.
skoro karta za 6 tysi nie jest w stanie utrzymać 60 fps w zwykłym HD, to już wiemy jaki był główny cel wprowadzenia tej bajecznej opracowywanej przez dekadę technologii
Tensor Cores jest tylko rozwinięciem już obecnych technologii i nic w tym specjalnego nie ma. I nie HD bo HD to 1280x720 a FHD
Kupujesz karte za 6 k a ona na full nie ciagnie gierki . Biegne zamawiac preordera bo mi jeszcze gdzie zabraknie i nie pogram w 40 klatkach:)
Brakuje tylko tekstu: "Oczywiście te problemy nie występują w SLI u nas ! Kupuj dwie karty graficzne za śmieszne pieniądze!"
Z 2-3 ujęcia wyglądały świetnie, reszta to trochę taki meh. Z tym Ray tracing'iem się pośpieszyli, powinni poczekać aż zejdą z procesem technologicznym a wydajność jeszcze bardziej by wzrosła. W tedy te 60 Fps mogło by być utrzymane.
Nie pospieszyli, bo kto chce i mu się pali, to kupi te karty i posmakuje trochę nowej technologii, która jednak nie jest powszechna i jeszcze długo nie będzie. Także nie jest to bezcelowe, dają przedsmak czegoś nowego i jeszcze mogą na tym zarobić. Musieli skutecznie wybadać AMD, że dowalili takie ceny, bo wiedzą że AMD nie ma odpowiedzi, ewentualnie litografia 7 nm może leżeć u czerwonych.
No proszę, a wczoraj redaktor jeden w komentarzach pisał, jak to świetnie dla graczy te karty, co tam cena! I nawet wcześniej dałem tego newsa w tematach :>
Co do karty, jest szansa, że sterowniki coś poprawią. Ale szczerze? Nie wróży to nic dobrego. RT jest widocznie za dużym obciążeniem, co więcej, potwierdzają się wycieki, że jest niewielki tylko wzrost wydajności względem Pascali.
Te karty są wydane albo tak na szybko, żeby taniej opchnąć Pascale i zarobić na maniakach, co kupują najlepsze karty co generację, albo Nvidia zrąbała (w co wątpię). Mi to wygląda na celową zagrywkę Nvidii - wydać coś przed litografią 7 nm, zarobić na tym i pozbyć się stanów magazynowych Pascali.
I te bajery za tysiąc zielonych! Za technologię, która raczkuje, nie ma gwarancji (oby nie, bo to może być przełom), że nie skończy jak PhysX czy hairworks i jeszcze nie wiadomo, czy następna generacja konsol będzie tym zainteresowana. No tak średnio. Miną lata nim RT się upowszechni i nie ma wiadomo, czy to się stanie.
Te karty to porażka na tę chwilę. Jeszcze trzeba brać pod uwagę, że niektórzy grają na 120 hz monitorach... To w takim razie trzeba 2x2080 Ti żeby udźwigło 120 klatek do płynnego grania?
Biorąc pod uwagę ten gameplay, to do zachowania stałych 120FPS potrzeba 4x2080Ti, przy założeniu że skalowanie wydajności w NVLink z każdą następną kartą to 100% (co jest raczej nie możliwe)
Od Pascali żadna karta już nigdy nie będzie działać w tri sli w górę, więc zapomnijcie o trzech i czterech kartach ;)
Jaką kartę trzeba by mieć by Tomb Raidera odpalić w 4k na max detalach z Ray-tracingiem na monitorze 144 hz i tyleż klatek też mieć ?
Przecież sam Huang powiedział, że moc obliczeniowa do ray-tracingu to jeszcze 10 lat czekania. Ale przez ten czas trzeba jakoś opchnąć kolejne wersje:)
Dokładnie minimum 10 lat do półprofesjonalnego lub profesjonalnego Ray-tracingu. Bo to co teraz mamy to taki pixel shader 1.0
Cytat z PCGamesN, bo grali: For these first-gen RTX GPUs then real-time ray tracing looks more like a proof of concept than something that will become in any way mainstream this generation. But it does give us a tantalising glimpse as to what the future of all our gameworlds is going to look like. And they’re going to look stunning… once they can top 60fps at 1080p.
Grali nie tylko w Shadowa, ale i BF-a V, więc...
And they’re going to look stunning… once they can top 60fps at 1080p. Wygląda jakby ktoś za wszelką cenę próbował bronić Nvidii, targetem tych kart są teraźniejsi użytkownicy 1080 Ti, oni nie grają w 1080@60, powrót z 1440p/4k@60FPS albo 1080p@120FPS to okropne doświadczenie. Jeśli Nvidia rzeczywiście chciałaby to sprzedać to musieliby wydać kartę która pozwoli na grę w 4k@60FPS z RT w okolicach premiery konsoli następnej generacji.
poczekamy do premiery to zobaczymy bardzo wątpię aby RT w grach które mają być ich prezentacją nie działał właściwie, będzie premiera i testy to zobaczymy.
Buhahaha
Typowe "choroby wieku dziecięcego ". Niemniej jest to blamaż, ba wręcz kompromitacja Nvidii. Można śmiało założyć, że RT na ten moment pozostanie tylko ciekawostką, może przy następnej serii grzał coś się zmieni. O ile dotrwa, bo niektóre "rewolucje" zdechły zanim się na dobre rozkręciły - np. mantle albo (nie)sławne dymy Nvidii ;)
PhyseX i jego zastosowanie do prezentacji oparów czy dymu był w grach w których został użyty, za to mantle niestety zmarło śmiercią naturalną głównie dlatego że AMD to nie NVIDIA. Co do wydajności to poczekamy do premiery, RT jest też wskazane w 2070 i moim zdaniem nie ma żadnej możliwości aby na o połowie wolniejszej karcie 2070 gra z RT miała 15-20fpsów. Warto też pamiętać że jest to korporacja giełdowa, gdzie raczej nikt sobie nie pozwoli na nieprzemyślane ruchy.
Dżizuz co oni zrobili z TR... zamiast dać dobrą grę to dają kaszankę w stylu CoD... akcja, akcja , AKCJA!!! A gdzie fabuła? A gdzie ciekawe zagadki? Gdzie interesujący gameplay? NIE MA MIEJSCA BO JEST AKCJA!!! Żenada :/
Akurat nowy TR ma być bardziej nafaszerowany zagadkami niż God of War ;)
@THeMooN85 -> Kochasz Indiana Jones, świetny gameplay i zagadki? To polecam z całego serca:
https://www.gog.com/game/la_mulana
https://www.gog.com/game/la_mulana_2
Śmiech na sali pewnie jeszcze się okaże że sam RT zżera z 30% więcej klatek.
Karta za 5,5k nie jest w stanie zapewnić 60kl/s w 1080p haha,przecież to jest kabaret w wykonaniu nvidi :D
Wiesz,ja na szczęście się tym nie przejmuje bo gram na konsoli ale takiego cyrku z kartami graficznymi chyba jeszcze nie było więc aż musiałem coś napisać.Swoją drogą jeśli Rtx 2080Ti tak "sobie radzi" w 1080p to na Rtx 2070(w końcu karcie za prawie 3k) będzie pewnie pokaz slajdów :p
Trzeba poczekać do pełnowartościowych testów, ale nie zapowiada się na rewolucje.
Wydaję mi się że większość osób mająca te karty z nowej generacji będzie wolała grać w wyższej rozdziałce lub z wyższym fps z wyłączonym tym ray tracingiem.Bo jeśli na Gtx 2080Ti klatki wahały się między 33 a 48 w 1080p to już na pozostałaych kartach z tej serii gra będzie niegrywalna bo nie utrzyma się chociażby tych 30kl/s na Rtx 2080 i Rtx 2070 a mówimy tu przecież o rodziałce FHD :)
Na oficjalnym zwiastunie tej gry i technologii z wczoraj już widać wyraźne spadki klatek. Wstyd.
Cóż, nie wiem czy to akurat źle świadczy o Nvidii czy raczej o programistach Tomb Raidera.
Tak czy siak trzeba być osłem, żeby gnać wciąż za nowinkami technicznymi. Współczuję ludziom, którzy dostają rozstroju żołądka, bo gra w określonych warunkach nie osiąga 60 klatek, bo kłaki się Larze nie bujają na wietrze i pysk nie świeci naturalnie jak się spoci. Jak długo można być ofiarą własnej naiwności, bezmyślności? Pewnie tak długo jak wystarczy pieniędzy.
Na pewno będzie.
Ale wyobraź sobie, że dajesz cztery kafle za kartę, a tu Ci się coś zacina. Jaki był sens zakupu tego sprzętu? Cztery kafle za kawałek laminatu i trochę krzemu. Zawsze powtarzam, że kto bogatemu zabroni, ale mimo wszystko ta rozrzutność, ewidentna rozrzutność bardzo mnie dziwi.
przeciez to jest niezoptymalizowana gra, coś jak minecraft , zawsze sprzęt będzie za słaby.
Czyli albo optymalizacja jest uwalona po całości albo nowa RTX2080TI ma jeszcze mniej mocy w realu niż gtx 1080TI
Poprzednia generacja kart graficznych nie obsługiwała ray tracingu. Ray tracing jest na razie bardziej ciekawostką i prototypem tej technologii. Karty nowej generacji są znacznie bardziej wydajne i bez ray tracingu prawdopodobnie poszło by w znacznie lepszej rozdzielczości.
Kupując RTX 2080Ti zrobiłbym wielki błąd! Dlatego dziękuję za opublikowanie tego filmu, bo teraz zrozumiałem co Nvidia chce mi przekazać...muszę kupić dwie karty!
e to rewolucji w wydajności nowych kart nie będzie wzgledem poprzednich,no i dobrze.
Myślę, że obecnie ray tracing może robić większe wrażenie w bardziej skondensowanej formie w niedużym izolowanym środowisku. Coś jak tamto ostatnie demko PICA PICA. Na duże produkcje jeszcze za mała moc obliczeniowa.
W niektórych liniowych grach AAA przy dobrej optymalizacji ray tracing też mógłby dobrze działać. Już kilka miesięcy temu były gameplaye Metro Exodus z ray tracingiem.
A ja tam się cieszę. Nawet jeśli będę miał tylko 25 klatek, a tyle się u mnie zapowiada, warto będzie tak pograć i zobaczyć to wszystko na nowym projektorze z włączonym HDR'em 10. Wyłączy się jakiś zbędny AA, cienie da na medium i reszta pozostawiona na ultra powinna dać już grywalną grę z RT :) Wyobraźcie sobie - HDR10 + RT - orgazm wizualny :D Zresztą nie wyopbrażam sobie innego combo niż RT + HDR. Nawet jeśli byłoby to medium (a nie będzie na pewno), to wolę to, niż rezygnacja z RT i HDR'u .
Masz zamiar zakupić wersję Ti?
Nie. Mam zamiar zrobić redukcję detali na obecnym 1080Ti, byleby tylko był HDR + RT. Każde cięcie detali, byle nie te 2 efekty i nie tekstury. A tych ciąć raczej nie trzeba będzie na 16GB Ram i 11GB VRam :> Czyli tak na prawdę najważniejsze będzie. Reszta to nic nie znaczące pierdoły. Myślałem nad kartą, ale wolę zainwestować bardziej w Projektor z HDR'em 4K niż kartę, która i tak sobie z tą grą w pełni nie poradzi. Efekt będzie ten sam, co na 1080Ti, tylko więcej klatek, któych i tak będzie za mało, więc na cholerę mi nowa karta teraz ?
A co jeśli poprzednia generacja nie poradzi sobie z Ray Tracingiem?
Zmiana detali na pewno coś da. Jeśli nie to, co wymieniłem, to inna rzecz, ale na bank jakaś kombinacja to pozwoli. Nie ma bata, by nie dalo się grać na 1080Ti z RT i HDR'em jakimś sposobem. Na 1070-tce może i nie ma takiej opcji, ale nie wierzę, że karta za ponad 3 tysie na to nie pozwoli. A po premierze serii RTX nadal ma tyle kosztować.
Skoro główną nowością w kartach z serii 20xx jest Ray Tracing, to jakim sposobem chcesz żeby to działało na starszych modelach?
Po prostu te karty są reklamowane, jako te, na których będzie się dało odpalić RT, ale 1080Ti wg specyfikacji ma być wyraźnie szybszy od 2070-tki, która też ma nazwę RTX. W dodatku 11 GB Vram na pewno robi swoje. Tak samo OCulus Rift miał nie działać na serii 7xx, a okazało się, że 780Ti jako jedyna karta z serii 7 go obsługiwała właśnie dlatego, że jest szybsza od GTX'a 970. Tutaj pewnie będzie tak samo.
100% pewności nie mam, ale skoro karta i tak jest szybsza od 2070-tki (choć ostatecznie testy to zweryfikują), to jest na to szansa. Zwłaszcza, że 1080Ti ma inne sterowniki niż np 1080 noTi, więc kto wie :)
To, że jest (być może) szybsza nic nie znaczy. Nie była produkowana z myślą o tej technologii.
Ale techdemko SW z RT było odpalane na trzech gtxach, a nie RTX'ach, co świadczy o tym, że działa.
Patrząc na to, że wg informacji RTX 2080Ti ma problem z FHD i 60FPSami z RT w Tomb Raiderze, to na 1080Ti sobie z RT w ogóle komfortowo nie pograsz. Brak tensor cores i jednostek do ray tracing dobije tę kartę.
Ale techdemko SW z RT było odpalane na trzech gtxach, a nie RTX'ach, co świadczy o tym, że działa.
Mówimy o tym demie Star Wars na UE4? To nie były GTXy, tylko Tesle V100 (kosztujące +/- 9000 dolarów każda) i nie trzy, tylko cztery i wyciągały mniej niż 30FPS w FHD. V100 to mocniejsze karty niż 1080TI i w dodatku mające jeszcze jedną rzecz, której 1080Ti nie ma - tensor cores. To samo demo leciało w podobnej jakości i frameracie na jednym 2080TI. Więc jak ty chcesz mieć RT w odpowiedniej płynności na jednym Pascalu, to nie wiem.
Ale jak dobrze słyszałem to w 4k ustawienia ultra nie schodzi poniżej 60 fps'ów? Z wyłączonym RT czy jak to jest?
Z wyłączonym to podejrzewam, że bez AA spokojnie pograsz w 4K na Ultra na ...1080Ti.
Na stronie forbes fajnie podsumowali te karty jako zapchajdziurę przed 7nm procesem technologicznym. Lepiej poczekać rok niż wydawać mnóstwo pieniędzy na 10% wzrost wydajnosci w stosunku do poprzedniej generacji.
Hahahahahaha!!!
Dlaczego technologie NVIDIA zużywają tak dużo mocy karty graficzne? Są tylko po to, by gracze są zmuszone do kupienia mocniejsze karty graficzne. Taki chwyt marketingowy. To tylko moja teoria. :)
Niech twórcy gier nauczą się tworzyć grafiki gry bez pomocą technologii NVIDIA. Da się. Trzeba tylko mieć uzdolnione programiści i dużo cierpliwości. :)
Haha a ludzie wzywają że ps4 pro nie ma 60 FPS a tutaj karta za tyle tysięcy nie ma ??????
Za to nie mają zaawansowane technologii graficzne. Wystarczy wyłączyć zbędne opcji graficzne takich jak Hair Works w Wiedźmin 3, a będą działać na PC dużo lepiej od PS4.
Na Play Station 4 Pro nie obsługuje ray tracingu. Gra nie wyciągała 60 fps przy włączonym ray tracingu, który jest nową, bardzo wymagającą technologią. Bez ray tracingu działałaby dużo lepiej, nieporównywalnie z PS4pro.
@Sir Xan
Czyli ktoś kupi RTX 2080Ti za ponad 5 tys. zł po to, żeby od razu wyłączać Ray Tracing w grach, tak??? Chyba to nie jest normalne. Nawet jeśli wydajność w grach będzie lepsza o około 20% bez RT, to i tak dopłacanie ponad 2 tys. zł względem gtx 1080Ti będzie nieopłacalne.
@XoniC -> Nom i to jest bez sensu. Ale to wina źle napisane skrypty. Popatrzmy na Uncharted i Last of Us dla PS4, a ile programiści potrafią. To kwestia uzdolnione programiści. Po prostu coraz więcej programiści na PC poszli na skróty i stąd te skopane optymalizacje.
Popatrzmy na Dark Souls 3, Wiedźmin 3, Metro Last Light, Crysis, Kingdom Come i tak dalej. Wyglądają bardzo ładnie bez nowe technologii RTX, a mają niemało FPS.
Krótko mówiąc, technologie Hair Works i nowe RTX od NVIDIA nie mają racji bytu. Niech znajdą "neutralne" programiści, co potrafią napisać skrypty dużo lepiej i to bez "oszustwo" w celu zachęcanie zakup lepsze karty graficzne.
Ciekawym gameplayem by się zajęli durnie, a nie tym czy psia kupa paruje podczas zimna.
CIenie medium, brak AA, ew zmniejszenie Ambient occlusion i będzie i RT i HDR na 1080Ti, więc po co te narzekania ? :P
raczej nie bedzie. jak juz wyjdzie tr to zrob gameplay jak Ci to dziala z rt na jednym 1080 ti
Po co te narzekania? Karta za ponad 5k nie potrafi uciągnąć gry na ultra w 60klatkach w zaledwie FHD, które robi się powoli przeżytkiem? Może dlatego ktoś raczy narzekać? xD
No trochę dziwne, naprawdę już myślałem że będzie te 60 fps i w ogóle a tutaj pupa.
nie mogłem się powstrzymać śmieszne to wklejam mimo że jestem zachwycony technologią :)
Widze, ze jest problem ze zrozumieniem pewnych drobiazgow.
Tak, nowe nvidie to karty rewolucyjne, glownie z powodu zmiany podejscia.
Niestety nie da sie tak, ze bedziemy rasteryzowac po staremu i raytracowac po nowemu jednoczesnie.
Albo, albo.
I o ile w rasteryzacji karty te sa szybkie, to tym razem technologiczna para poszla w zupelnie inny gwizdek, da sie robic grafike w inny sposob - rezygnujac z rasteryzacji (tak naprawde czesciowo wiec to bedzie hybryda) Tylko ze raytracing pozre zasoby w duzo wiekszy sposob niz poprzednie rozwiazania - to karta idealna dla tworcow gier - bo beda sie mniej meczyc, ale z perspektywy gracza wychodzi podobnie.
Wszystko tak naprawde kreci sie wokol nowego silnika karty, to nie jest 5 litrowy wolnossacy 400 konny potwor, tylko turbodoladowany trzylitrowy 500 konny technologiczny cymes.
I jednym i drugim da sie szybko.
Te karty wytyczaja pewna droge, ktora pojda wszyscy producenci, zastosowanie AI do postprocesu to dodatkowa wisienka na torcie. Polecam poogladac na yotubie filmy o technologii optix od nvidii.
i jeszcze jedno, karty maja tyle samo pamieci co poprzednicy (inna rzecz ze szybsza) glownie dlatego, ze potrzeby beda mniejsze.
Ale skoro te nowe karty to tylko troszkę lepsze osiągi (zwiększony pobór mocy i temperatury względem serii10) i RT to nie jest nowa generacja tylko skromny kroczek w jej stronę. A oni już w nazwie przeskoczyli 10 generacji kart chyba tylko z powodu wzrostu ich cen.
Technologicznie to jest kompletnie nowa generacja - czasem nie chodzi o to czy bedzie 10 czy 15 fps wiecej.
Jest rozwiązanie na stałe 60 klatek i więcej.
Ustawiamy wszystkie ustawienia graficzne na niskie jedyną opcją włączoną będzie Ray tracing.
Oczywiście rozdzielczość ekranu 640x480.
Nvidia i ich super technologie, które nic nie wnoszą, zawsze mordowały wydajność; nic nowego przecież.
Architektura kart 100 lat za murzynami, technologie z pupy, optymalizacja skopana, ceny z kosmosu, robienie klientów w jajo. Ot, cała Nvidia w pigułce.
tylko zobacz info z PH, lub innych serwisów które już kartę mają co napisali : że efekt RT który był w shadow of the tomb raider jest niesamowity, że to jest implementacja na szybko aby pokazać ten efekt na targach, gra dostanie patcha z RT jak będzie właściwie wykonany + spora część gier jakie testowali uzyskała ponad 100 fpsów w 4K, dla przypomnienia 1080ti uzyskuje w większości przypadków od 30-50 w tej rozdzielczości.
Nvidia i ich super technologie, które nic nie wnoszą, zawsze mordowały wydajność; nic nowego przecież.
Bo przecież GPGPU, T&L czy programowalne shadery to technologia, która nic nie wniosły.
Architektura kart 100 lat za murzynami
xDDDDDDDDDDD Niby kto ma technologię i architekturę lepszą od Nvidii jeżeli chodzi o GPU? Bo na pewno nie AyyMD.
B-b-b-b-ut mah async compute. AMD nie potrafi sobie nawet poradzić z tiled rendering i primitive shaders w Vedze, mają żałośnie mało ROPów a ich tesselatory ssą od samego początku xD
optymalizacja skopana
Rozumiem, że widziałeś kod i odpalałeś grę w profilerze, by wiedzieć cokolwiek o tym, jak jest zoptymalizowana? xDDDD
Przecież są po to, by zmuszają graczy do kupowanie coraz lepsze karty graficzne. To sprytna pułapka. XD
Lepiej jest polegać na skrypty graficzne od neutralne programiści.
A.l.e.X - jakby nowe karty były takimi potworami wydajności, że w 4K byłoby 100 fpsów względem 30 fpsów 1080Ti to pochwaliliby się jakimiś danymi. Nie, użyli tylko gigarays, aby się pochwalić "ogromnym skokiem". Nie kupuję tej marketingowej gadki, czekam na testy. Czytałem tylko o jednej grze, ale nie podali ile w niej ma 1080 Ti, pewnie z 80+ fpsów w 4K.
Czeslawos - masz całkowitą rację, sam obstawiam na 30-40% wzrost wydajności względem 1080ti (tak wynika z specyfikacji), chyba że osiągnęli niesamowitą sprawność rdzeni. Testy będą zapewne do końca sierpnia. Redaktor z guru3d napisał że prawdopodobnie w 7-14 dni od ogłoszenia lub niewielka chwilę po zakończeniu GC.
Nie będzie tyle, maks 20% daję. Cała para poszła w tensory, przecież te karty nawet CUDA mają obcięte.
Też myślę, że 20%. Z teraflopów wychodzi jakieś 15% + 5% za sprawność. I pewnie będzie 1070 > 2070 > 1080 > 2080 > 1080 Ti > 2080 Ti.
Bardzo jednak bym się chciał mylić, bo chciałbym kupić 2060 zbliżonego do 1070 w cenie ok. 1700, ale przy tych cenach to nie wiem, czy to się nie zrobi 2000 za 2060.
No to muszę przyznać, że kiepsko to wygląda, ponieważ jeśli nowy TR nie będzie osiągał 60fps w 1080p na RTX 2080Ti za 5500zł, to w ilu klatkach ta gra będzie działała na RTX 2070 z włączonym RT??? 40 fps w rozdzielczości 720p??? Trzeba poczekać na jakieś testy i wtedy wszystko się wyjaśni.
nvidia jak intel się robi , po 5 procent wzrostu wydajnosci co roku :D
No może nie 5%, ale nie więcej pewnie niż 20% względem starej generacji. Pewnie 2070 nawet nie sięgnie wydajności 1080 itd. Ma moc 7,5 teraflopów (poprzednia miała 6,5, więc wzrost około 15%), a 1080 ma 8,9. Także ja bym się nie napalał na nowe karty, dopóki nie ma testów.
A jaka różnica w jakości ? wyglądało by lepiej jakby chodziło w takiej samej ilości klatek ?
Widzę że większość nie zrozumiała o czym jest ten news.
Że włączony RTX zabierze strasznie dużo mocy obliczenie? Tak jak Hair Works od Nvidia i 4x MSAA? Że najnowsza karta graficzna od NVIDIA wymiękła?
Wiadomości, tytuł "Nvidia GeForce RTX 2080Ti nie uciągnie Shadow of the Tomb Raider w Full HD przy 60 FPS i włączonym RTX"
Ani grafika ani gra nie wyszła jeszcze. Ale już teza jest postawiona ;) Ot wiadomości.
Jeszcze będą dokręcali pewno wiele rzeczy.. pewno tak będzie, że raczej super liczby FPSów nie wyciągneimy, ale na pewno więćej niż tutaj widzimy.
Chociaż i tak nie kupię tej karty ;p bo mnie szkoday kasy ;)
Spocono Zofio, nic nie pisałem o kupowaniu karty w dniu premiery. Ja należę do tych co jak widzą preordery to się łapie za głowę. Ja nawet nie kupuję gier dwa miesiące po premierze bo czekam na patche lub informację o tym że developer olał grę w stanie jakim zostawił i nie zamierza fixować - patrz Nier Automata na PC. Więc absolutnie nie, ja bym powiedział że jest pisany zakaz ;) Ale z drugiej strony, dzięki ludizom co kupują te gry i sprzęty ASAP możemy zdecydować czy my możemy kupić lub nie
Rejtrejsingi, antyaliasy, inne gówna, a twarz Lary w ogóle nie przypomina tej z pierwszych dwóch części... po co mi wodotryski, skoro to zmienili?
- firmy nie rozwijaja technologi? To wina konsolofcuff, ze spowalniaja rozwoj!
- firmy rozwijaja technologie? Zmuszaja nas do wymiany sprzetu!
Kufa, tym pc master race'om to juz nie dogodzisz ;D. Cokolwiek bedzie to bedzie zle xD
Jeśli rozwój technologii ma być związany z wysokimi cenami i słabą wydajnością, to ja podziękuję za takie coś.
Dziękuję Ci za taki rozwój okupiony wzrostem ceny o 100% w cztery lata (970 vs. 2070). Za kolejne 4 lata i kolejne 2 generacje x70 będzie za tyle co dziś 2080 Ti (5,5k)? A ile za 4080 Ti? Tylko skromne 10 tysi?
Ja wolę w tą stronę niż kiepska grafika
Skąd wiesz, skoro nie grałeś?
Kazda nowa technologia wymaga czasu do optymalizacji i odpowiedniej implementacji. O ile dla konsumenta to nie robi tak wielkiego wrażenia, tak dla twórców to jest świetne rozwiązanie. Jeśli pójdą w sprzęt, który będzie miał duza moc obliczeniowa pod Raytracing to może być dobra wiadomość. Dlaczego? Wyobrażacie sobie ile czasu można zaoszczędzić gdy nie będzie potrzeby programowania i skryptowania wszystkich źródeł światła, cieni i odbić?
To teraz wyobraź sobie w wymaganiach minimalnych RTX 2070 bo gra w pełni wspiera RT i chce to pokazać. A jak wiadomo GTX 2060 i poniżej już tego bajeru posiadać nie będą.
Rzecz w tym, ze póki co nikogo nie obchodzi Raytracing, bo jeszcze nikt się z nim nie zapoznał i sprzęt potrzebuje kilku generacji żeby to w pełni wspierać. Również moim zdaniem wypuszczanie w tej chwili Ray tracingu do gier to falstart. Prawda jest taka, ze minie parę lat (o ile nie dekada) zanim twórcy będą mogli w pełni korzystać z tej technologii. Nawet nie wspominam o monopolistycznych praktykach nvidii, tylko o samym postępie w branży.
najpierw NV a ma ekstremalnie silną pozycję będzie to promować w każdej lub prawie każdej grze z GW (czyli zapewne z 20 gier rocznie AAA), potem dojdzie do głosu AMD, a następnie będzie to normą, akurat w przypadku RT moim zdaniem rozwinie się to błyskawicznie tak samo jak HDR.
Kiedyś to wypuścić muszą i nie ważne kiedy by to zrobili to technologia będzie się przyjmowała z biegiem czasu. Tak jest ze wszystkimi nowinkami. Jednocześnie to jest powód dla którego ludzie się burzą na ceny tych kart, bo chyba wszyscy się zgodzimy, że nie jest niczym uzasadniona (minimalny przyrost wydajności w stosunku do obecnie najmocniejszego układu + technologia w wersji "testowej").
Merytorycznie ten news jest wręcz żenujący. Nie ma informacji o wersji gry na jakiej RT był testowany. Pełna, zoptymalizowana wersja? Beta? A może w ogóle Alfa, która ledwie dyszy i na żadnym sprzęcie nie ma więcej jak 40fps? :D Druga kwestia to oczywiście programowe wsparcie sprzętu. Oficjalnych sterowników chyba jeszcze nie ma, więc pewnie pod tym względem też mamy do czynienia z jakąś Alfą czy Betą. :D
No ale to praktycznie nikogo tu nie zainteresowało. Jest klikalność i jest płacz, że "słabo". Żenua.
Oni musieli wiedzieć jak to będzie działać w obecnym stanie, a jednak zrobili pokazówkę by nacieszyć fanów tą technologią. Wyszło jednak na odwrót i żadne tłumaczenia im teraz nie za bardzo pomogą typu "to wersja alfa" czy "wina sterów". Mogli najpierw dopracować i następnie pokazać efekty swojej pracy, nie inaczej.
@rastablasta Ale co niby wyszło na odwrót? Trzeba być przecież być idiotą, żeby takie "testy" brać za wyznacznik czegokolwiek. Jakie tłumaczenia im teraz nie pomogą? RT albo działa albo nie. Jeśli w normalnych warunkach będzie działał i będzie 60fps, to przecież nie ma problemu. To tak jakby jakiś kretyn płakał, że najnowsze Porsche robi 100km/h w 10 sekund, bo jedyne jakie widział to takie na lawecie. :D Żenada pełną gębą i tyle.
@Assassinek06
Chyba się do końca nie zrozumieliśmy. Fakt faktem jeśli ma to ostatecznie działać normalnie, to nie widzę w tym nic złego. Problem jednak pojawia się w przypadku sensu pokazywania prezentacji z grą w której są trudności z utrzymaniem płynności, więc chyba nie powiesz, że to dobra reklama tej technologii ? Jak również pisałem w poprzednim komentarzu mogli zaprezentować fragment z gry wtedy gdy już by to przyzwoicie działało, a w ten sposób tylko zrazili do ray tracingu sporo osób szczególnie patrząc pod kątem cen kart graficznych jakie podali.
@rastablasta No ale ktoś chciał się pochwalić, że nowy TR będzie jedną z pierwszych gier obsługującą RT. Mieli to robić dopiero po premierze, gdy już wszystko będzie tip top? Mogliby się obudzić z ręką w nocniku, jako że implementację RT szykują w patchu czyli już po premierze gry. Jak dla mnie to oni wywieźli lawetą nowe Porsche, żeby pochwalić się "nowym lakierem" i wywołali płacz nieogarniających nic dzieci, które narzekają, że "wolno jechał". ^^
@Assassinek06
Nawet jeśli uda im się poprawić wydajność w ray tracingu w zapowiadanych grach w najbliższym czasie to tylko lepiej dla nich. Wcale by mnie to nie zdziwiło jakby rt skończył jak hairworks. Miał być zapowiadany kolejny przełom w grafice, a trafił tylko do kilku gier i w rzeczywistości mało kto z tego korzystał bo powodował ten efekt znaczne spadki wydajności. Tutaj wprawdzie zapowiedzieli na początek więcej gier, ale sam nie bądź zaskoczony jakby na tym się lista gier zakończyła. Bo po prostu nikt nie będzie robił gier z ray tracingiem specjalnie pod ułamek grających osób które mają sprzęt by to obsłużyć.
@rastablasta
No i teraz pojawia się pytanie: jak naprawdę będzie chodził RT na nowych kartach, bo przecież tylko idiota będzie sugerował się powyższym testem. Gdy już gry i sterowniki będą w miarę zoptymalizowane pod kątem RT myślę, że będzie zdecydowanie lepiej. Moim zdaniem firma, która obraca miliardami nie pozwoli sobie na strzał w stopę i fakt, że tylko najmocniejsza ich karta obsłuży dobrze RT, choć wszystkie nowe karty mają ten skrót w nazwie.
Ja tam czekam na prawdziwe testy a póki co pośmieję się z tych płaczów. :D
Brniecie w doskonalenie technologii rasteryzacji to jest po prostu slepa uliczka, nie mozna w nieskonczonosc podbijac framerate bo komu bedzie potrzebne 300 fps w Counter Strike czy 150 w Tomb Raiderze? czy 12k ktorego i tak nikt nie zobaczy.
VR jest zbyt malym rynkiem zeby mial znaczenie dla tego typu strategicznych decyzji.
I skoro jest to DEAD END trzeba po prostu zmienic kierunek, raytracing to jedyna sensowna droga bo tam nie ma ograniczen nakladanych przez rasteryzacje, w tej chwili nadszedl moment ze mozna to zrobic bo karty sa juz w stanie podolac temu zadaniu.
Ludzie z NV doskonale wiedza, ze sama karta bez developerow i know how nie ma racji bytu i przygotowuja rynek pod trzesienie ziemi, to nie stanie sie teraz, ale za dwie generacje wszyscy zapomna o rasteryzacji takiej jak do tej pory - wypalanie tekstur, lightmapy, env mapy itp.
tutaj siggraph i prezentacja wspomaganego przez karte RTX renderingu dla potrzeb TV i filmu (renderer arnold)
https://www.youtube.com/watch?v=9A81NeQgJFE
Tu nie chodzi o negowanie tego jako postępu, tylko o marketing Nvidii, która sama promuje karty RTX, że niby wystarczy pojedyncza do uciągnięcia tego, a tak naprawdę nie wystarczy i RTX przyjmie się za kilka lat. Może, bo musi wejść na rynek konsumencki, a nie dla maniaków.
Tylko o to chodzi - o głupawy marketing Nvidii. Super, że to wprowadzają, ale te karty to nie jest jeszcze to.
Wyraźnie widać, że technologia jest dopiero w powijakach, jeśli chodzi o jej zastosowanie gamingowe. Możliwe, że zaprezentowano ją za wcześnie. Nie ma jednak wątpliwości, że wcześniej czy później musiała zostać wprowadzona. W przyszłości (za dwie generacje) będzie standardem. Raczej nie sprawdzą się głosy tych, co twierdzą, że jej zastosowanie będzie niszowe. Póki co, Ci których stać będzie na nowe karty Nvidii, będą musieli sobie niestety włączyć limit 30 fps-ów, jeśli będą chcieli w miarę komfortowo grać z ray-tracingiem.
Ależ narzekania. Karta graficzna z układową realizacją RT to dla ludzi znających się na tworzeniu danych dla gier, silników graficznych to Święty Graal. Wreszcie jest. Oglądałem prezentacje w całości z SIGIGRAPH. To przełom. Absolutny przełom technologiczny. I do tego to AI.... tytuły na przyszły rok będą z tego korzystać na przeróżne sposoby. Ten potencjał to znacznie więcej możliwości niż doskonalenie jakości grafiki. To dwa nowe wymiary dla developerów. Rewelacja. Gry tylko zyskają na ogólnej jakości bo oszczędzi to czasu na modelowanie sztucznych struktur danych, wiele rzeczy odpadnie z tego co się teraz trzeba napocić by "ucieszyć gracza". A wydajność? Jak zawsze - ktoś kupi teraz, ktoś kupi następne, ktoś podkręci. Wszystko jak zawsze. Nie ma co narzekać. Hydro2 - odpalenie opcji RT na karcie bez nowych układów, o ile wogóle to będzie możliwe, będzie jak odpalenie swego czasu software renderingu w starym dobrym Unrealu z włączonym filtrowaniem tekstur i światłami na karcie bez wspomagania sprzętowego.Czyli pokaz slajdów. Ale nie wierzę by ktoś się rzucał do implementowania RT softwaerowo dla gier (np. w DirectX API bo to nie jest poziom sterowników) na potrzeby kompatybilności ze starymi kartami - to nie ma absolutnie sensu.
Wiesz, jeśli będzie pokaz slajdów na 1080Ti nawet na medium, to najwyżej wyłączę ten efekt. Liczę jednak, że będzie na to jakiś sposób. Co do pierwszej części Twojego postu - 100% zgody i plus 1 :)
Łykacie wszystko jak pelikany. Zobaczycie, że jeszcze ogram to na gtxie 760 2gb a tu są osoby, które zamierzają łączyć rtxy do tej gry haha. Marketing nvidii jest bardziej przemyślany niż się komuś by wydawało.
Szejk18 - mam zamiar specjalnie dla Hennepina nagrać gameplay z 4K HDR RT z obrazu z projektora właśnie na jednej 1080ti. Gorzej będzie, jeśli ten efekt nie będzie w ogóle aktywny na 1080Ti. Wtedy nagram tylko 4K HDR, ale już z naciskiem na 50 fps (bo 60 pewnie nie uciągnę)
Nie wiem czy sprawdziłeś ale ten projektor nie ma natywnej 4k tak więc nie wyświetlisz, będzie pseudo 4k jak na konsolach więc możesz mieć te 60 fps ale to nie będzie w natywnym 4k. A HDR to zobaczysz raportem mierną namiastkę tego efektu.
Wiem oskonale, że obraz jest skalowanyvz 2880x2160 (czy jakoś podobnie :p), ale to już konkret i gołym okiem nie rozróżnisz tego od natywnego 4k, o czym piszą w reckach, a namiastką bym tego nie nazwał (to nie hdr+ (8), więc choćby z tego powodu. Lepiej słaby 10 bitowy niż lepszy 8), choć na nim mi zależy mniej. Nie mogę się to doczekać. To już dzisiaj :
Pewnie nie odróżnisz bez siedzenia z nosem przy ekranie ale to tłumaczy dlaczego jest w stanie wyświetlić "4k" 60 fps z 10 bitowym HDR bez display port czy przyszłego standardu HDMI 2.1. W natywnym 4k byłoby to niemożliwe. Piszę namiastka bo ma bardzo niskie pokrycie barw - zaledwie 82%, żeby był efekt to powinno być co najmniej 10% więcej no i zdecydowanie większa jasność, zdaje sobie sprawę, że takie projektory kosztują z 3-4 razy więcej, dlatego tak, jest to namiastka, tak jak na budżetowych TV co mają znaczek HDR ale w rzeczywistości to ledwo różni się od obrazu SDR.
A w to wszystko akurat jestem w stanie uwierzyć. Mogłeś tak od początku. Obeszło by się bez wcześniejszych sporów. :)
Hennepin - zobacz, co trzymam w ręku. Jak to skomentujesz (pozycje 4 i 6 że specyfikacji) ? --->
Mowiles, ze takiego hdmi nie ma, jest tylko display port. :> Odnośnie projektora - p...a kwas, muszę czekać do poniedziałku:/ No, chyba, że status był na sobotę, to mam zamiar specjalnie jutro przyjść do pracy i dostarczyć sobie swoją własną paczkę :P Niestety, szansa, że jest status sobotni wynosi....10% :/
No nie ma żadnego na świecie jeszcze urządzenia z HDMI 2.1 więc co chcesz udowodnić?
Ale ten kabel od kilku miesięcy był w sprzedaży. Po co zatem ? :P Dla takich sprzętów jak ten projektor ? Jeśli tak, to po co napisali na nim punkty 2 i 4 ?
Jezu Ty naprawdę jesteś niekumaty, kable są od dawna zdolne przesyłać takie ilości danych, ale musi być urządzenie, które to obsługuje, pierwsze pojawią się na początku przyszłego roku. Kabel nie problem wyprodukować, bo ma wsteczną kompatybilność. Twój projektor ma dwa wyjścia jedno HDMI 2.0 drugie HDMI 1.4, czego nie możesz zrozumieć? Zresztą nie masz się czy martwić, projektor ten nie obsługuje natywnej 4k więc niepotrzebne mu wyjście HDMI 2.1 czy Display Port. Musisz też doczytać co to jest RGB i YUV420/422 bo jesteś totalnie zielony, serio, ciężko z Tobą tutaj rozmawiać jak masz zerową wiedzę w tym temacie.
Tutaj masz specyfikacje z oficjalnej strony.
https://www.benq.com/en/projector/cinehome-home-cinema/w1700/specifications.html
2 (HDMI 1: 2.0 / HDCP 2.2 ; HDMI 2: 1.4a / HDCP 1.4)
Ten drugi to nie 2.0, tylko 1.4a. Reszta możliwe, że tak jest. A RGB i YUV akurat wiem, jaki to jest :P
Edit - hmmm, ok, dzięki za link. Sam widzisz, że drugi, to 1.4a :P
A co do 3D - to na stronie widać, że nie uaktualnili, bo najnowszy firmware pozwala na 3D w 1080p 60Hz
No napisałem że 1.4, to jest jeszcze starszy standard. Więc podłączasz GPU do tego pierwszego wyjścia HDMI 2.0.
Ok, mam jednak nadzieję, że chociaż życzysz mi miłego użytkowania:P Wrażenia będę szczere, bo będę miał okazję porównać hdr do Panasonic TX-55EZ950E (Tak mam dosłownie wklejone). Specjalnie poprosze o odpalenie na nim FC5. Dobry jest jako tv z hdrem?
Hydro - HDR na projektorze zobaczysz nawet przy dość niskiej jasności, ale musisz zapewnić mu odpowiednią ciemność co w przypadku projektora niestety przesuwa go albo do b. ciemnych pomieszczeń albo na noc, bez zbędnych źródeł światła w pomieszczeniu. Za to słabe w nim będzie odwzorowanie kolorów, nie osiągalne dla tego co oferuje dobry monitor czy TV. Oczywiście słabe to pojęcie względne bo zawsze trzeba odnieść coś do czegoś, ale w przypadku TV, czy monitorów masz pewne standardy w pokryciu kolorystyki.
Jeśli chodzi o HDMI2.1 nie dostała go nawet seria 2xxx bo HDMI2.1 na ten moment nie jest konkurencją dla DP1.4. Jak zaczną pojawiać się urządzenia z HDMI2.1 to dopiero wtedy może przy serii 3xxx karta dostanie te złącze.
Ja i tak gram dopiero w nocy i przy zgaszonym świetle. Co do obsługiwanej rozdziałki przez HDCP 2.2 oraz złącze HDMI 2.1, to Hennepin już mi wszystko wyjaśnił, ale dzięki wielkie za info :)