Ray tracing w Battlefield 5 dosłownie zabija FPS-y
Alex to ignorant i janusz gamingu w drugą strone, dostaje orgazmu z byle wodotrysku. Nie ma sensu czytać jego wypocin.
To jest przecież skandal. Te karty kosztuja gruby hajs. I co liście powodują, że są spadki i to łatają? Obniżą ilość liści albo ich jakość i po kłopocie.
Na tym filmiku porównującym nie widzę żadnej różnicy. Bez włączonego RT gra wygląda dobrze, a z włączonym to nie mogę się dopatrzeć tej technologii. Może Alex coś więcej napisze bo on lubi się zachwycać małymi rzeczami.
Jeśli tak będzie w większości przyszłych produkcji, a w przypadku B5 nie zostanie to sensownie zoptymalizowane to cały RT okaże się największą wpadką w historii i kompromitacją zielonych.
Gram właśnie w singla Star Wars Battlefront II (dostałem za darmo w ramach Origin Acces) i w tej grze bez żadnego RTX odbicia są tak świetne, że w ogóle się zastanawiam po jakiego grzyba przepychać ten Ray Tracing skoro zarzyna on najpotężniejsze karty, wymaga stosowania w kartach specjalnych układów i nie daje wymiernych efektów wizualnych, skoro podobne efekty można osiągnąć bez jego użycia?!
Chyba po to tylko by marketingową papką wciskać ludziom najdroższe karty, których zwyczajnie nie potrzebują.
Zdecydowanie lepsze wrażenie wizualne zrobi 4K w 60 FPS niż ten RTX w 1080p!
RTX to +1000 zł do karty. Nvidia wygrała swoim marketingiem pokazując zwymyślane dema. Najlepszy mem jaki powstał to taki że jak jest rtx off to masz kasę w portfelu, a jak jest rtx on to kasy nie ma.
Dopiero to jest pierwsza generacja RTXa. Poczekajmy na drugą lub trzecią wtedy taki RTX będzie już w kartach najniższego szczebla. Zawsze tak jest. Jakoś do tej pory każdy grał bez RTX to co szkodzi poczekać jeszcze z 3 lata ? Nowości zawsze kosztują. Dobry samochód też nowy kosztuje ze 100 tysięcy, a po roku traci na wartości 30% i więcej bo zastępuje go nowszy model. Wyjdą karty lepsze od obecnych to zbiją cenę. RTX 2080 będzie po 1200zł używki za kilka lat.
@Rumcykcyk
>pracuj 10 lat nad technologia RTX do komercyjnych kart graficznych
>zbieraj lincze i płacze ludzi którzy nie ogarniają że przez te 10 lat pochłonęło to w chuuu. mamony
A co ludzi obchodzi ile kosztowały badania nad technologią? Jak zamierzają podnosić tak cenę to niech chociaż coś to daje, jeżeli nie są gotowi na sprzedawanie tego za tyle ile konsument to wycenia to niech nie sprzedają.
@siera97
a czytałeś aktualizacje tego tematu?
Tak, wciąż nie wiadomo o ile ten błąd zmniejszał wydajność, wiadomo za to że cena za możliwość grania w fullhd 60 fps jest tak czy siak za wysoka.
Teraz jest już jasne, czemu Nvidia nie chcąc dać graczom wyboru, tak nagle wygasiła produkcję serii 1000. Te nowe karty są po prostu BEZUŻYTECZNE i "zieloni" najwyraźniej doskonale o tym wiedzą, mając świadomość jak bardzo wtopili (programiści zajmujący się implementacją RT w swoich grach na pewno już jakiś czas temu donieśli im o problemach)...
Kilkuprocentowy wzrost wydajności (względem 1080 ti) nie jest sam w sobie wart tak dużej dopłaty, a kartą przetargową miał być właśnie raytracing... który - jak się okazuje - zwyczajnie nie działa (chyba że kogoś z komputerem w cenie niezłego samochodu, zadowala granie w niestabilnych 30 FPSach).
Do boju czerwoni, pora rozwalić im ten monopol!
Pracują głównie nad GPU dla konsol a karty dla PC będą pewnie odgrzewanymi kotletami albo kolejnymi nieudanymi potworkami jak Vega. Nie ma ich co zachęcać, bo znowu się rozpędzą z "poor Volta" czy innymi błazeństwami.
Może tak, może nie. W zasadzie wystarczy, że wypuszczą kartę o surowej mocy zbliżonej do kart zielonych z serii 2000, ale zarazem bez RT (czy innych udziwnień) i dzięki temu tańszą. Małe szanse ale pomarzyć można ;(.
Hej, hej.. "bezużyteczne" to trochę słowo na przerost. Bezużyteczne może w RT - chociaż bym się nie zgodził że zupełnie. W FHD można grać bezpiecznie. Chociaż takiej karty nie kupuje się dla FHD, chyba że dla samego RT ktoś.
Ale nadal 2080TI dużo lepiej sobie radzi w 4K niż 1080TI bez tego bajeru. Zawyżone cenowo.. to już wtedy możemy rozmawiać, bo się zgadzam. Ale nie są bezużyteczne.
Do tego DLSS i lepszy mesh shading.
Cena nie adekwatna do produktu i wydajności, którą mieliśmy otrzymać, jasne ;)
@Up
Chcesz kupić Ferrari. Masz do wyboru 2 modele, "zwykły", kosztujący 500 tysięcy i model Electro, który ma hybrydowy napęd, tj. może jeździć na benzynę lub elektryczność, przy czym trzeba zapłacić za niego 750 tysięcy.
Kupujesz ten droższy model i się okazuje, że napęd elektryczny owszem jest, ale pozwala na 5 minut jazdy (potem ogniwo się rozładowuje i trzeba je ponownie napełnić, co zajmuje np. 20 godzin i kosztuje tyle, co pełny bak paliwa).
Czy w takiej sytuacji nie jest uzasadnionym uznać, że ten model Electro w ogóle nie ma sensu?
Inne porównanie: Google VR to technologia droga, obarczona różnymi problemami i ograniczeniami technologicznymi, a także niemająca zbyt dobrego wsparcia ze strony producentów softu... ale jednocześnie działa i zapewnia na prawdę fenomenalne doznania, co samo w sobie nadaje jej sens i usprawiedliwia jej istnienie na rynku komercyjnym. Przyszłe generacje tego sprzętu na pewno zapewnią jeszcze wyższą jakość, ale już teraz - o ile ktoś ma pieniądze - można spokojnie kupić takie gogle i na pewno nie będą to pieniądze wyrzucone w błoto.
Czy to samo można powiedzieć o kartach z serii RTX? Obawiam się, że nie. I owszem, te karty będą się sprzedawać, głównie dlatego, że innego wyboru po prostu nie ma. Jestem zdania, że gdyby seria 1000 nadal była produkowana, to Nvidia mogłaby sobie (za jakiś czas, gdy świat już pozna "prawdziwą moc RT") z zalegających w magazynach RTXów zbudować zamek z fosą...
Znaczy, nie zrozum mnie źle. Bardzo chętnie bym zobaczył świetne, doganiające karty od AMD i powrót duopolu na rynku GPU, tylko ciężko ufać AMD. Fakt, zrobili naprawdę udany powrót dzięki Ryzenom ale na poletku kart graficznych dalej jest w ciemnej... no jest w tyle. A to "wystarczy" może być naprawdę trudne dla AMD.
Nie do końca zgodzę się z porównaniami samochodowymi. Bo z Twojego opisu wynika że 250tysięcy kosztował wadliwy hydro napęd. Ale jeszcze powinien mieć większą moc na benzynie, większy silnik i więcej koni. Dodatkowo nowsza elektronika.
Plus.. no trochę inny kaliber (nie wiem czy aktualnie kupuje się elektryki nie znajac jak długo bateria wytrzyma i ile przejedzie. A jak będzie poniżej specyfikacji to zwrot.. tutaj cóż, na tym rynku pozwalamu sobie nvidi na takie zabawy.. bo w sumie nie ma właśnie alternatyw.. AMD bawi się na niższym high endzie zamiast próbować dogonić.. więc dla mnie nie istnieją) ;) Czyli jakby z klasy wysokiej idziemy do klasy premium? Które często są już tylko wymysłem kupca, bo spokojnie klasa wysoka wystarcza.
Gdyby to były identyczne modele i 1080TI z RTXem to tak, ale tak nie jest. Ja nie bronię ceny (bo jest absurdalna), ja bronię tylko tego, że jednak skok wydajnościowy tam jest. 2080TI to nie sam RT (chociaż każą za niego dodawać cenę, to w tym też jest cena za wyższą wydajność) i dla kogoś może mieć to jakiś sens.
Obliczanie oświetlenia i cieniowania w czasie rzeczywistym wydawało się pieśnią przyszłości za 10 lat.
To i tak bardzo duże zaskoczenie, że już teraz z czymś tak rewolucyjnym Nvidia teraz wyskoczyła :)
Ale już wcześniej było wiadomo po testach, że najsilniejsze karty tej generacji co najwyżej poradzą sobie z załączonym Ray Tracing w 1080p, a nie w 1440p/4K.
Pewnie dwie karty 2080 Ti połączone dają radę i w 1440p ma ultra z Ray Tracingiem.
Bez Ray Tracing 2080Ti jest pierwszą kartą, która potrafi uciągnąć na ultra w 4K najbardziej wymagające gry, a wy psioczycie. Poprzednia generacja 1080Ti radziła sobie co najwyżej w 1440p. Do grania w 4K na ultra w płynności 70-90 Fps potrzeba było przecież 2 kart 1080Ti.
Persecuted, rozumiem, że mówisz o 2080ti, bo 2080noTI jest (poza Deus Exem i Doomem, który pójdzie na kalkulatorze) wolniejszy od 1080ti ;)
Typowe choroby wieku dziecięcego, choć "szczęśliwym nabywcom" tych grzałek zapewne nie jest do śmiechu zważywszy na kwotę jaką musieli wyłożyć, żeby zostać beta testerami nowej, raczkującej technologii.
A sama Nvidia, zapewne zupełnie niechcący odkopała z grobu słynnego, pecetowego trupa, dawno temu pochowanego i od lat zapomnianego - powiedzonko: "da się grać, czasem przytnie" ;-). Taki nostalgiczny powrót do przeszłości :D.
Dlaczego oni nie testują tego na I9-9900K? Przecież nie od dziś wiadomo, że procesory to wąskie gardło?
W ogóle, to taki trochę paradoks i hipokryzja graczy, którzy cały czas płaczą, iż konsole blokują postęp, a sami na ów postęp narzekają.
Tylko do wyprzedzenia konsoli wystarcza gtx 970. Gtx 750 zapewnia komfort gry porównywany z ps4 (30 fps średnie/wysokie w Wiedźminie 3, czy GTA V). Więc tak - konsole ograniczają postęp. I to już trzecią generację GPU.
Bzdura. To PC hamują rozwój. Konsole muszą się dostosowywać do rynku pc. Zobacz sobie na statystyki stima ile osób gra w 4k - 1%. Większość ma 1060 - myślisz, że twórcy będą rozwijać technologie, które odpali procent ludzi? Tworzy się gry pod te statystyki, a twórcy mają ich więcej niż udostępnia steam. Przecież sony czy ms mogą zrobić konsole lepszą niż i7 i 1080ti, ale kosztowałaby wtedy dużo i kupiłoby ją mało osób. Tak jak po statystykach widać ile osób ma 1080ti i i7. Nie wiele. To właśnie użytkownicy pc blokuja rozwój bo siedzą na starej generacji i 1060. Mówię to jako pctowiec.
A ja piszę jako multiplatformowiec:
Nie. Nikt normalny nie kupuje sprzętu do gier za grube tysiące. I tyle. Dotyczy to zarówno konsol jak i pc. Sam to zauważyłeś. 4k to nie jest żaden skok technologiczny. Mieszkania nie urosły, 60" telewizory nie mają sensu w niedużych salonach, a siedząc te 3 metry od mniejszych TV (czyli tyle, ile potrzeba, żeby więcej niż 1 osoba mogła coś obejrzeć) nie dostrzeżesz specjalnej różnicy wobec fullHD. Do tego odpalisz tak nawet Quake'a, bo rozdzielczość to trzy linijki w pliku .cfg. Chodzi właśnie o te bajery graficzne, które odpala sobie 1% technofreaków. Oni są poligonem doświadczalnym i albo coś się przyjmuje, albo nie.
PS2 wprowadziło nowe rozwiązania.
Xbox miał najładniejsze gry w swoim czasie (np. Halo czy Kroniki Riddicka).
Teraz lowendowy pc, na którym zrobimy dużo więcej niż na konsoli bez problemu w grach radzi sobie tak samo.
i5-6600 i GTX 970 zjada ps4 na śniadanie. Mam jedno i drugie, więc wiem. Ok. Nadal jest to pc za 2,5 tys, ale jak wspominałem, zrobi więcej niż konsola, a w samych grach radzi sobie lepiej. Wiedźmin, GTA V, Forza Horizon 4, wszystko w 60 fps.
A wracając do pieniędzy - jeśli coś jest droższe o ileś (vide rtx), a nie jest co najmniej o tyle samo lepsze od poprzednika (a wiemy, że po wyłączeniu kalekiego RT nie jest), to to nie jest postęp, tylko zwykłe naciąganie. Czego najlepszym dowodem fakt, że NVIDIA przestała wypuszczać geforcy serii 1000.
To z krzakami to głupota. Niskie ustawienia = mało krzaków, a wysokie ustawienia = dużo krzaków. Czyli dobrze grać na niskich i widzieć wroga co się ukrywa w krzakach który myśli że skoro on ma ustawienia wysokie to nikt go nie widzi :) W multiplayer to będzie widoczny jak na tacy :)
No skoro ty jesteś typowym lamusem, z wooden PC, albo grającym na low ustawieniach, myśląc, że właśnie dzięki temu jesteś pro, to nie każdy musi taki być.
Dokładnie na RTX trzeba poczekać minimum na drugą generację, a najlepiej na trzecią. Chyba że wynajdą coś lepszego od Ray Tracingu. Może fotorealizm powstanie.
Ray tracing to właśnie jeden z etapów dojścia do fotorealizmu.
Jeśli komus się wydaje, ze podane wyniki nie sa takie slabe to chce przypomnieć, ze w bV mamy zrealizowane jedynie odbicia za pomocą raytracingu, brak cieniowania czy globalnego oświetlenia w jednej z najlepiej zoptymalizowanych gier na pc. Natomiast kategorycznie trzeba to stwierdzić, ze ta technika to przyszlosc jeśli chodzi rendering z tym, ze Nvidia za bardzo się pospieszyla, jeszcze jedna lub dwie generacje kart miała odczekać.
Alex to ignorant i janusz gamingu w drugą strone, dostaje orgazmu z byle wodotrysku. Nie ma sensu czytać jego wypocin.
Directx 12 na chwile obecną nie obsługuje sli. A jest wymagany do ray tracingu.
Proponuję 4x 2080Ti może da radę BUHAHAHAHA, albo płytę do kopania i 20x 2089 Ti to to już chyba pociągnie aaaa ha ha ha ha uuuuhuhuhu oj bo zaraz żyłka mi pęknie
Najbardziej urzekła mnie ta kałuża. Ha ha ha Rej trejsing i karta za 5 tysięcy buhahaha. Grajcie na niskich detalach buhahahaha.
Nie mam Pańskiego płaszcza, i co mi Pan zrobi? BUHAHAHAHA
W BFV nie działa SLI na ten moment co nie znaczy że DXR nie wspiera SLI, po prostu to w dużej mierze będzie zależeć od danej gry. W Shadow of the Tomb Raider SLI działa. Jeśli chodzi o wydajność to proponuje nie patrzeć na wykresy ale przynajmniej jak kogoś to interesuje przeczytać kogoś opinię. Pokazane wykresy dotyczą miejsc na 100% najbardziej wymagających (takiego dropu nie widziałem w grze) aczkolwiek widziałem spadek do 22-25fps, średnia jest w ok. 40fps dla 4K, z wszystko ultra, DXR ultra, czasem jest to blisko 50, czasem bliżej 33-35. W SP gra się całkiem dobrze o ile można nazwać granie konsolowe + z 40fpsami, w MP zabawa przy 40 jest raczej masochizmem szczególnie dla kogoś kto gra snajperem. Jeśli zaimplementują SLI to sytuacja się całkowicie zmieni bo dostaniemy duble fps. Jeśli chodzi o samą wydajność to OC karty także wpływa na ilość fps z DXR.
Różnice w obrazie są do wyłapania bez najmniejszego problemu i wygląda to o wiele lepiej szczególnie w miejscach gdzie odbić jest sporo cała scena to zupełnie inny poziom. Nawet w lokacjach śnieżnych gdzie stosunkowo operuje się w dużej mierze światłem też bez problemu różnice się zobaczy.
Do grania w 4K ewidentnie potrzeba SLI jeśli chcemy mieć 60fps / chyba że gra SP wtedy można grać przy 40, do rozdzielczości 1080p/1440p moim zdaniem jest całkiem w porządku.
I Ty mówisz, że to jest "OK", że gra działa ze średnią płynnością na poziomie 40 klatek na karcie graficznej za 6000 PLN (słownie: SZEŚĆ TYSIĘCY ZŁOTYCH)? To ja to tak zostawie....
K4cz0r93 - 40fps w 4K, w 1080p/1440p wydajność jest dobra jak na tak obciążającą GPU technologię, raczej nikt nie spodziewał się że będzie inaczej. Co ciekawe wczoraj wyszło demo FFXV ze wsparciem dla DLSS i trzeba przyznać że o ile na początku kręciłem nosem że będzie to duży downgrade to po obejrzeniu benchmarka z TXAA i DLSS różnice są niewidoczne, spodziewałem się obrazu zdegradowanego. Więc myślę że wszystko będzie zmierzać do połączenia tych dwóch technologii RT z DLSS.
Różnice w benchmarku 4K wszystko co się dało ustawić maksymalnie TXAA - 4890 pktów, to samo z DLSS 7120 pktów.
wydajność jest dobra jak na tak obciążającą GPU technologię
Na karcie został wydzielony specjalny obszar odpowiedzialny za RT z którym powinien sobie poradzić bez straty choćby 1 fpsa. W tym przypadku cała karta jest katowana jakby odpalił RT na 1080ti.
Tylko problem z tym Alex, że w teorii tensory miały właśnie odciążać GPU przy korzystaniu z RT w grach. Widocznie na chwilę obecną to tak nie działa, ale pamiętam też jak ludzie kręcili nosem na akceleratory 3D, że po co to komu i lepiej ciągle korzystać ze sprite`ów, że drogo itd. Dlatego dobrze, że Nvidia jest pionierem, ale jest jeszcze za wcześnie na tę technologię.
Tylko filtrowanie tekstur i przejście ze spritów na modele 3d i efekty cząsteczkowe to był autentyczny przełom. Ray Tracing póki co nim nie jest. I bez niego mamy ładne gry.
Pamiętam te czasy. Roczna karta graficzna była już stara. Teraz do fullhd wystarcza 4-letnia.
I szczerze mówiąc nie tęsknię za wymienianiem peceta tak często jak wtedy.
wykres dla 1080p - na DXR ultra średnio 65fps na 2080ti ultra all
No super!! ;) Karta za 6000 złotych do grania w najwyższych ustawieniach w rozdzielczości srpzed 10 lat! Po prostu BOMBA! XD Mój RX580 też odpala ze wszystkim prawie na ultra i mam stabilne 60 fps...bez RTX.
Wszystko fajnie A.l.e.X, ale większość tu tupie nóżkami, że 2080Ti powinna mieć 60Fps w 4K z wszystkimi ustawieniami na ultra. Karta jest reklamowana jako pierwszy układ, który radzi sobie w 4K w minimum 60Fps, ale jest tak tylko bez RT. Nikt nie kupuje najlepszych kart na rynku do grania w 1080p. Brak wsparcia SLI to wybór między 1080p z RT lub 4K bez RT na 2080Ti. I co tu wybrać :)
Zanim RT na dobre się przyjmie i karty zaczną lepiej sobie radzić z tą technologią to będziemy mieć kolejne dwie generacje kart od Nvidii.
Ja tą grę kupiłem dla MULTI a przy takim fps gra to mordęga. Dziękuję i poczekam na następną generację kart z moją 1080Ti. Wyniki wydajności w BF5 były ostatnim gwoździem do trumny pomysłu kupienia tej karty graficznej.
Bardziej od chrupiącego obrazu i Ray Tracingu, którego akurat w tym pierwszym filmiku faktycznie nie widać, bo jego autor wybrał najgorszy możliwy sposób przedstawienia, boli mnie, że obiekty dorysowują się 3 metry przed biegnącym żołnierzem xDDD
Co do RT to w tych w scenach w ogóle nie da się go wypatrzeć i jeszcze na idiotycznie podzielonym ekranie - gdyby mnie ktoś pytał - pomyślałbym, że po prawej stronie jest Ray Tracing włączony, a po lewej nie xD
Cała ta sytuacja przypomina mi premierę Wiedźmina 2 i opcję Ubersampling która w tamtych czasach zajeżdzała każdy sprzęt. Zbędny bajer
zbędny czy niezbędny kolejny dobry krok w dobrą stronę, za parę lat będzie to standardem jak HW obecnie.
Ten PhysX, który co druga gra wykorzystuje w jakiejś formie? O ten chodzi? Problemem jest właściwie kompletnie pomijane - ze względów konsol ponownie - sprzętowe wsparcie - i to robota devów, którzy nie będą inwestować roboczogodzin w implementacje czegoś co nie zadziała na pierwotnej, docelowej platformie. Wszystkie karty nvidii od dawna to obsługują, w przypadku platformy PC nie ma najmniejszego problemu z emulacją tego przez CPU w trybie software i tak się dzieje najczęściej. W przypadku konsol, to kolejne takty z procka, którymi i tak już ciężko żonglować, więc jakoś specjalnie widowiskowo nie jest wykorzystywany, ale obecny jest prawie wszędzie.
Płakać można, ale RTX to rewolucja w dziedzinie generowania grafiki w realtime i tyle. I to kolejny dowód na to, że AMD może co najwyżej gonić zielonych z wywieszonym jęzorem.
co by nie było w tego typu grach 60 fps na takim sprzęcie to podstawa. dopiero potem można myśleć o bajerach. ja przy 45-50 fps w grach akcji czuje dyskomfort. nie po to kupujemy monitory od amatorskich 60 hz po zaawansowane 144 hz by sprzętem za kilka wypłat oglądać slajdy, litości
Bardzo dobrze ze tworcy tworza takie rzeczy jak ray tracking bo to jest jakis postep, ziarnko do ziarnka a gry beda coraz ladniejsze. Taka prawda ze ostatnia rewolucja w rozwoju gier byly takie gry jak Crysis i Battlefield Bad Company :/
Od tego czasu niby grafika oraz fizyka sie troszke poprawialy, ale za to wymagania rosly na potege
Nvidia RTX 20xx w mych pięknych błękitnych oczętach...
To jest przecież skandal. Te karty kosztuja gruby hajs. I co liście powodują, że są spadki i to łatają? Obniżą ilość liści albo ich jakość i po kłopocie.
Warto nadmienić, że DXR nie renderuje całych scen (TechPowerUp o tym pisał), tylko ODBICIA. Więc same odbicia zjadają tyle fps.
Do pełnej implementacji RT to nam daleko.
Według mnie rt nie rekompensuje tak dużego spadku fps-ów. Obecna generacja kart nvidi to raczej niewypał :/
Bez sensu marnować moc na takie głupoty. Przeciętny człowiek nie zauważy żadnej różnicy.
Coz za niespodzianka! Pierwsza generacja kart graficznych robionych pod raczkujaca technologie nie dziala plynnie? Ktos musial z tym wejsc pierwszy i w nastepnej lub kolejnej generacji beda wiedziec juz o niej wiecej. AMD sobie podbudowalo troche PR mowiac, ze chca by wszystkie karty obslugiwaly plynnie ray tracing zanim go wprowadza. Czyli czekamy generacje lub dwie az powoli bedzie to jakos dzialac.
Wiec kutwa jak to jest. Z jednej strony slysze ze RDR2 powstaje 8 lat i cudnie nagle potrafi współpracować z dwiema nowymi konsolami i zapewne za pol roku z PC.
Z drugiej, zaczyna się drogi projekt z RT. Wychodzą pierwsze gry pokazowe i mamy ogromny bałagan jakby producenci gier nie współpracowali z Nvidia. To są jaja Panie Boczku
I tu jest przewaga konsoli. Masz na chwilę obecną cztery konfiguracje: ps4, pro, x1, x1 x.
A na PC? Samych kart rtx są już trzy czy cztery modele, kilkanaście płyt głównych, procesorów, wersji systemu, directx...
I nie - nie tłumaczę tym Nvidii czy Dice - Nvidia chciała za grubą kasę się pokazać, a Dice chyba zdycha biorąc pod uwagę problemy ze zwiastunami, opóźnienie BFV, opóźnienie trybu Firestorm, raptem trzy opowieści na premierę, tylko 8 mapek, opóźnienie opcji RT i wreszcie ostatnio coś było o zwolnieniach... Brawo EA :)
To nie tylko Dice ma problem.
Aktualnie cale EA zdycha.
Wydajność poniżej oczekiwań. Spodziewałem się spadków poniżej 60 fps-ów w Full HD, ale nie aż takich. RTX 2070 dosłownie się zadusi. Co do wyższych rozdzielczości z RT, to już od dawna wszyscy powinni być świadomi, że obecne karty graficzne się do nich nie nadają.
Jeśli chodzi o różnice obrazu, to trzeba podkreślić, że Battlefield 5 wykorzystuje RT tylko do generowania odbić. W przypadku Metro Exodus różnice będą znacznie większe.
[ link zabroniony ] /news79257.html
Nie ma to jak za grube pieniądze cieszyć się z tego że się jest alfa testerem nowej technologi ;] zabawni są niektórzy ludzie.
AMD to ma rację że się nie rzucają na razie na to.
Na tej generacji kart NVidii 2000 to tylko nowinka techniczna. Gry jak SoTR czy Battlefield V nie były pisane pod tą technologie. To tylko wciśnięty na siłę bajer. Tak jak po sukcesie finansowym Avatara dodawane w wielu filmach 3d, gdzie nie były kręcone pod tą technologie od podstaw jak w przypadku Avatar.
RT pewnie przyjmie się dopiero na kolejnej generacji kart, bo raczej pewne jest, że z tej technologii nie zrezygnują.
Gry tworzone pod tą technologie powinny też działać wtedy lepiej.
Fajnie, że nvidia jest pionierem, ale na razie wygląda to dosyć słabo, jeżeli chodzi o wydajność. W Battlefield są generowane jedynie odbicia i mamy spadki do 40 FPS lub gorzej. W sumie podobna sytuacja do Physix . Ile teraz gier obsługuje w pełni tą technologię? Najnowsze metro ma to obsługiwać. Jednak taka gra wychodzi bardzo rzadko. Na razie trzeba poczekać na efekty.
Wersja pecetowa może się pochwalić wyższym poziomem detali obiektów na dalekich dystansach oraz ostrzejszym obrazem
Czyli standardowo. Abym mógł zobaczyć różnicę, muszę wziąć lupę i przystawić do odbiornika :)
Polecam okulistę ;)
Ta gra to w ogóle bieda pod kątem RT, to są WYŁĄCZNIE odbicia, nic innego nie dodali.
W innych grach np. metro czy tr zapowiada się o wiele ciekawiej i więcej opcji.
Dodali tylko, ze tego nie widac bo kiedys bylo wypalane w teksturze, teraz liczone na zywo. Tyle razy juz bylo mowione na czym pole RT ale jak widac ludzie ciagle maja gigantyczne problemy ze zrozumieniem.
Trudno powiedziec co jest z RTX a co nie bo mnostwo rzeczy bedzie sie dublowac.
<sniff sniff> wyczuwam tak z 3-5 komentarzy podnieconego Alexa. Uwaga na wysokie stężenie podniecenia graficznego. Polecam zignorować.
Chwała AMD, że mieli jaja, żeby przyznać, że ta technologia jest póki co na wyrost i nie ma sensu jeszcze się w nią pchać.
Efekty wybuchu na wodzie ekstra, ale poza takimi duperelami, choć technologicznie są ekstra - grafa bez RT wystarczy do cieszenia się rozgrywką w pełni. W zasadzie już takie Metro 2033 ma grafikę, od której nie wymagam nic więcej. A skoro grafika już od lat jest piękna - czekam na rozwój w warstwie gameplayu i fabuły. Jestem ciekaw, jak pod tym względem stoi Battlefield V...
Btw. gość ma procek za ponad 3 kafle O.o Jasny gwint O.o
nowy BF w singlu jest grą tak żenująco głupią i prymitywną, że naprawdę szkoda na niego czasu.
zaczynając od wszelkich potknięć historycznych (zdradzających śmierdzące lenistwo devów), a kończąc na ogólnej bylejakości i braku pomysłu na grę.
po ciekawą rozgrywkę trzeba się pofatygować gdzie indziej.
Zdradzę ci coś, ale tak szczerze i mając na uwadze twoje dobro:
ludzi nie lubi się za to, co mają, tylko za to, jacy są.
Gram na RTX 2080 TI (z drugiej fali "zrzutów") na 4K full frame 4096?×?2160 + high-end'owy OLED65'' wszystkie ustawienia na ultra razem z RT zero lagów! płynność 60fps! nie wiem na czym ci ludzie testują ale totalnie nie potwierdzam tego "płaczu". Może karta "żre" się z podzespołami ich kompów IDK, jedno jest pewne w moim setupie którego dalej nie chce mi się tu opisywać gra wygląda jak odgrywanie własnej roli w zajebistym filmie z WWII, realizm dzięki RTX TI jest nie możliwy do opisania to po prostu trzeba przeżyć... , dla tych wszystkich którzy nadal wahają się przed kupnem polecam 2080 TI totalny wypas! nie słuchajcie tych pokurczy z YouTube sprawcie sami wróćcie tutaj żeby skomentować, specjalnie założyłem konto bo nie wytrzymałem czytając te bzdury.
Nagraj filmik z widocznym ekranem z karteczką z nickiem. Inaczej nikt ci nie uwierzy, w tym ja ;)
Pic or didn't happen.
@Hydro2: Aż tak mi na tym nie zależy żeby to udowadniać, nie mam czasu na takie duperele, no chyba że ktoś by mi zapłacił za taki upload
Najlepsze jest to, że ta technologia na pewno nie zostanie prawidłowo zaimplementowana w produkowanych obecnie tytułach jak i tych których produkcja dopiero się zacznie. Nie sądzę by ktokolwiek ryzykował wtopy i liczył na to, że kolejna generacja kart uniesie rtxowy feature. Tak więc sprawa jest rozwojowo pewnie co najmniej do 2021 roku.
Ja się tak zastanawiam oglądając te filmiki od Alexa. Warto jest poświęcać 4K i grać w Full HD, żeby mieć te stałe 60 fpsów? Przecież gra wygląda dużo lepiej w 4K bez Raytracingu niż w Full HD z RT. Poza tym to dynamiczna gra, w której nie ma czasu na zachwycanie się nad tym, że się płomienie odbijają od samochodu. Nie oszukujmy się, na to się nie zwraca uwagi w czasie grania. Dochodzi tu drugi aspekt, jak kogoś stać na kartę graficzną za 6K, to nie gra na monitorze pozwalającym wyświetlić Full HD w 60 klatkach. Albo ma porządny monitor 144 Hz (czyli klatek tyle, że przy włączonym RT karta tyle nie da), albo ma monitor 4K ( na którym tych 60 klatek nie będzie). Na razie zbędny bajer, fajnie, że jest, ale nic poza tym. Do włączenia na chwilę, żeby trochę się popodniecać, dokąd aktualnie zmierza grafika w grach. Następnie wyłączyć, by móc w pełni cieszyć się graniem. Może za 2-3 generacje stanie się to grywalne w każdej konfiguracji, na razie bajer :)
wiem, że istnieje kategoria ludzi, którzy uwielbiają się spuszczać nad takimi zbędnymi bajerami. Powiedzmy sobie szczerze - jeżeli nikt nie wymyśli, jak tę technologię pomysłowo wprząc w mechanikę rozgrywki (na przykład jako "przeszkadzajkę" w skradankach), pozostanie to tylko pierdołą.