AMD może blokować DLSS w niektórych grach AAA
Dyrdymały. Dla nvidii to żadna zmiana, bo FSR działa na gpu nvidii, a dlss nie działa na kartach AMD. Nawet jak jest tylko FSR to i tak user nvidii może z tego korzystać. Pomijam tutaj całkowicie kwestię ewentualnej jakości obrazu, bo to też zależy od implementacji w samej grze.
ciekawe czy zostaną wydane w najbliższym czasie jakieś nowsze wersje dlss 2.0 i frame generation. Jestem pewny że nie jest to max jaki mogą wycisnąć z tych oprogramowań
A to nie jest tak że to twórcom gier AA nie chce się wdrażać techniki DLSS bo przecież skoro jest
DLSS jest lepsze ale skoro już mają łatwą i darmowa technikę
Wystarczy zobaczyć ile czasem schodzi wdrożenie DLSS.
Zobaczcie przecież to nie są gry AAA.
FSR2.0 jest otwarta techniką każdy kto che może wydać grę używając tej techniki w przypadku NVIDIA już tak nie jest.
Też mi się tak wydaje. Tak samo jak Havoc wypchnął z rynku PhysX, Freesync G-Synca bo to rozwiązania multiplatformowe, tak samo twórcy wolą sobie zaimplementować FSR który działa wszędzie, zarówno na konsolach i podzespołach PC dowolnego producenta niż dziergać dedykowane rozwiązania.
G-Sync wyparty z rynku? Kiedy? Co? jak? Przecież każdy lepszy monitor ma wsparcie G-Sync.
Modderzy implementują DLSS a developerzy nie potrafią? To raczej AMD podpisuje umowy gdzie gra jest sponsorowana przez AMD i w zapiskach jest brak DLSS
Bzdury, DLSS jest tak samo otwarte jak FSR, to że działa tylko na nv, bo wymaga jednostek sprzętowych to żaden argument.
Implementacja jest równie prosta i bezproblemowa co dla fsr i całkowicie za darmo, do popularnych silników są gotowe pluginy gdzie nie trzeba prawie nic robić by dodać obsługę, wystarczy wyklikać.
Po za tym o czym tu niektórzy piszą za banialuki, Havok to jest płatne oprogramowanie i nic nie wyparło, physx nadal ma się dobrze i jest darmowy w dodatku opensource.
GSync nigdzie nie zniknął, to nadal najlepsza technika synchronizacji, a to, że ktoś nie chce dopłacać z najwyższą jakoś to już inna sprawa.
GSync z modułem cały czas jest sprzedawany i zapewnia najlepszą jakość, oczywiście to rozwiązanie premium i kosztuje nieco więcej.
Łosiu
G-Sync został wyparty z rynku - zostały w większości G-Sync Compatible i Certified G-Sync Compatible, które nie jest tym samym, co pierwszy, oryginalny G-Sync.
G-Sync Compatible oznacza, że to Freesync z dodatkowym bajerem od NVIDII (przez co wymaga chociażby lepszej karty, bodajże GTX1XXX).
Certified G-Sync Compatible oznacza tyle, że tryb Freesync został przez NVIDIe przetestowany i działa poprawnie.
Bo G-Sync przeszedł podobną sytuację marketingową, co chociażby RTX (przez co ludzie często mylą skrót RT z RTX). Istnieje 4 różne G-Synci:
- oryginalny G-Sync, nazywany po prostu G-Sync/Native G-Sync/True G-sync, wymagający dodatkowego modułu (hardware) w monitorze. Ten G-Sync został wyparty i był właśnie prawdziwym G-synciem, gdzie nie było rwania obarzu już od 1fpsa
- G-Sync Ultimate - prawdziwy (native) G-Sync ale z certyfikacją HDRowską
- G-Sync Compatible, coś, co większość monitorów ma, i jest właśnie Freesynciem z dodatkowym bajerem
- Certified G-Sync Compatible - przetestowane przez NVIDIE, że Freesync działa idealnie na kartach GTX/RTX(nie G-SYNC! Ot, kolejna manipulacja NVIDIA);
Szefoxxx -> proste jak masz wydać hajs dwa razy raz na to samo, to lepiej wybrać jedno rozwiązanie FSR które działa na wszystkim, a nie podnosić sobie koszty dodając obsługę DLSS który działa tylko na nvidii :) Dlatego mam cichą nadzieję że całą tą wojnę wygra intel ze swoim XeSS które jest IMO najlepsze od strony technicznej, a jedynym jego problemem jest to że grafy intela zasysają jeszcze żeby pokazać jego power :)
Widać producent nie chciał wybulić nVidii kasy za obsługę DLSS. Karty nVidii obsługują Freesync'a, równie dobrze mogą obsłużyć FSR, a że jest to opensource'owa technologia, to mogą używać jej za darmo.
Od bodaj połowy 2021 roku SDK DLSS i sama implementacja są za free, więc argument raczej nie trafiony.
Nie wiem, czy do końca jest darmowy, bo trzeba wytrenować AI, by to "lepiej" podmieniało pixele. No chyba, że Nvidia oferuje swoją chmurę do tego celu za Free, tego już nie wiem. FSR to technika natywna, wystarczy dołączyć do gry, bo dla każdej gry zdaje sie działa tak samo, nie trzeba trenować AI, bo nie używa uczenia maszynowego na tym etapie wdrożenia.
Jako klient NVIDIA mogę tylko podziękować AMD za FSR ktore działa na starszych typach kart ponieważ firma jakiej dałem pieniadze bardzo szybko zapomniała o swoich klientach . Dzięki AMD mogę dalej grać nie wymieniając karty na nowa co rok .
Po takiej odpowiedzi AMD jasne jest, że blokują i rżną głupa teraz jak się wydało, to proste pytanie, wystarczy jasno potwierdzić albo nie, tymczasem AMD dało żenującą najbardziej krętacką odpowiedź jaką się dało, bo robią to i kłamią.
Żałosne, zamiast konkurować jakością FSR, blokują DLSS...
Tymczasem NV jasno odpowiedziała, w dodatku mają projekt Streamline, gdzie wręcz wprost podają, że służy m.in. do łatwej integracji WSZYTSKICH tego typu technik w jednym miejscu, gdyby nv kłamała to ten cały Streamline nawet by nie powstał albo nie miał takich możliwości.
Żałosne zagrywki amd.
Z drugiej strony, lepiej będzie dla wszystkich, jak gracze mają do wyboru FSR albo DLSS, a nie tylko wyłącznie FSR, albo DLSS. Mamy prawo do wolność wyboru, ale producenci o to zapominają i mają to w nosie.
Ostatnio grałem w Resident Evil 4 Remake, gdzie FSR nie działa poprawnie, bo tam było widać "artefakty" i tylko mod DLSS działa poprawnie i to idealnie. To zależy od wersji FSR i wkładu pracy twórców gier.
To tak jakby mieć do wyboru tylko FXAA, a nie możemy włączyć TXAA, SSAA, czy MSAA, bo producenci na to nie pozwalają.
O braku DLSS 3 dla dodatkowe klatki nie wspomnę.
Zawsze lepiej mieć niż nie mieć, ale dość często bywa tak, że lepiej mieć jedną porządną implementację działającą dobrze niż 2 działające tak sobie lub gdy jedna z tych dwóch działa słabo.
Co do DLSS3 to nie interesuje mnie ta technologia generowania fejkowych fpsów, z zapowiedzi wynika, że FSR3 może działać lepiej (pomimo iż, jest to podobne rozwiązanie). W każdym razie pomijam FSR/DLSS tam gdzie mogę - czyli aktualnie wszędzie :).
FSR3 może działać lepiej
Mocno w to wątpię. Bo DLSS 3 wykorzystuje specjalny rdzeń Tensor w połączenie z AI w karcie do tego celu i przez to działa lepiej i jakościowy.
Jestem ciekawy, jak AMD poradzą z tym bez pomocą rdzeń Tensor?
Co do DLSS3 to nie interesuje mnie ta technologia generowania fejkowych fpsów
Powtórz to w momencie wydania DLC do Cyberpunk 2077, a nie stać Ci na lepsza karta. DLSS 3 sprawi, że 30 FPS w 4K staje się 60 FPS.
Widziałem to na własne oczy w Cyberpunk 2077 i zrobił to na mnie pozytywne wrażenie.
Czasem lepiej jest mieć 60 FPS niż tylko 30-45 FPS w przyszłe gry AAA do czasu wymiany karty. Prawda?
Opieram to na artykule w którym było opisane jak to ma działać FSR 3 i jak działa DLSS 3, nie mam linka nie podrzucę :)
Co do rozdzielności to wolę mieć 144 natywnych fpsów w niższej rozdzielczości, niż mniej wliczając to fejkowe, w wyższej. Lub mogę pośrednio zwiększyć % renderowanej grafiki w danej grze np. do 125% w celu zwiększenia jakości mniejszejszym kosztem wydajnościowym.
Twórcy dużych gier nie są baranami idącymi na rzeź, gdyby chcieli DLSS, dogadali by się z Nvidią... Prawdopodobnie nie opłaca im się tego robić, bo AMD oferuje coś "gratis". Normalna umowa na wyłączność, przy DLSS na początku było przecież to samo...
Nie ma co robić z korporacji świętych Mikołajów... Nawet jeśli się tak kreują.
Gdyby to były indyki, to mógłby to być jakiś problem. Większe gry mają budżety, które nie mają zwykle wymuszonych "partnerów".
Poza tym FSR i DLSS to Upscaling, coś z czego jeszcze 5-10 lat temu gracze PC nabijali się na konsolach...
Jedyny problem jaki widzę, to to, że AMD nie chce sprzedawać kart graficznych, zostawiając Nvidii prawie monopol w gamingu...
Mam nadzieje, że w przyszłej generacji kart, trochę powalczą, a nie, że ceny nowych kart będą ciągle rosnące...
Te wszystkie technologię to przekręt, iluzja postępu którą trzeba było dać motłochowi bo by się skapnął, że graficznie/technologicznie gry stoją w miejscu, a wymagania wzrastają i nowe karty graficzne cały czas są wydawane za coraz to większe pieniądze.
Akurat wybrałeś Gollum jako bardzo słaby przykład do porównanie. Oni w ogóle słabo się postarali, jeśli chodzi o grafiki. Znajdź lepszy przykład.
Wystarczy popatrzeć na inne gry AAA, jak wyglądają współczesne gry AAA w porównaniu do gry z roku 2014. Chociaż Red Dead Redemption 2, Metro Exodus, Final Fantasy VII Remake, Cyberpunk 2077 (światło i cienie i odbicie), Death Stranding (np. modele postaci), Ratchet & Clank: Rift Apart (np. sierść bohater i projekt poziomów), God Of War Ragnarok, albo Watch Dogs Legion (pora deszczowa przy włączony ray tracing).
Albo jak wygląda remake Dead Space w porównaniu do wersji 2008.
Albo gry 2D takich jak Ori and the Will of the Wisps, Cuphead i tak dalej.
Albo czy istnieją gry 3D z realistyczne grafiki w roku 2014 lub starsze, gdzie mapy przechodzą do inne mapki w sposób płynny takich jak Hogwarts Legacy (patrz prolog, wejście do banku w sposób magiczny), czy Ratchet & Clank: Rift Apart bez ekranu ładowanie? Bo ja nie pamiętam.
O roślinność w wielu gry takich jak Kingdom Come nie wspomnę.
To prawda, że twórcy gier coraz bardziej olewają w kwestii optymalizacji i coraz bardziej psują gry takich jak Jedi Survivor w dniu premiery. Ale proszę nie pisać, że grafiki gry stoją w miejscu, bo też idą do przodu stopniowo i powoli, choć nie tak szybkie jak za czasów PSX, PS2 i PS3.
Po prostu trafiają nam gorsze i lepsze gry co roku. Taka loteria.
Dla zielonych to i tak już pewnie nie gra wielkiej roli, bo po ostatnich wyczynach tej firmy w kwestii rozbudowy technologii AI i bardzo słabych kartach dla mainstreamu, to gaming nie wydaje się być dla nich ważnym biznesem i być może odpuszczą sobie rywalizację z AMD w segmencie growym. Dalej będą robić super drogie i mocne GPU ale segment nisko i średnio budżetowy pewnie oddadzą AMD. Takie moje przypuszczenia.
Tłumaczę odpowiedź AMD z bullshitowego na polski: Tak, blokujemy.
Nie ma za co.