Nowa aktualizacja sterowników AMD 24.1.1. wprowadza generator klatek w grach z DirectX 11 i 12
Czekaj, dobrze to rozumiem? AMD robi technologię i umożliwia skorzystanie z niej nawet na starszych kartach a NVIDIA wymusza kupno najnowszej karty żeby z podobnej techniki skorzystać?
raczej generator problemów
pięknie artykuł.
serio, macie jeszcze błędy w tłumaczeniu.
Witamy na GryOnline.
A co mieli napisać jak to są oficjalne szczegóły działania, poza tym nawet w tekście dają link do tego artu...
no niestety, błędy nie zostały poprawione, bo na przykład ten fragment
Pojawiają się również problemy z wykrywaniem technologii generującej nowe klatki obrazu. Niektóre aplikacje nie łączą się z AFMF - AMD zaleca, aby użyć wbudowanej nakładki sterownika Adrenalin i monitorować liczbę generowanych FPS.
jest zupełnie niezrozumiały. po przeczytaniu tego nie mam pojęcia na czym polega problem, a po angielsku jest to wytłumaczone dość prosto - programy wyświetlające FPS mogą pokazywać zaniżone wartości, kiedy AFMF jest włączone.
Well...
AMD Fluid Motion Frames has been fully released, and it’s still as bad as it was
Prosta rzecz. Masz zdublowane klatki, ale input lag pozostaje ten sam i to samo dzieje siew przypadku FG od Nvidii. Input lag da się zniwelować do jakiegoś stopnia z pomocą Reflex u NV lub Antilag u AMD, ale dalej jak masz bardzo dynamiczne gry, szczególnie FPSy online to cały czas jest uczucie pływania sterowania. W BFV mam 144 klatki, a po włączeniu AFMF czuć to pływanie. Nie jest to wszystko tak precyzyjne, ale z kolei w Cyberpunku przy bazowych 90 odczucie pływania praktycznie nie przeszkadza i jest słabo wyczuwalne. To jest normalne, że cos takiego występuje skoro co drugą klatkę masz sztuczną.
Lepiej z AFMF może być wtedy gdy ten ficzer zostanie zaimplementowany w samej grze, ale uczucie pływania dalej będzie obecne chocw mniejszym stopniu. MWIII chyba ma zaimplementowane AFMF i jest to samo co z FG od Nvidii tj lekkie opóźnienie wejścia.
Nie wiem co to za technologia i skąd nagle AMD z tym wyskoczyło, ale zdaje się, ze generowanie klatek miało być dostępne w FSR 3, z tego co pamiętam FSR 3 miał działać również na starszych kartach Nvidii, nie tylko na tych starszych od AMD.
Jak myślicie, Twórcy opłaca się wprowadzać technologię dostępną dla garstki kart, czy dla wszystkich dostepnych na rynku ? Pamiętam podobnie było z G-synciem, w którym Nvidia kazała sobie płacić za częsć do monitora, która miała to zapewniać, po czym wjechało AMD i zrobiło to samo Free Synciem.
Sam mam 4070, ale nie przepadam za Nvidią za tego typu działalność, przy czym DLSS3.0 mi akurat nie był potrzebny do szczęścia i raczej nigdy go nie uruchomie.
Pomijając konkurencje AMD vs Nvidia to to całe DLSS 3.0 FSR 3.0 czy ta tutaj technologia, to dla mnie jest zupełnie niepotrzebna. Dlaczego jest niepotrzebna ? Już tłumaczę. Ja osobiście nie widzę dużej różnicy, gdy obraz jest generowany z wyższej płynności, jeśli ma powyżej 60 klatek i myslę, że nikt z was by takiej różnicy na ślepym teście nie zauważy.
Czuć za to różnice w rozgrywce pomiędzy mniej płynną a bardziej płynną rozgrywką. I niestety tutaj ta technologia daje dupy, bo przy 150FPSów z czego połowa jest wygenerowana, gameplay będzie gorszy, niż przyy 75 prawdziwych FPSów z gry, bo nie dość to, że nad tymi dodatkowymi klatkami karta graficzna musi pracować dłużej, więc fizycznie w grze jest mniej klatek, to jeszcze dodatkowo ta technologia opóźnia wyświetlanie o 1 klatkę, co jest już znacznym input lagiem... Więc wyświetla nie wiadomo ile klatek, a gra chodzi gorzej.
Więc cudowny DLSS 3.0 czy FSR3.0 powoduje, że macie cudowne 150klatek, a gracie z inputlagiem jak na konsoli, przy trochę trochę powyżej 30FPSów...
z tymi 30 fpsami to przesadzasz. Input lag jest minimalnie większy niż w rozdzielczości native, ale nie aż tak ;) I to też zależy od gry i trybu bo szczególnie przy DLSS performance input lag jest jednak mniejszy niż przy native (ale nadal większy niż przy dlss 2 quality).
Po prostu przy 120fps jest input lag jak przy 60fps, ale lepiej już korzystać z DLSS 2 / FSR 2 i mieć realnie 80fps z input lagiem 80fps.
Np. w takim cyberpunku masz 120fps zamiast 40fps ale input lag zostaje taki sam na dlss quality. Z kolei w performance input lag spada poniżej native więc masz 140fps z input lagiem jak przy 70fps dlss 2.
Pytanie, czy te testy dobrze zliczają opóźnienie, bo faktycznie to co dałeś wygląda jakby nie było opóźnienia 1 realnej klatki przy generacji dodatkowych klatek, a przy opisie tych technologii taka informacja już widnieje. A przynajmniej tak kiedyś czytałem, teraz mi sie nie chce do tego wracać.
Chyba sie jednak pomyliłem co do metody generacji, to działa asynchronicznie i generuje asynchronicznie klatki, tylko na podstawie poprzednich, nie bierze pod uwagę nowej klatki, czyli to nie uśrednianie z klatek, tylko wróżbita przewidujący przyszłe.
Jak to skąd wyskoczyło, skopiowali to co NV wprowadziła, i tak samo było z FSR, AMD tylko równa do NV, cenowo i wałami też.
1 klatka jest dodawana po każdej klatce bo na tym właśnie polega frame generation - na generowaniu klatek.
Nvidia pokazuje taką "kolejkę" na swoim filmie "what is nvidia dlss 3"
"Ja osobiście nie widzę dużej różnicy, gdy obraz jest generowany z wyższej płynności, jeśli ma powyżej 60 klatek i myslę, że nikt z was by takiej różnicy na ślepym teście nie zauważy."
Równie dobrze mógłbyś napisać że jasno zielony i pomarańczowy wyglądają tak samo bo cierpisz na jeden z typów nie rozróżniania kolorów
Jest gigantyczna różnica między 60 a 90 fps, troche tylko mniejsza niż 30-60 ale bardzo wyczuwalna, co innego między 90-144, 144-165 czy jeszcze większymi, dlatego też w telefonach używają teraz ekranów 90hz bo to złoty środek
"...Gry będą jeszcze ładniejsze."
To nie jest technologia od polepszania obrazu, tylko generowania dodatkowych fejkowych klatek.
I to, co ten generator zdola "zaoszczedzic" zostanie uzyte do lepsiejszych wodotryskow.
Tutaj nie ma mowy o żadnym oszczędzaniu. FSR powoduje pogorszenie grafiki, a nie jej poprawienie.
Coś za coś, nie ma nic za darmo.
Coś za coś, nie ma nic za darmo.
No, tak. fejkowe klatki za wiecej listkow na drzewie...
Czyli nie tak fajnie z tą dostępnością generatora klatek, a przynajmniej trochę będzie trzeba jeszcze poczekać.
Nawet jeśli będzie idealnie z tym FSR3, to brakuje nadal jeszcze Ray Reconstruction , bez którego raytracing będzie potrzebował ze 4x więcej mocy, żeby otrzymać ten sam rezultat.
Z drugiej też strony redukując liczbę promieni można wyregulować mniejsze obciążenie GPU i dostać podobną jakość obrazu co bez RR zyskując dodatkowe klatki.