Nie wszystkim się to spodoba, ale DLSS i FSR to przyszłość branży, według Nvidii
DLSS i FSR to spoko techniki jednak pod warunkiem że nie są brane pod wymagania w grach a z tego co pamiętam to już była chyba taka jedna lub 2 gry które w wymaganiach miały DLSS/FSR
to są techniki które mają wspomóc starsze karty lub tak jak ja z Rx6800 iść czasem na kompromis w 4K
Owszem u mnie w TV 4K bo na tym mam podłączonego kompa sprawdza się FSR2.0
ale pewnie dlatego że mam prawie 2 metry od klawiatury i myszki.
Jednak nie życzę sobie by w wymaganiach podawano te techniki jako zalecany
I każda gra która tak będzie podawać wymagania będzie negatywnie oceniana i może sobie być to Wiedźmin 4 nawet
I pewnie w pewnym momencie dojdziemy do momentu gdzie deweloperzy będą kładli laskę na optymalizację i gry z DLSS nie będą trzymały 60fps, a bez będą chodziły... w 10 klatkach.
Zgadzam się z tym, w ogóle zauważyłem że sporo osób mówi że DLSS mocno rozmywa obraz co obecnie jest nie prawdą no chyba że wybierze się opcje wydajność, ale odnoszę wrażenie że sporo osób dalej pamięta pierwsze wersję DLSS gdzie faktycznie ta technika była dość słaba, DLSS od wersji 2.X moim zdaniem na ustawieniu "jakość" jest w zasadzie nie do odróżnienia od natywnej rozdzielczości, ba powiem więcej w masie gier DLSS na jakość wygląda lepiej niż natywny obraz bo sztuczna inteligencja dużo lepiej przetwarza klatki dodajac do tego wygładzanie krawędzi dzięki czemu DLSS na jakość ma dużo lepsze krawędzie od natywnej rozdzielczości nawet jak wybierze się tam osobno wygładzanie krawędzi a dodatkowo gra działa dużo lepiej, dla mnie DLSS to jedna z pierwszy opcji które od razu włączam nawet się już nie zastanawiam czy warto, DLSS to dla mnie coś rewelacyjnego, chociaż przyznać muszę że ten zrzut o braku optymalizacji przez twórców bo jest DLSS/FSR coś w sobie ma i chyba faktycznie tak troszkę jest, to nie wina DLSS a samych twórców gier co jest wielką szkodą dla gier bo dało by to jeszcze lepszy efekt, ale samej technologii DLSS nie mam nic do zarzucenia.
Mam 3070ti wiec uzywalem tylko dlss 2.0 ale w kazdej grze widać rozmycie "in motion" przynajmniej grajac w 1440p, stabilny obraz wyglada praktycznie jak native i tu sie zgodze, ale bedac w ruchu mi osobiscie mocno rzuca sie w oczy gorsza jakosc obrazu, to samo dotyczy TAA.
To podobna zasada jaka była z Voodoo od 3dfx i kartami Riva TNT od Nvidia.
Na Voodoo była lepsza wydajność, ale bardziej rozmyty obraz (mleko), gdy na kartach Nviidii ostrzejszy obraz, ale mniejsza wydajność. Ostatecznie 3dfx zbankrutowało, a Nvidiia stała się gigantem.
To prawda. A ta ostrość odbić w dlss3.5 i piękne nadrobienie tego co zabiera wydajnościowo ray tracing. Normalnie staje bez mydła. im więcej klatków tym lepiej. Tym bardziej że dostając 120 klatek już przestajemy się martwić o opóźnienia. No i 3.5 przynosi nam też dynamiczną zmianę oświetleń a nie znaczenie opóźnioną co nieraz wyglądało komicznie. Bez tych technologii nie pograłbym wrc generations 4k w 120 fps ;D Ale tak ... optymalizacja też jest niestety bardzo ważna. Jak mówiłem im więcej tym lepiej. Więc trzymajmy kciuki by powstały też nowe techniki optymalizacyjne. A stare były uprzywilejowanie wykorzystywane THIS IS THE WAY
https://youtu.be/dYZ1jYTTtH8?si=NTCduBBJw95lMzzJ to jest dobre powiedział. I 8 dnia odpoczął. Po pierwsze nie świeci się już jak psu jajca (dużo ludzi na to narzekało i był to fackt)
DLSS i FSR to spoko techniki jednak pod warunkiem że nie są brane pod wymagania w grach a z tego co pamiętam to już była chyba taka jedna lub 2 gry które w wymaganiach miały DLSS/FSR
to są techniki które mają wspomóc starsze karty lub tak jak ja z Rx6800 iść czasem na kompromis w 4K
Owszem u mnie w TV 4K bo na tym mam podłączonego kompa sprawdza się FSR2.0
ale pewnie dlatego że mam prawie 2 metry od klawiatury i myszki.
Jednak nie życzę sobie by w wymaganiach podawano te techniki jako zalecany
I każda gra która tak będzie podawać wymagania będzie negatywnie oceniana i może sobie być to Wiedźmin 4 nawet
jaka roznica co tam wpisza? przeciez wymagania to mem, czesto wpisuja tam kompletne bzdury. przestancie na nie patrzec.
i nie, DLSS i FSR to nie sa techniki tylko do wspomagania starych kart. rownie dobrze moglbys powiedziec ze level of detail czy mipmapy powinny byc tylko dla starych kart. powodzenia w odpalaniu jakichkolwiek wspolczesnych gier bez tych optymalizacji.
juz widze jak za 10 lat na ekranie 8k 1000 hz probujesz odpalac cos bez tych technologii upscalujacych xd
I pewnie w pewnym momencie dojdziemy do momentu gdzie deweloperzy będą kładli laskę na optymalizację i gry z DLSS nie będą trzymały 60fps, a bez będą chodziły... w 10 klatkach.
Dojdziemy bardzo szybko. Właściwie to lada moment.
A lemingi i tak będą klaskać. 9/10
A to już nie kładą? Przecież tak naprawdę, każda produkcja co wychodzi to potwierdza. Gry są "dorobione" w rok półtora po premierze, i to też nie wszystkie.
Ja włączam tryb jakości jak spada poniżej 75 FPSów, bo już nie potrafię grać z mniejszą ilością - można rzec, że szajba odbiła, odkąd w końcu było mnie stać na lepszy sprzęt.
Dla Twojej wiadomości, znaczna część optymalizacji gry polega na obcinaniu jakości tekstur i modeli.
Dla Twojej wiadomości, znaczna część optymalizacji gry polega na obcinaniu jakości tekstur i modeli.
jak się jest partaczem to tak, ale ogólnie specjaliści w optymalizacji potrafią nawet zmniejszych o połowę wymaganej mocy przy zachowaniu lub uwaga nawet polepszeniu jakości
branża wychowała "graczy", że teraz grafika z 2015 roku potrafi zagiąć nawet sprzęt z górnej półki, kiedy to ludzie w tamtych czasach potrafili zdziałać cuda mając do dyspozycji dostępny wtedy sprzęt znacznie słabszych niż teraz
Teraz nawet twórcy grafik widzą patologię developerów i by ratować te utracone klatki przez to, że twórcy już nie inwestują w optymalizację tylko "ma to tylko działać" sięgają po takie sztuczki by ich karty nadal wyglądały na "mocne".
Grafika i fizyka stoi w miejscu OD LAT, a producenci grafik karmią nas tanimi sztuczkami.
DLSS tylko dla 1440p lub 4k. Za żadne skarby nie włączać tej opcji przy 1080p.
Grając na 55 calowym TV 4K padem siedząc na kanapie jak dla mnie DLSS Quality wygląda wręcz lepiej niż obraz natywny ze względu na ładne wygładzanie krawędzi, ustawienie Balanced też niewiele się różni, spadek ostrości widać dopiero na ustawieniu Performance, ale i tak wygląda lepiej niż np zmiana rozdzielczości na 1440p.
Jeśli chodzi o DLSS to się zgadzam, jest to świetny sposób na optymalizację bez konieczności zmniejszania jakości grafiki przy tworzeniu gry. Dzięki temu dev może się skupić na innych aspektach gry i optymalizacji pod procesor, żeby uniknąć efektu wąskiego gardła.
Jeśli jednak chodzi o FSR to mam mieszane uczucia, na tą chwilę za bardzo rozmywa tekstury... na horyzoncie jednak wersja 3.0 więc zobaczymy jak sobie będzie radzić.
Zaciągnięcie AI do poprawiania grafiki może w przyszłości mieć o wiele większe możliwości niż tylko podbijanie rozdzielczości
Następne generacje kart graficznych mogą mieć mocniejszy moduł AI a słabszy normalnego renderowania bo narysowaniu prostych modeli cała magia zadzieje sie za pomocą wytrenowanego modelu AI
Zmieniając parametry tego modelu można będzie w każdej grze mieć grafikę hiperrealistyczną gdzie cały raytracing jest zgadywany zamiast być liczony albo kreskówkową na modłę Pixara albo coś całkiem innego jak w Midjourney
Wincyj mydła, jeszcze mniej optymalizacji.
Ah ta mityczna optymalizacja i zrzucanie winy na twórców danej gry, a prawda jest taka, że korporacje na czele z Nvidią robią was bez mydła od tyłu.
Trzeba być głupem i ślepcem aby nie widzieć tego, że wymagania gier wzrastają wraz z premierą nowych podzespołów, a nie jakości grafiki w grach.
A to ciekawe czyli chca aby sredniowieczne Full HD bylo caly czas standardem. Dla mnie dzisiaj to nawet 4K zaczynam traktowac jako niska rozdzielczosc.
Cche tak jak jest to smartfonach czyli pojedyncze piksele praktycznie niewidoczne glolym okiem, dlatego Full HD won na ekrany do 7 cali a 4K do laptopow 15.6-17 a dopiero 8K na monitory 23-34 cale, 16K na telewizory od 50 do 75 cali a 32K od 75 do 150 cali.
Uwazam ze 32K jest ostetczna rozdzielczoscia dla domowego uzytkownika i musimy zrobic wszystko co w naszej mocy aby tak sie stalo! Innej opcji nie ma i nie bedzie!
Nie wiem jaki masz wzrok, bo ja całkiem niezły i ja tam nie widzę pikseli grając na 55 calowym telewizorze 4K, powiedziałbym że wyższa rozdzielczość nie jest już potrzebna.
Jeśli dadzą grafikę jak z prawdziwego CGI filmu, gdzie ledwo można odróżnić postać, plus super fizykę gdzie można np: odstrzelić, zbutować na małe kawałki drzwi i wszystko z otoczenia to wtedy te technologie mogą się przydać a na razie to nvidia chciwa ciśnie na kasę i tyle a sterowniki leżą i kwiczą.
Nie przyszlosc tylko terazniejszosc i to juz jest mainstream. Malo kogo stac na superkomputer i wlasna elektrownie wiec wiekszosc skorzysta z zaawansowanych algorytmow. Pozostali moga tylko ponarzekac i powspominac jak to kiedys te kilkaset poligonow generowalo im w czasie rzeczywistym w natywnej rozdzielczosci 640x480 i ze nie beda przeplacac, bo nie widza roznicy nawet jak zaloza denka po jabolach i pozostanie im polowanie na artefakty na skompresowanych filmikach z youtube :p
nie zapomne jak to było z 720p i 1080I jak się panowie od pitu pitu miotali żeby udowodnić że G to M....a jak to było z 4k ula la :) teraz dalej mamy nakręcanie i makaron na uszy a lata lecą.....jak z G.....które jest niczym innym jak zarobkiem na kardridżach :) jednym zdaniem...jak nakrecic makaron na uszy że to G...ale tak nawinąć żeby to towarzystwo maryjne konsumpcjonistów twierdziło że to nie G...to jest MIÓD buahhaha
Nie dość że części komputerowe, które produkują są coraz większe i wymagają coraz większych poborów energii to jeszcze gier im się nie chce optymalizować i idą na skróty. Wręcz cudna ta przyszłość jest pod tym kątem.
Świat gier od dawna polega na oszustwach wizualnych, wystarczy wspomnieć o pregenerowanych mapach cieni, Level to Detail, czy drogach na skróty w obliczaniu lustrzanego obrazu. Skalowanie obrazu to tylko kolejna technologia, która wykorzystuje zdobycze AI do poprawy wydajności i raczej będziemy musieli się pogodzić z jej obecnością.
Choć zgadzam się co do samego pojęcia oszustw wizualnych, to jednak to trochę nie jest tak, bo pregenerowane mapy cieni czy LoD (i z pewnością wiele innych sztuczek) są wykonywane przez twórców gier jako jedne z elementów optymalizacji gry, natomiast aktualna technologia skalowania obrazu to element wprowadzony przez producentów GPU, i mamy teraz absurd typu że to nie gra jest zoptymalizowana, a musi optymalizację niejako wykonywać sama karta graficzna. Moim zdaniem opieranie optymalizacji gry o zewnętrzne technologie producentów GPU to błędna droga.
przeciez przed FSR i DLSS miales TAA, temporal injection czy checkerboard rendering, to nie byly technologie od producentow kart graficznych.
poza tym co cie boli to ze nvidia czy amd tworza jakies technologie? czyli FXAA nie powinno byc uzywane za czasow ps3, tylko dlatego ze zrobilo je nvidia? HBAO tez nie powinno byc uzywane?
Boli co? Przeczytałeś całą moją wypowiedź z sensem czy stosujesz tani chwyt czytając wybrane fragmenty wypowiedzi? Mi żadna z technologii nie przeszkadza, ani nvidii ani amd. Odniosłem się do tego, że kiedyś sztuczki wizualne były wykonywane przez twórców w celu optymalizacji danego tytułu, ale teraz zauważyli że technologia która powinna służyć poprawie wydajności do i tak już zoptymalizowanej (a przynajmniej sensownie działającej) gry, czasami wolą pominąć optymalizację, bo wiedzą, że skorzystają sobie z zewnętrznej technologii, traktując to jako subsytut optymalizacji.
Inne technologie o których napisałeś, też same w sobie nie są problemem. Problem jest wtedy kiedy się pojawia sytuacją o której napisałem dosłownie dwa zdania wcześniej, czyli całkowicie się zastępuje optymalizację, bo można iść na skróty przecież.
no to zle mowisz, podalem ci przyklady ze wczesniej tworcy tez korzystali z zewnetrznych technologii od producentow kart graficznych.
nie wiem skad masz info o calkowitym zastepywaniu optymalizacji. rownie dobrze te gry ktore chodza na 720p na konsolach moglyby chodzic bez FSR, za to z jakims temporal injection ktory wlasciwie wyglada bardzo podobnie, tylko tworcy by musieli samemu to implementowac. i dalej by to bylo upscalowane 720p.
Zarzucasz mi że źle piszę, jednocześnie samemu dalej odnosząc się do wyrywkowych słów :) Brawo.
Powtórzę w takim razie raz jeszcze, że mi żadne z technologii nie przeszkadzają, problem jest wtedy gdy leniwi twórcy zamiast optymalizować swoje dzieło na tyle ile jest to możliwe, wolą korzystać z oddzielnych technologii. Jeśli tak bardzo widzisz problem w tym, że napisałem o całkowitym zastępowaniu optymalizacji to nawet jeśli uważasz, że nie jest prawdziwa, to ja nie sądzę że może ona być daleka od prawdy szczególnie biorąc pod uwagę stanowisko nvidii przedstawiające potencjalną przyszłość gier.
Jeśli miałbym przedstawić słuszność samej technologii upscalingu to sama w sobie jest ona bardzo słuszna, bo w końcu może dać drugie życie starszemu sprzętowi który może przez kolejne lata jeszcze podziałać tym samym dając również oszczędność graczowi.
Podobnie sprawa ma się z konsolami, które naturalnie nie są największymi mocarzami wydajności, więc pomimo optymalizacji gry, jeśli nadal jest problem by wycisnąć więcej klatek na sekundę, to użycie technologii upscalingu też nie jest problemem.
Co innego jeśli kupuje się sprzęt za grube pieniądze i mając nawet np. rtx 4090 trzeba włączyć dlss/fsr bo dzięki technologii gra może jakoś działać a bez niej nie działa prawie w ogóle, więc nawet nie ma co wspominać o mniej wydajnych kartach. Tutaj jest w tym wszystkim cały absurd optymalizacyjny o którym cały czas piszę, bo nawet jeśli on może się wydawać wyolbrzymiony to przynajmniej pokazuje do czego może doprowadzić opieranie optymalizacji gry o inne technologie.
Z mojej strony myślę że tyle mam do napisania w tej dyskusji, bo nie mam ochoty kolejny raz się powtarzać.
ty dalej nie rozumiesz.
nie, level of detail, mipmapy czy dlss to nie sa technologie ktore sie wlacza tylko na starych sprzetach. to sa technologie ktore wlacza sie takze na najszybszych, bo to sie po prostu oplaca. to jest optymalizacja.
nie uzywam zarowek led zamiast starodawnych zarowek, bo jestem biedny - uzywam je dlatego ze oszczedzaja prad, co jest dla mnie oplacalne nawet jesli duzo zarabiam. czemu to jest dla ciebie taki trudny koncept do ogarniecia?
Tworzenie syntetycznego obrazu przez urządzenie wyświetlające jest nieuniknionym kierunkiem rozwoju systemów zobrazowania.
Tak działa "matka natura", to co widzisz jest tworzone w mózgu na podstawie informacji docierających z zewnątrz. Ilość tych informacji jest znikoma w stosunku do zawartości informacyjnej obrazu tworzonego przez mózg.
W jakiejś przyszłości też tak będzie, wszystkie cechy obiektów będą zawarte w pamięci maszyny (niech to będzie nawet AI) i na podstawie opisu obiektu wytworzony zostanie jego obraz.
dokladnie, to jest tez dobry sposob na wytlumaczenie nieogarom. przeciez kazdy z nas w mozgu zaimplementowany zajebisty DLSS. nasze oczy widza wyraznie tylko w 1-2 stopniu naszego field of view. ruchy sakkadowe galki ocznej mozna porownac do camera jitteringu w TAA. uzywana jest nasza pamiec, wczesniejsze doswiadczenia, by domyslec sie na co patrzymy itd. z tych danych ktore oczy nam dostarczaja do mozgu rekonstruowany jest piekny obraz, obrocony, ze stabilizacja, z wycietym nosem i wycietym blind spotem.
w aparatach i kamerach tez sie uzywa algorytmow by stworzyc lepszy obraz niz hardware pozwala.
tylko bys musial dlugo i dokladnie to tlumaczyc typom z gola i ppe, oni dalej uwazaja ze DLSS jest tylko dla starych sprzetow, zeby sie gry mogly odpalic. zenada.
Kto by jeszcze pare lat temu pomyslal, ze przyszloscia bedzie granie na niskich rozdzielczosciach (=niskich detalach) z ekranem aktywnie rozmazywanym zeby nie rzucalo sie to zbytnio w oczy.
A wszystko na sprzecie wycenianym jakby byl zrobiony dla NASA, powoli przemieszczajacym sie w zuzyciu pradu z duzego AGD na male pojazdy...
Pazerność i chciwość korporacji nie ma granic, szkoda tylko, że nikt tego nie widzi.
Nie podoba sie to zmiencie hobby. Jak bym mial k... codziennie zrzedzic bo to, bo tamto to bym sie zajal czyms innym. Glosujecie portfelem, ale nadal gracie w gry, macie sprzet, wiec narzekanie czyni z was idiotow, bo nadal wydajecie pieniadze na cos co wam sie nie podoba. Gry nie sa potrzebne do zycia.
Dziwne, że jeszcze nikt nie wymyślił technologii, która sprawiałby że gra działa się w 30 klatkach ale wyświetlana jest w 60. To byłaby rewolucja i przyszłość branży.
Ale tak, FSR szczególnie to super sprawa, ale to nie może zastępować optymalizacji gier. To powinno przede wszystkim pomagać starszym/słabszym kartom a nie, ze mamy sytuację gdzie kupujesz nową kartę za 2-3 tysiące i musisz włączyć skalowanie aby mieć 60 klatek.
Problem z optymalizacją jest taki, że gry są wypuszczane za szybko i nie ma dodatkowego czasu na poprawę wydajności. Nierealne terminy narzucane przez wydawców, presja czasu i zdenerwowanie niecierpliwych graczy, szybki grafik ustalony na wydanie gry w danym terminie i trzeba się spieszyć. A kto się spieszy, nie zrobi roboty dobrze. Na PC dochodzi to tego multum różnych konfiguracji sprzętowych i jest kłopot. Być może najlepszych wyjściem dla wydawców byłoby ogłoszenie projektu na etapie już blisko końca, gdzie został czas na dodatkowego usprawnienia i optymalizacje a cała gra jest gotowa i do końca grywalna. Cyberpunkowi zaszkodziło właśnie zbyt szybkie ogłoszenie, że taka gra powstanie oraz niespełnione obietnice, które finalnie nie znalazły się w grze. Nie zwalałbym wszystkiego na lenistwo i olewanie sprawy przez twórców, Choć w jakimś stopniu pewnie też ma to miejsce.
Hey witam wszystkich niemilosnikow próbek renderingu.
Lecz ,skoro współczesne karty nie radzą sobie zbyt dobrze z natywną rozdzielczością..to popatrzymy z tej strony..są za słabe czy gry są tworzone nie optymalnie? Technologia dlss i fsr to z mojego punktu widzenia temat z innej beczki.jak auto na benzynę,diesel czy elektryk..
Każde z nich potrzebuje innego paliwa do prawidłowego działania..zapewne dlss jak i fsr..sa to próbki odwzorowania pokazu możliwości może tak to nazwę..co można osiągnąć za sprawą innych rozwiązań.przykladowo wiązać but można na kilka sposobów też..aby chodziło się jak najwygodniej,ładniej wyglądało i przede wszystkim przyspieszało cały proces działania bez wpływu na wygląd samego buta..jestem za takim rozwiązaniem..potrzeba tylko czasu.na dzień dzisiejszy jest to mieszanka szejka z kapustą.albo to albo tamto.ale za 3lata może okazać się hit..cos zostało wymyślone to trzeba jeszcze zrobić tak żeby to coś działało poprawnie..jezeli ma to sens.
A ma z tego względu że to technologia wirtualna tylko, to nic fizycznego jak nasze sprzęty w domu które do działania potrzebują części mechanicznych.czesto się zdarza że też i zamiennych.heh..nie wygodniej byłoby sobie siąść i nie słuchać brzęczenia z boku jakby się muchy kocily i pluc se w brodę..za każdym razem kiedy chcemy czegoś więcej..ale szajs ledwo ultra ciągnie w 2k.xd..
Zamiast tego nacisnąć przycisk na pulpicie.i wlala
O niebo lepiej i szybciej.bez hałasu.bez potrzebu odkurzacza wl.24h ..cieszyć się rozgrywką w tej samej jakości co na mechanicznym sprzęcie.mi się wydaje że te owe technologię dążą do takich rozwiązań właśnie.
są za słabe czy gry są tworzone nie optymalnie?
Ani jedno ani drugie, po prostu cały rynek jest tak skonstruowany aby korporacje cały czas musiały mieć miliardowe zyski więc muszą ciągle sprzedawać nowe podzespoły, a muszą mieć komu więc są to gracze, a żeby im sprzedać te podzespoły to robią różne sztuczki, a jedną jest sztuczne zawyżanie wymagań sprzętowych.
Tak dzisiaj funkcjonuje cały rynek przejęty przez korporacje we wszystkich branżach.