Koniec problemów z VRAM? Technologia Nvidii na ratunek
Znając Nvidie będzie to technologia zarezerwowana głównie dla serii 50xx lub 60xx, a do tego DLSS 4.0.
https://www.shutterstock.com/image-vector/game-character-dwarf-pixel-graphics-600w-1426113353.jpg
Za kilka lat gry na kartach Nvidia ale za to 1000Fps
Skoro producenci kart wymyślają wspomaganie fps i vram to wychodzi, że twórcy gier nie mają zewnętrznego nacisku by ich gry działały fatalnie na dobrych gpu.
Równie dobrze twórcy mogą być naciskani by gry działały coraz gorzej by pewien producent podzespołów mógł sprzedawać nowe technologie jako swoiste błogosławieństwo dla stabilnych klatek.
"Ej graczu popatrz. Gry są coraz bardziej wymagające, a z optymalizacja bywa różnie. Nasza nowa technologia pozwoli Ci się cieszyć podwójna ilością klatek, a limit pamięci VRAM zostanie podwojony dzięki naszej genialnej kompresji!*
*technologia dostępna wyłącznie na najnowszej generacji."
Od dawna to jest jakiś cyrk. Jakim cudem producenci GPU dali się wrobić w wypuszczanie sterowników pod konkretne gry? Niech to deweloper zadba o to by jego gra działał przyzwoicie, a nie liczył na to, że ktoś to za nich zrobi.
Znając Nvidie będzie to technologia zarezerwowana głównie dla serii 50xx lub 60xx, a do tego DLSS 4.0.
I to przy oprawie graficznej na poziomie 2017-2020 roku.
A nie dałoby się walczyć z niedostatkiem VRAM'u poprzez, bo ja wiem, wsadzenie większej jego ilości do najnowszych GPU, które i tak kosztują przecież po kilka tysięcy złotych? Zwłaszcza, że sam VRAM jakiś potwornie drogi nie jest.
Przecież wsadzili do karty za $1600 :)
GDDR6X kosztuje teraz coś koło $20 za GB. To znaczy, że 24GB w 4090 kosztują tak z $500. To blisko 1/3 wartości samej karty. 4070 ma 12GB za $600. No to dodając dodatkowe 12GB karta by kosztowała z $850. To więcej niż kosztuje 4070 Ti. Nieco mniejsza różnica jest przy GDDR6, ale nadal trzeba liczyć z $10-15/GB. Dodanie $80-$120 do karty kosztującej $300 to nie jest mało. Nawet jeśli przyjmiemy, że NVIDIA i AMD mają rabaty rzędu 50% na zakup pamięci (a pewnie nie mają biorąc pod uwagę niedobory i dużą konkurencję), nadal mowa o podbiciu cen kart o jakieś $50 dla dodatkowych 8GB, a to by się przekładało na jakieś 250-300zł. O ile jest to usprawiedliwione kupując mocniejsze modele (i mają po 16-24GB), o tyle średnio usprawiedliwione przy kartach za 2-3k. Pytanie proste, czy dodanie tych 10-20% do ceny dla dodatkowych 8GB się przyjmie? Jakoś AMD dużo rynku nie przejmuje pomimo stawiania na VRAM.
Via Tenor
Tymczasem twórcy gier gdy ktoś pyta o optymalizacje:
Jakieś kombinacje z upscalowaniem gry przez AI, kompresją tekstur przez AI, generowaniem klatek przez AI zamiast po prostu dać graczom dobrze wyceniony mocny sprzęt jak dawniej, który sobie będzie radził ze wszystkim bez żadnych sztuczek.
Obecne czasy to prawdziwy smród
Jak zwykle GOLowi eksperci wszystko wiedzą najlepiej. Po co to chciwa Nvidia wymyśla jakieś algorytmy, które przy tym samym użyciu pamięci dają tekstury o 4x albo i większej rozdzielczości. Przecież to oczywiste że zamiast tego powinni oferować wszystkie, nawet budżetowe GPU z co najmniej 32 GB pamięci xD
BTW nikomu nie przyszło do głowy, że lepsze algorytmy kompresji tekstur to i mniejsze rozmiary gier? Rozumiem, że ten problem też najlepiej rozwiązać dokupując większy dysk?
lepsze algorytmy kompresji tekstur to i mniejsze rozmiary gier?
Bardzo zależy mi na to. Problem polega na tym, że piszemy o NVIDIA, a jest szansa, że ta technologia będzie dostępna tylko dla wyłącznie karty NVIDIA od 5xxx lub 6xxx w przeciwieństwie do AMD i FSR (otwarty dla wszystkich). Pamiętasz, jak było z PhysX i DLSS 2.0.
Jeśli ta technologia będzie kolejny "exclusive" NVIDIA, to twórcy gier nie będą robić gry z mniejsze rozmiary, które będą działać tylko na karty NVIDIA. To mija się z celem, bo gry muszą trafić do jak najwięcej odbiorców. Po prostu karty NVIDIA nie będą potrzebowali większe ilości VRAM do działanie gier i tyle.
Żeby twórcy gier zaczną robić gry z mniejsze rozmiary, ta technologia musi być otwarty dla wszystkich, nawet dla posiadacze karty AMD i Intel, a przede wszystkim musi być kompatybilny z STARSZE karty graficzne.
Mylę się? Pożyjemy i zobaczymy.
nvidia robi 4070 z 12 gb ram. ALE PROBLEM . też nvidia z 16 gb ram w 4060 ti ... No panie to specjalna karta
A jak by tak zrobić kartę graficzną z opcją rozszerzenia VRAM.
Chyba nie zabiło by to branży, prawda? XD
Problem leży u wydawców bo sie nie chce optymalizować, poza tekstury do 4k wcalenie nie muszą ważyć nie wiadomo ile jak sie je dobrze skompresuje czy tam podzieli