Wkrótce posiadacze starszych kart graficznych nie zagrają w Fortnite
A gry multi takich jak Heroes of Might and Magic III czy Counter-Strike (starsza wersja), MineCraft nie zmienili wymaganie sprzętowe z upływem czasu, bo nie mają takie potrzeby.
Ale takie są uroki gry SIECIOWE, bo są zmienne i nietrwałe w przeciwieństwie do gry single.
Przecież ta gra jest pozbawiona jakiejkolwiek grafiki, nawet jak na taką cukierkowość wszystko jest tam po prostu brzydkie, co tam zamierzają ulepszać? Mgłę i wybuchy?
Powiem pewnie oczywistość, którą już wiesz, ale itak: migrację na nową technologię bardzo rzadko wykonuje się wyłącznie z powodu "innego wyglądu".
DX to nie tylko D3D :) To cały zbiór różnych przydatnych API. API graficzne to tylko jedna niewielka część całości.
https://en.wikipedia.org/wiki/DirectX
Piszecie jakby usunięcie dx 9 miało mieć jakiekolwiek znaczenie, karty które nie wspierają dx 11 to antyki i chyba żadna z nich nie będzie w stanie utrzymać zadowalającej płynności w Fortnite w 720p.
Oj, mógłbyś się zdziwić :) To, że ich już dzisiaj nie testują i nie porównują do nowości, nie znaczy wcale, że były wolne.
https://www.youtube.com/watch?v=OcnYrSB9xvM
Nie, nie zdziwiłbym się, Radeon HD5770 który zjada tego 8800 GTX na śniadanie nie daje rady w Fortnite, na minimalnych ustawieniach w 720p utrzymuje średnio 90FPS ale dość często występują spadki do 40-50FPS, na wyższych ustawieniach gra nie zachowuje płynności.
You know what... Ty narzekasz, że 40-90 fps to mało jak na Twoje standardy, podczas gdy ktoś inny się w ogóle cieszy, że może sobie całkiem płynnie pograć na tak starym sprzęcie jakim posiada w tak dużej ilości FPS... wszystko zależy od naszego punktu widzenia i wymagań jakie sobie samemu stawiamy ^^
Itak jestem pod wrażeniem długości wsparcia tych kart!
Pierwsze karty supportujące DX10 wyszły w 2006 roku (Listopad - GeForce 8800 GTX), 3 dni przed premierą przestarzałego już wtedy graficznie Playstation 3 (GPU wciąż bazujący na technologii poprzedniej serii 7000 Nvidii aka możliwości zbliżone do kart D3D9).
W 2009 r. kupiłem swój pierwszy PC z HD4850 512MB za 379 zł od MSI. Niedługo potem w tym samym 2009 roku wyszły pierwsze karty graficzne (też Radeony - serii 5000) obsługujące DX11.
Jeśli ktoś posiada 10-letnią kartę obsługującą DX11, to może dzisiaj uruchomić praktycznie każdą grę, poza bardzo nielicznymi i bardzo nowymi przypadkami.
Ponad 12 lat (prawie 13!) wsparcia kart DX10 na PC w grze nie zdarza się często. To jest przykład, jak mógłby wyglądać rynek gier, gdyby nowe generacje konsol nie redefiniowały technologii i wymagań w każdej swojej generacji.
Z jednej strony gdyby tak było, to rynek stałby w miejscu i każda gra wyglądałaby jak z ery PS3/DX10 a ludzie narzekaliby że nic się nie zmienia.
Jesteśmy zabawnymi ludźmi, z jednej strony wymagamy długiego wsparcia, z drugiej chcemy wciąż coraz więcej i lepiej i nowych technologii. Trudno znaleźć złoty środek.
No miałem GF 8800 i jak wyszło GTA IV, Crysis i Saint Row 2 to na tej karcie praktycznie komfortowo grać się nie dało. Nie przez DX, chodzi o wydajność. Ze sztucznego wsparcia są raczej niewielkie korzyści.
To dość dziwne, bo ja miałem Radeona HD4850 512MB (o podobnej wydajności) i całkiem komfortowo grało mi się tak w GTA4 jak i Crysis (SW2 nie znam). I to wcale nie na minimalnych ustawieniach, ale na dość wysokich... ale dla rozdzielczości odpowiedniej dla kart i monitorów tamtej epoki (czyt. 1280x1024 oraz 1280x720). To była średnia półka kart i dla wyższych rozdzielczości były przeznaczone wyższe modele.
Być może u Ciebie CPU lub pamięć nie domagały? (Ja miałem Phenoma II X3->X4 oraz 2x2GB DDR3)
Zależy też co uważasz za "komfortowe granie" - u mnie to było ok. 40 fps.
Miałem jakieś core2duo chyba niecałe 2ghz. Wiesz w Crysis na medium miałem te 30 fps, czasem zdarzały się spadki ale jak już jak coś dałem na high to obraz klatkował. GTA na medium chodziło jeszcze gorzej... Musiałem łączyć low z medium by jakoś dało się grać a gra na takich detalach wyglądała słabo. Warto dodać, że kartę miałem bodajże w wersji 256mb.
40 fps w GTA IV? Chyba na plaży :D. 10 lat temu grałem na 8800GTS 512MB i C2D E4600. Na benchmarkach wychodziło jakieś 23-28 fps z tego co pamiętam. Zależy od patcha i humoru.
No ale grałem na 1440x900, więc może miało to więcej znaczenia niż mi się wydaje.
SR2 pamiętam tylko tyle, że chodziło jeszcze tragiczniej, a wyglądało graficznie jak GTA III :P. Odbiłem się po 10 minutach.
Miałeś całkiem spore combo w takim razie:
+ 2 rdzeniowy CPU o niskim taktowaniu (nie wiem, jak z rozmiarami Cache, to też okropnie ważna sprawa do gier)
+ karta NVidii (wtedy słabiej niż Radeony mieli zoptymalizowane sterowniki pod dwurdzeniowe CPU, poprawili to dopiero wersją 337.50 z 2014 r.)
+ zbyt mało pamięci na karcie do grania dla wyższych tekstur (karty z 256 MB pamięci pojawiły się już ok. 2003 roku)
4850 a 8800GTS/GTX to spora różnica
4850 to poziom gts250 aka 9800gtx ale z plusem
Wszystkie te karty miały bardzo zbliżone do siebie wyniki, raz mniejsze raz większe, w zależności od testu i gry. O żadnej "sporej" uśrednionej różnicy nie można jednoznacznie stwierdzić. W wielu grach prowadziły znacznie GTXy, w innych prowadziły znacznie HD4850. Tak już jest z kartami obu producentów nawet do dziś.
A to przecież jest multiplatforma ? To jak bez DX 11 może działać na PS 4 czy na Andoroidzie ?
To silnik jest multiplatformowy. DirectX jest ograniczony jedynie do Windows i XBox. Jak chcesz się dowiedzieć więcej na temat multiplatformowości różnych engine gier, to warto poczytać odpowiednie sekcje w ich dokumentacjach.
40 fps w GTA IV? Chyba na plaży :D. 10 lat temu grałem na 8800GTS 512MB i C2D E4600. Na benchmarkach wychodziło jakieś 23-28 fps z tego co pamiętam. Zależy od patcha i humoru.
No ale grałem na 1440x900, więc może miało to więcej znaczenia niż mi się wydaje.
Geforce 8800 GT rozwijał skrzydła dopiero z Core2Duo taktowanym 3 GHz. Ja miałem go w parze z E4500 i na standardowych zegarach 2.2 GHz obciążenie GPU rzadko kiedy sięgało powyżej 50%, a gry mocno chrupały. Dopiero po OC do 3 GHz karta osiągała pełną wydajność.
W GTA IV miałem gdzieś między 30-40 fps, na detalach średnio-wysokich w 1650x1050. Głównym limitem w GTA IV był i tak CPU. Rockstar niepotrzebnie dał możliwość ustawienia aż tak wysokiej gęstości obiektów i zasięgu rysowania w menu. GTA IV na najwyższych zabijała wszystkie ówczesne komputery, oferując mocno przesadzony poziom detali. Robili to w dobrej wierze, bo ich gry żyją długie lata, więc z myślą o next-genowych sprzętach to dali. Gracze to jednak ciemna masa i od razu poleciał hejt. Podobna sytuacja była z X-COM 2. Twórcy domyślnie dali w ultra MSAA x8 i od razu tony tematów na steamie, że tragiczna optymalizacja, bo na ultra jest 10 fps... mimo iż MSAA x8 zabija każdą konfigurację w każdej grze.
Miałem jakieś core2duo chyba niecałe 2ghz. Wiesz w Crysis na medium miałem te 30 fps, czasem zdarzały się spadki ale jak już jak coś dałem na high to obraz klatkował.
Crysis leciał mi w 31-35 fps w 1680x1050 i detalach wysokich. Na ultra było to 19-25 fps w tej rozdzielczości. W każdym razie zawsze było powyżej 30 fps w 1050p.
I tak się zapytam. Nie porównywaliście sprzętu do testów z sieci? Ja już pierwszego dnia po zakupie byłem w szoku, że osiągam tylko 50-70% wydajności GPU z testów. Dlatego też pierwszego dnia poszło OC. Zresztą był taki plan od początku, bo znajomy doradził mi, by kupić najsłabsze możliwe Core2Duo z pierwszej serii co ma wysoki mnożnik, bo one się świetnie kręciły. Całe życie na 2,93 GHz i gdy była potrzeba to 3,3 GHz dla późniejszych wymagających gier. Całość na boxowym wentylatorze.
Ogólnie wszyscy znajomi byli zaskoczeni, że jest taka przepaść w wydajności w grach między podstawowym 2,2 GHz, a OC na 2,93 GHz. Były nawet przypuszczenia, że to nie tyle sama moc CPU, ale podbicie FSB miało większe znaczenie w zmniejszeniu opóźnień w komunikacji CPU-GPU.
W każdym razie po OC wyniki w grach były porównywalne do testów z sieci, a obciążenie GPU leciało na 100%, przy CPU 70-100% w zależności od gry.
Ciekawe. Masz dużo racji, ale nie oszukujmy się - GTA IV miało fatalną optymalizację i nie było to raczej spowodowane tym, że Rockstar myślał o możliwościach komputerach przyszłości :P. Nie chodzi tylko o detale na high czy wymaxowane suwaki. Baardzo dużo osób wtedy narzekało na FPSy na low/medium. Często mówi się o tym po dziś dzień, jako o jednej z najbardziej rozczarowujących optymalizacji w historii gier :P.
Pamiętam, że grałem na mniej więcej na medium, a FPS w praktyce to tak średnio 20-35. Wyniki benchmarków innych ludzi chyba za bardzo od mojego scora nie odbiegały. Chociaż raczej niezbyt specjalnie analizowałem i porównywałem wydajności z innymi, podobnymi kompami. Nie miałem wtedy nawet skończonych 14 lat, więc no cóż - i tak nie za bardzo mogłem coś w tym PC zmienić. Dołożyłem tylko RAM, który dostałem na mikołaja :P.
Patrzę się teraz na benchmark z sprzed 10 lat i w 1280x1024 w very high Crysis robił średnio 25,9 fps a karta w wersji ultra 768mb. Biorąc pod uwagę fakt, że miałem dużo słabszy procesor niż ludzie od tych testów i w ogóle słabsze komponent to chyba mnie to jakoś zbytnio nie dziwiło.A Swój procek podkręcałem, nie pamiętam już ile mogłem uzyskać ale coś 2,2 czy 2,3 nie pamiętam już... Miałem kilka klatek więcej a jak chciałem dać więcej to komputer w ogóle się nie uruchamiał. Miałem jakąś płytkę asrocka. Nie wiem czy te karty były tak potężne, ale jakoś nie wydaje mi się.
Dobrze tak graczą komputerowym
Ktoś tu pisze, że gdyby nie rynek konsol to pc by wolniej się rozwijało... Wierutną bzdura to jest. Ponadto w sprawie tych starych kart a'la 8800 to kiedyś najważniejsza była czysta wydajność zegara plus szybkie kanały pamięci, jak odpalimy grę gdzie jest mało shaderow i innych renderowanych bajerów plus włożymy procek nowej generacji by udźwignął deko obciążenie dodatkowo na siebie to nie ma co się dziwić że stare karty dają radę w ... Starych stosunkowo technologicznie grach i kompletnie nie mam tu na myśli odczudc wizualnych a sam fakt zastosowanych technologii
Crysis to i dzisiaj ma problemy z dzialaniem nawet na GTXach 1070-1080. W rodzielczosci Full HD w ustawieniach maksymalnych mozna osiagnac okolo 70-100 klatek w zwyz zaleznosci od skomplikowania sceny a w 1440p to ma sie 60-80 fps.
2160p w Crysisie to juz nie lada wyzwanie i nawet na GTX 1080 potrafi chrupnac ponizej 60 fps.
A wszystko dlatego ze Crysis nigdy nie wpsieral procesorow wielordzeniowych.
Dlatego do Crysisa nawet dzisiaj trzeba miec procesor taktowany minimum 3 Ghz. Ale najlepsze wyniki osiaga sie majac proc taktowany 4Ghz.