Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Wiadomość Wkrótce posiadacze starszych kart graficznych nie zagrają w Fortnite

22.06.2019 09:18
1
zanonimizowany307509
99
Legend

A gry multi takich jak Heroes of Might and Magic III czy Counter-Strike (starsza wersja), MineCraft nie zmienili wymaganie sprzętowe z upływem czasu, bo nie mają takie potrzeby.

Ale takie są uroki gry SIECIOWE, bo są zmienne i nietrwałe w przeciwieństwie do gry single.

post wyedytowany przez zanonimizowany307509 2019-06-22 09:22:45
22.06.2019 10:01
2
odpowiedz
1 odpowiedź
Le Loi
66
Generał

Przecież ta gra jest pozbawiona jakiejkolwiek grafiki, nawet jak na taką cukierkowość wszystko jest tam po prostu brzydkie, co tam zamierzają ulepszać? Mgłę i wybuchy?

22.06.2019 13:36
ReznoR666
2.1
ReznoR666
48
Forgive me the 666

Powiem pewnie oczywistość, którą już wiesz, ale itak: migrację na nową technologię bardzo rzadko wykonuje się wyłącznie z powodu "innego wyglądu".
DX to nie tylko D3D :) To cały zbiór różnych przydatnych API. API graficzne to tylko jedna niewielka część całości.
https://en.wikipedia.org/wiki/DirectX

post wyedytowany przez ReznoR666 2019-06-22 13:37:12
22.06.2019 10:39
Butryk89
😂
3
odpowiedz
Butryk89
158
Senator

Epic nadal w formie.

22.06.2019 10:53
Legion 13
4
odpowiedz
3 odpowiedzi
Legion 13
158
The Black Swordsman

Piszecie jakby usunięcie dx 9 miało mieć jakiekolwiek znaczenie, karty które nie wspierają dx 11 to antyki i chyba żadna z nich nie będzie w stanie utrzymać zadowalającej płynności w Fortnite w 720p.

22.06.2019 11:41
ReznoR666
4.1
ReznoR666
48
Forgive me the 666
Wideo

Oj, mógłbyś się zdziwić :) To, że ich już dzisiaj nie testują i nie porównują do nowości, nie znaczy wcale, że były wolne.
https://www.youtube.com/watch?v=OcnYrSB9xvM

22.06.2019 11:48
Legion 13
4.2
Legion 13
158
The Black Swordsman

Nie, nie zdziwiłbym się, Radeon HD5770 który zjada tego 8800 GTX na śniadanie nie daje rady w Fortnite, na minimalnych ustawieniach w 720p utrzymuje średnio 90FPS ale dość często występują spadki do 40-50FPS, na wyższych ustawieniach gra nie zachowuje płynności.

22.06.2019 14:42
ReznoR666
4.3
3
ReznoR666
48
Forgive me the 666

You know what... Ty narzekasz, że 40-90 fps to mało jak na Twoje standardy, podczas gdy ktoś inny się w ogóle cieszy, że może sobie całkiem płynnie pograć na tak starym sprzęcie jakim posiada w tak dużej ilości FPS... wszystko zależy od naszego punktu widzenia i wymagań jakie sobie samemu stawiamy ^^

22.06.2019 11:14
ReznoR666
5
odpowiedz
8 odpowiedzi
ReznoR666
48
Forgive me the 666

Itak jestem pod wrażeniem długości wsparcia tych kart!

Pierwsze karty supportujące DX10 wyszły w 2006 roku (Listopad - GeForce 8800 GTX), 3 dni przed premierą przestarzałego już wtedy graficznie Playstation 3 (GPU wciąż bazujący na technologii poprzedniej serii 7000 Nvidii aka możliwości zbliżone do kart D3D9).
W 2009 r. kupiłem swój pierwszy PC z HD4850 512MB za 379 zł od MSI. Niedługo potem w tym samym 2009 roku wyszły pierwsze karty graficzne (też Radeony - serii 5000) obsługujące DX11.

Jeśli ktoś posiada 10-letnią kartę obsługującą DX11, to może dzisiaj uruchomić praktycznie każdą grę, poza bardzo nielicznymi i bardzo nowymi przypadkami.

Ponad 12 lat (prawie 13!) wsparcia kart DX10 na PC w grze nie zdarza się często. To jest przykład, jak mógłby wyglądać rynek gier, gdyby nowe generacje konsol nie redefiniowały technologii i wymagań w każdej swojej generacji.

Z jednej strony gdyby tak było, to rynek stałby w miejscu i każda gra wyglądałaby jak z ery PS3/DX10 a ludzie narzekaliby że nic się nie zmienia.
Jesteśmy zabawnymi ludźmi, z jednej strony wymagamy długiego wsparcia, z drugiej chcemy wciąż coraz więcej i lepiej i nowych technologii. Trudno znaleźć złoty środek.

post wyedytowany przez ReznoR666 2019-06-22 11:27:59
22.06.2019 11:32
ReznoR666
5.1
ReznoR666
48
Forgive me the 666

*Korekta: jak z ery PS3/D3D9

22.06.2019 12:10
5.2
barnej7
165
Senator

No miałem GF 8800 i jak wyszło GTA IV, Crysis i Saint Row 2 to na tej karcie praktycznie komfortowo grać się nie dało. Nie przez DX, chodzi o wydajność. Ze sztucznego wsparcia są raczej niewielkie korzyści.

22.06.2019 13:41
ReznoR666
5.3
ReznoR666
48
Forgive me the 666

To dość dziwne, bo ja miałem Radeona HD4850 512MB (o podobnej wydajności) i całkiem komfortowo grało mi się tak w GTA4 jak i Crysis (SW2 nie znam). I to wcale nie na minimalnych ustawieniach, ale na dość wysokich... ale dla rozdzielczości odpowiedniej dla kart i monitorów tamtej epoki (czyt. 1280x1024 oraz 1280x720). To była średnia półka kart i dla wyższych rozdzielczości były przeznaczone wyższe modele.
Być może u Ciebie CPU lub pamięć nie domagały? (Ja miałem Phenoma II X3->X4 oraz 2x2GB DDR3)
Zależy też co uważasz za "komfortowe granie" - u mnie to było ok. 40 fps.

post wyedytowany przez ReznoR666 2019-06-22 13:45:52
22.06.2019 14:00
5.4
barnej7
165
Senator

Miałem jakieś core2duo chyba niecałe 2ghz. Wiesz w Crysis na medium miałem te 30 fps, czasem zdarzały się spadki ale jak już jak coś dałem na high to obraz klatkował. GTA na medium chodziło jeszcze gorzej... Musiałem łączyć low z medium by jakoś dało się grać a gra na takich detalach wyglądała słabo. Warto dodać, że kartę miałem bodajże w wersji 256mb.

22.06.2019 14:53
ProTyp
5.5
ProTyp
167
random

40 fps w GTA IV? Chyba na plaży :D. 10 lat temu grałem na 8800GTS 512MB i C2D E4600. Na benchmarkach wychodziło jakieś 23-28 fps z tego co pamiętam. Zależy od patcha i humoru.
No ale grałem na 1440x900, więc może miało to więcej znaczenia niż mi się wydaje.

SR2 pamiętam tylko tyle, że chodziło jeszcze tragiczniej, a wyglądało graficznie jak GTA III :P. Odbiłem się po 10 minutach.

post wyedytowany przez ProTyp 2019-06-22 14:59:12
22.06.2019 15:11
ReznoR666
5.6
ReznoR666
48
Forgive me the 666

Miałeś całkiem spore combo w takim razie:
+ 2 rdzeniowy CPU o niskim taktowaniu (nie wiem, jak z rozmiarami Cache, to też okropnie ważna sprawa do gier)
+ karta NVidii (wtedy słabiej niż Radeony mieli zoptymalizowane sterowniki pod dwurdzeniowe CPU, poprawili to dopiero wersją 337.50 z 2014 r.)
+ zbyt mało pamięci na karcie do grania dla wyższych tekstur (karty z 256 MB pamięci pojawiły się już ok. 2003 roku)

22.06.2019 21:34
5.7
zanonimizowany714315
111
Legend

4850 a 8800GTS/GTX to spora różnica
4850 to poziom gts250 aka 9800gtx ale z plusem

23.06.2019 00:23
ReznoR666
5.8
ReznoR666
48
Forgive me the 666

Wszystkie te karty miały bardzo zbliżone do siebie wyniki, raz mniejsze raz większe, w zależności od testu i gry. O żadnej "sporej" uśrednionej różnicy nie można jednoznacznie stwierdzić. W wielu grach prowadziły znacznie GTXy, w innych prowadziły znacznie HD4850. Tak już jest z kartami obu producentów nawet do dziś.

22.06.2019 15:59
6
odpowiedz
3 odpowiedzi
VDCosta
0
Legionista

A to przecież jest multiplatforma ? To jak bez DX 11 może działać na PS 4 czy na Andoroidzie ?

22.06.2019 16:01
6.1
barnej7
165
Senator

Ps4 i Android w ogóle nie mają dx.

22.06.2019 23:59
ReznoR666
6.2
ReznoR666
48
Forgive me the 666

To silnik jest multiplatformowy. DirectX jest ograniczony jedynie do Windows i XBox. Jak chcesz się dowiedzieć więcej na temat multiplatformowości różnych engine gier, to warto poczytać odpowiednie sekcje w ich dokumentacjach.

23.06.2019 16:51
Klblaz
6.3
Klblaz
35
Centurion

Unreal Engine obsługuje OpenGL, także pod Windowsem, ale normalnie kompiluje dla DirectX. Zakładam że Epic chce wykorzystać lepiej zoptymalizowany kod pod DX11 i nie chce wspierać dwóch API na raz.

22.06.2019 16:48
7
odpowiedz
2 odpowiedzi
Likfidator
120
Senator

40 fps w GTA IV? Chyba na plaży :D. 10 lat temu grałem na 8800GTS 512MB i C2D E4600. Na benchmarkach wychodziło jakieś 23-28 fps z tego co pamiętam. Zależy od patcha i humoru.
No ale grałem na 1440x900, więc może miało to więcej znaczenia niż mi się wydaje.

Geforce 8800 GT rozwijał skrzydła dopiero z Core2Duo taktowanym 3 GHz. Ja miałem go w parze z E4500 i na standardowych zegarach 2.2 GHz obciążenie GPU rzadko kiedy sięgało powyżej 50%, a gry mocno chrupały. Dopiero po OC do 3 GHz karta osiągała pełną wydajność.

W GTA IV miałem gdzieś między 30-40 fps, na detalach średnio-wysokich w 1650x1050. Głównym limitem w GTA IV był i tak CPU. Rockstar niepotrzebnie dał możliwość ustawienia aż tak wysokiej gęstości obiektów i zasięgu rysowania w menu. GTA IV na najwyższych zabijała wszystkie ówczesne komputery, oferując mocno przesadzony poziom detali. Robili to w dobrej wierze, bo ich gry żyją długie lata, więc z myślą o next-genowych sprzętach to dali. Gracze to jednak ciemna masa i od razu poleciał hejt. Podobna sytuacja była z X-COM 2. Twórcy domyślnie dali w ultra MSAA x8 i od razu tony tematów na steamie, że tragiczna optymalizacja, bo na ultra jest 10 fps... mimo iż MSAA x8 zabija każdą konfigurację w każdej grze.

Miałem jakieś core2duo chyba niecałe 2ghz. Wiesz w Crysis na medium miałem te 30 fps, czasem zdarzały się spadki ale jak już jak coś dałem na high to obraz klatkował.

Crysis leciał mi w 31-35 fps w 1680x1050 i detalach wysokich. Na ultra było to 19-25 fps w tej rozdzielczości. W każdym razie zawsze było powyżej 30 fps w 1050p.

I tak się zapytam. Nie porównywaliście sprzętu do testów z sieci? Ja już pierwszego dnia po zakupie byłem w szoku, że osiągam tylko 50-70% wydajności GPU z testów. Dlatego też pierwszego dnia poszło OC. Zresztą był taki plan od początku, bo znajomy doradził mi, by kupić najsłabsze możliwe Core2Duo z pierwszej serii co ma wysoki mnożnik, bo one się świetnie kręciły. Całe życie na 2,93 GHz i gdy była potrzeba to 3,3 GHz dla późniejszych wymagających gier. Całość na boxowym wentylatorze.

Ogólnie wszyscy znajomi byli zaskoczeni, że jest taka przepaść w wydajności w grach między podstawowym 2,2 GHz, a OC na 2,93 GHz. Były nawet przypuszczenia, że to nie tyle sama moc CPU, ale podbicie FSB miało większe znaczenie w zmniejszeniu opóźnień w komunikacji CPU-GPU.
W każdym razie po OC wyniki w grach były porównywalne do testów z sieci, a obciążenie GPU leciało na 100%, przy CPU 70-100% w zależności od gry.

22.06.2019 22:15
ProTyp
😃
7.1
ProTyp
167
random

Ciekawe. Masz dużo racji, ale nie oszukujmy się - GTA IV miało fatalną optymalizację i nie było to raczej spowodowane tym, że Rockstar myślał o możliwościach komputerach przyszłości :P. Nie chodzi tylko o detale na high czy wymaxowane suwaki. Baardzo dużo osób wtedy narzekało na FPSy na low/medium. Często mówi się o tym po dziś dzień, jako o jednej z najbardziej rozczarowujących optymalizacji w historii gier :P.

Pamiętam, że grałem na mniej więcej na medium, a FPS w praktyce to tak średnio 20-35. Wyniki benchmarków innych ludzi chyba za bardzo od mojego scora nie odbiegały. Chociaż raczej niezbyt specjalnie analizowałem i porównywałem wydajności z innymi, podobnymi kompami. Nie miałem wtedy nawet skończonych 14 lat, więc no cóż - i tak nie za bardzo mogłem coś w tym PC zmienić. Dołożyłem tylko RAM, który dostałem na mikołaja :P.

post wyedytowany przez ProTyp 2019-06-22 22:46:55
22.06.2019 22:36
7.2
barnej7
165
Senator

Patrzę się teraz na benchmark z sprzed 10 lat i w 1280x1024 w very high Crysis robił średnio 25,9 fps a karta w wersji ultra 768mb. Biorąc pod uwagę fakt, że miałem dużo słabszy procesor niż ludzie od tych testów i w ogóle słabsze komponent to chyba mnie to jakoś zbytnio nie dziwiło.A Swój procek podkręcałem, nie pamiętam już ile mogłem uzyskać ale coś 2,2 czy 2,3 nie pamiętam już... Miałem kilka klatek więcej a jak chciałem dać więcej to komputer w ogóle się nie uruchamiał. Miałem jakąś płytkę asrocka. Nie wiem czy te karty były tak potężne, ale jakoś nie wydaje mi się.

24.06.2019 00:35
😂
8
odpowiedz
Tyrolek14
1
Junior

Dobrze tak graczą komputerowym

post wyedytowany przez Tyrolek14 2019-06-24 00:37:02
24.06.2019 06:01
9
odpowiedz
mysticwaver
46
Centurion

Ktoś tu pisze, że gdyby nie rynek konsol to pc by wolniej się rozwijało... Wierutną bzdura to jest. Ponadto w sprawie tych starych kart a'la 8800 to kiedyś najważniejsza była czysta wydajność zegara plus szybkie kanały pamięci, jak odpalimy grę gdzie jest mało shaderow i innych renderowanych bajerów plus włożymy procek nowej generacji by udźwignął deko obciążenie dodatkowo na siebie to nie ma co się dziwić że stare karty dają radę w ... Starych stosunkowo technologicznie grach i kompletnie nie mam tu na myśli odczudc wizualnych a sam fakt zastosowanych technologii

24.06.2019 11:40
😁
10
odpowiedz
hinson
134
Generał

Crysis to i dzisiaj ma problemy z dzialaniem nawet na GTXach 1070-1080. W rodzielczosci Full HD w ustawieniach maksymalnych mozna osiagnac okolo 70-100 klatek w zwyz zaleznosci od skomplikowania sceny a w 1440p to ma sie 60-80 fps.
2160p w Crysisie to juz nie lada wyzwanie i nawet na GTX 1080 potrafi chrupnac ponizej 60 fps.
A wszystko dlatego ze Crysis nigdy nie wpsieral procesorow wielordzeniowych.
Dlatego do Crysisa nawet dzisiaj trzeba miec procesor taktowany minimum 3 Ghz. Ale najlepsze wyniki osiaga sie majac proc taktowany 4Ghz.

Wiadomość Wkrótce posiadacze starszych kart graficznych nie zagrają w Fortnite