Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Wiadomość Call of Duty 4 Modern Warfare będzie obsługiwać DirectX 9 oraz DirectX 10

14.06.2007 07:27
1
ADEK24
100
Gameshoty

no i swietnie:D
jeszcze w cos sobie pogram MAJAC DOBRY SPRZET:] nawet te wypasione karty (poza gf8800) nie radza sobie z DX10! jest 10 razy wolniej ;/
XP rulez :D

14.06.2007 08:01
👍
2
odpowiedz
zanonimizowany14682
49
Generał

no to dobra wiadomośc......

czekamy, czekamy....

14.06.2007 08:21
ZwP
3
odpowiedz
ZwP
65
GameJunkie

"jeszcze w cos sobie pogram MAJAC DOBRY SPRZET:]" w 100% cię popieram. Activision zrobil to bardzo solidnie, w końcu nie każdego stać na dobry sprzet. Przecudownej grafiki na PC już nie wymagam (od tego mam X360 - a ta gierka na X360, będzie wiec tam bede gral na singlu, zaś nie moge na multi bo nie mam podłączonej do XBL). Na PC za to minimalne detale (tak jak w COD2) i śmigam już z 1,5 roku! :P

Pozdrawiam.

14.06.2007 08:23
Chudy The Barbarian
4
odpowiedz
Chudy The Barbarian
89
Legend

Fajnie , myslalem ze juz XP nie bedzie potrzebny :P

14.06.2007 08:53
5
odpowiedz
zanonimizowany169157
47
Generał

NFSV fan----> jesli to przeczytasz , to juz chyba nie porownasz tego do CoD 2 co nie? :)))) Ja nawet smiem przypuszczac ze grafa bedzie zblizona do crysisa.

14.06.2007 09:03
6
odpowiedz
zanonimizowany169157
47
Generał

sorki ze post za postem ale skonczyl sie czas edita.

ADEK24--> chyba nie wiesz co mowisz. Nie mozna mowic o wydajnosci dx10, w czasie gdy sterowniki sa noworodkami, gry sa tylko "przebibliotekowane", a sama vista pozera wiekszosc zasobow cpu i ram'u. Zreszta polecam ten filmik: http://www2.ati.com/multimedia/radeonhd/Whiteout-V1.0.zip

200mb, pokazuje demko wypuszczone dla radków HD. I prosze, nie mow mi ze 3dmark 2006 wyglada tak samo.

14.06.2007 15:11
7
odpowiedz
NFSV fan
93
Generał

$aimon ---> Grafiki zamieszczone w tym newsie to concept arty. Screeny masz w galerii...

14.06.2007 15:37
8
odpowiedz
zanonimizowany169157
47
Generał

NFSV fan--> hmm jesli masz racje, to zwracam honor

14.06.2007 15:37
9
odpowiedz
NFSV fan
93
Generał

Jeszcze odnośnie demek technologicznych, skoro już się tak nimi sugerujesz to pooglądaj sobie np. to:

http://www2.ati.com/misc/demos/ATI-9800-Chimp-Demo-v1.1.exe (demko ATI ale chodzi także na GF)

albo to

http://download.nvidia.com/downloads/nZone/demos/nvidia/Dawn.exe

Oba przygotowane 4 lata temu dla (odpowiednio) Radeona 9800 i GF FX 5800. Nie wspierają ani DX10, ani nawet Shader Model 3.0.

Znajdziesz obecnie jakąkowiek grę (choćby w zapowiedziach) z choćby porównywalną grafiką?

14.06.2007 15:38
😒
10
odpowiedz
Pirat099
83
Dead Already

Fajnie, ale na moim kompie i tak nie pogram:(

14.06.2007 16:18
11
odpowiedz
zanonimizowany169157
47
Generał

NFSV fan--->
:]
obejrzalem sobie pierwsze demko, drugiego nie bo mam radka. I oto lisa moich spostrzezen:
-tekstury sa znacznie mniejsze w porowaniu do dx10
-scena jest wielkosci 3x3 metry <rotfl>
-tuz za scena jest billboard, na dodatek w kiepskiej rodzialce :]
-cienie sa niedokladne, na dx10 nie ma o tym moqwy
-oswietelnie obiektow nawet nie dziala na specularze, co dopiero HDR wiec Oblivion chociazby bije ten filmik
-jakby tak wygladaly gry teraz, to spoko. Tylko levele w grach nie maja 3x3 metry :]
-rodzielczosc normal map tez pozostawia duzo do zyczenia.
-nawet nie moge dookola malpy kamery obrocic bo pewnie za kamera nie ma nic :]

Wszystko to w porownaniu do dx10, ktore ma wszystko lepsze... Wiesz, chcialem ci przyznac racje, ale jedyne co ci powiem, to albo masz jakies kiepskie oko, ze nie widzisz roznic w grafice, albo jestes poprostu uparty a na twojej muszce jest dx10.

Nie chce ci ublizac, ale jesli porownojesz ten filmik do gier, to sie nie znasz. To tak jakbys scene w 3d maxie, w ktorej zrobisz ludzka glowe z pol milina poligonow, cala super dokladna i realistyczna porownywal do gry gdzie jest przeciez cala masa obiektow, efektow, nieraz kilka giga tekstur, obliczane AI, spore przestrzenie itd. A sek w tym ze na filmiku z dx10 jest wlasnie scena jak z gry, chmara obiektow, ogromna przestrzen, a o systemie czasteczkowym nawet nie wspominam... a nie prezentacja po jak najmniejszej lini oporu, a dajaca wzglednie ladny efekt.

Wiesz, porownalbym ciebie do mojego kolegi z liceum, ktory jak quake 2 byl nowoscia powiedzial, ze ladniejszy jest duke nukem, bo rece i trzymana bron realistycznie wygladaja... :]

14.06.2007 17:22
12
odpowiedz
NFSV fan
93
Generał

$aimon ----> Trzeba brać poprawkę na różnicę w wydajności. Specjalnie dałem jedne z pierwszych demek pod DX9 prezentowane przez producentów kart graficznych, aby pokazać, że do tej pory nie doczekaliśmy się grafiki pod DX9 jaką mamili nas producenci w demach technologicznych.

Na demkach DX masz POTENCJALNE możliwości. Które niestety rzadko kiedy, a najcześniej - nigdy, nie przekładają się na możliwości REALNE (gry), bo zanim zdążą to zrobić wchodzi kolejna generacja DX....

Ciekaw jestem jaka będzie różnica między CoD4 DX10, a CoD4 DX9 poza tym, że ta pierwsza będzie działać wolniej (w końcu VISTA robi swoje.....). Jestem przekonany, że poza paroma efektami grafika będzie praktycznie identyczna.

Tak więc jeżeli oczekujesz, że w generacji DX10 doczekasz się gry o grafice z Whiteout (z tego co sam pisałęś to demko rzekomo miałoby dobrze symulować grafikę w realnych grach) to możesz się srodze rozczarować. To co prezentują obecne gry nie wykorzystuje nawet możliwości DX9....

14.06.2007 17:37
13
odpowiedz
zanonimizowany52907
182
Senator

NFSV fan- a kto ci powiedzial, ze gry pod vista dzialaja wolniej? zalaczam obrazek z testow STALKER`a na viscie i xp z benchmark.pl
oczywiscie to tylko wybrany przyklad ale mysle, ze jednak daje troche do myslenia.
co do pozerania przez Viste wielkich ilosci RAM`u- wiesz jak dziala prefetch?:)

14.06.2007 19:46
14
odpowiedz
zanonimizowany169157
47
Generał

NFSV fan-->"Na demkach DX masz POTENCJALNE możliwości. Które niestety rzadko kiedy, a najcześniej - nigdy, nie przekładają się na możliwości REALNE (gry)"
tak, ale to demko co mi pokazales nic nie prezentuje. Co to za prezentacja w ktorej masz 3na3 metry i fajny, dopracowany model. Teraz wez te wszystkie poligony, cala rozdzielczosc tekstur porozkladaj na scene w np. morrowindzie i ci wyjdzie grafika brzydsza niz w quake1, bo gdybys zorbil wieksza scene w demku, to juz by zaczelo nie wydalac. A demko dx10(powyzsze) pokazuje bardzo duzo, w zasadzie cos co moglbys uznac za gre.

"Ciekaw jestem jaka będzie różnica między CoD4 DX10, a CoD4 DX9 poza tym, że ta pierwsza będzie działać wolniej (w końcu VISTA robi swoje.....). Jestem przekonany, że poza paroma efektami grafika będzie praktycznie identyczna."
to jest twoje zdanie, ja uwazam inaczej. Wg mnie jak wyjdzie COD4 to i sterowniki dx10 beda porzadne, i wykorzystanie bezdie pelne a nie"portowane" i pewnie do visty wyjda jakies Service Packi. Ale racja, moge sie mylic. Natomiast we wszystkich (prawie) screenshotach porownawczych z gier dx9 i dx10, widze baaardzo duze roznice. Przedewszystkim w oswietleniu, cieniach i teksturach.

"Tak więc jeżeli oczekujesz, że w generacji DX10 doczekasz się gry o grafice z Whiteout (z tego co sam pisałęś to demko rzekomo miałoby dobrze symulować grafikę w realnych grach) to możesz się srodze rozczarować. "
whiteout tez w zasadzie nie jest dobrym przykladem, bo model Ruby jest przesadnie dokladnie zrobiony, juz model pilota dla mnie wystarcza.

"To co prezentują obecne gry nie wykorzystuje nawet możliwości DX9...."
Hmm, STALKER jest najlepszym przykladem tego ze sie mylisz i tego, ze dx9 jest juz w pelni wykorzystany. Ma ogromne wymagania, a przeciez grafika nie jest cudem swiata. Jest poprostu za duzo obiektow, za duzo tekstur, i za duzo efektow na raz, by karty dx9 mogly to dzwigac. Dowodem na to ze sie mylisz (i z dx10 rowniez) jest to, ze na kartach z dx10 STALKER robi duzy skok wydajnosci, nawet na kartach z tej sredniej polki. A trzeba jeszcze dopisac, ze dx9 jest na tych kartach emulowany, wiec potencjal nie jest w 100% wykorzystany.

Jedyny minus jaki widze w dx10, choc moze to jest wlasnie plus, to fakt, ze procesory odpowiedialne za shadery zaczna teraz obliczac fizyke, a w przypadku radeonow HD jeszcze dzwiek, i Bog jeszcze wie co. Moze to sie odbic na wydajnosci w grach. Przeciez obecne procki dwu-core sa na tyle mocne ze spokojnie sobie z tym wszystkim radza, a projektantom ati/nvidia sie uwidzialo je odciazac.
Na koneic powiem krotko: nie ma co dysputowac :) czas wszystko pokaze. Moze ja sie zawiode, jak tak to bedzie mi smutno. Za to jak ty sie zawiedziesz, to powinienes sie cieszyc, bo sie okaze ze dx10 to wielka ewolucja.

14.06.2007 19:50
U.V. Impaler
15
odpowiedz
U.V. Impaler
224
Hurt me plenty

Hmm, STALKER jest najlepszym przykladem tego ze sie mylisz i tego, ze dx9 jest juz w pelni wykorzystany. Ma ogromne wymagania, a przeciez grafika nie jest cudem swiata. Jest poprostu za duzo obiektow, za duzo tekstur, i za duzo efektow na raz, by karty dx9 mogly to dzwigac.

Tu akurat winić trzeba niechlujstwo programistów. Panowie wreszcie wzięli się do roboty i dlatego po instalacji łaty, która ukaże się już wkrótce, można spodziewać się:

- 15% FPS increase
- shader optimization, increasing FPS by 5-10%

14.06.2007 20:28
16
odpowiedz
zanonimizowany52907
182
Senator

btw, na poczatek przyszlego roku juz zapowiadana jest nastepna linia radeonow, bo ta obecna (narazie tylko pod postacia 2900xt) to, krotko mowiac, nie do konca to. tak mi sie cos wydaje, ze dx10 bedzie mogl sie rozkrecic dopiero na nastepnej generacji kart.

14.06.2007 20:50
17
odpowiedz
zanonimizowany169157
47
Generał

UV impaler--> daj Boże, ale obawiam sie dwoch rzeczy:
1. czy to bedzie optymalizacja samego "kodu" czy tez na zasadzie okrojenia grafiki np. LOD bedzie bardziej widoczny albo widocznosc sie skroci albo cos jeszcze. Nie wiem czy w przeszlosci zdarzaly sie takie latki.
2. w ogloszeniu prasowym z ktorego przytoczyles cytat, pisze tez, ze programisci sie zajma lepszym wykorzystaniem dwoch rdzeni w takowych procesorach, wiec ten wzrost 10-15% fps moze byc nie za sprawa samego renderingu, ale dwurdzeniowego procka.

i tak na marginesie: ciekawe czy te 15% FPS increase zawiera ten shader optimization, czy moze dodatkowo te 5-10% fps wzrosnie. Bo tak jakos troche niezrozumiale, a by wychodzilo ze 20-25% szybciej bedzie. Wtedy to rozumiem, zamiast 20 klatek bede mial 25 i juz sie da grac :)

edit:
conath--> mnie sie tez tak wydaje. Wogole wg mnie dx10 sie rozkreci dopiero jak wszystko bedzie korzystalo z geometry shader. To czyni poprostu bajke, ale zaloze sie, ze wymaga znacznie wiecej od procka niz zwykle bumpy. Tylko nie znam sie zeby powiedziec czy chodzi o wieksza ilosc Streaming Processors czy lepsze taktowanie... a moze i to i to amoze to jedno i to samo :p

14.06.2007 23:28
18
odpowiedz
NFSV fan
93
Generał

Hmm, STALKER jest najlepszym przykladem tego ze sie mylisz i tego, ze dx9 jest juz w pelni wykorzystany. Ma ogromne wymagania, a przeciez grafika nie jest cudem swiata. Jest poprostu za duzo obiektow, za duzo tekstur, i za duzo efektow na raz, by karty dx9 mogly to dzwigac.

Stalker nie jest grą pisaną pod DX10 i nie wykorzystuje możliwości DX10.
Grafika Stalkera opiera się w ~90% na wysokorozdzielczych teksturach, które zapychają RAM karty graficznej, obciążając przy okazji mocno TMU i ROP-y. Te elementy z DX10 nie mają nic wspólnego, jako że najnowsza wersja DX10 stawia przede wszystkim na Shadery, które w Stalkerze wykorzystywane są w stosunkowo niewielkim stopniu.

Jest jeszcze realistyczne oświetlenie, ale to z kolei w przypadku Stalkera "jedzie" głównie na.... CPU. Więc tu także nici z wykorzystania możliwości US.

Dowodem na to ze sie mylisz (i z dx10 rowniez) jest to, ze na kartach z dx10 STALKER robi duzy skok wydajnosci, nawet na kartach z tej sredniej polki.

To, że karty pokroju 8800GTS wyprzedzają w tej grze nawet najmocniejsze karty DX9 także nie jest spowodowane obsługą DX10 i US. Jeżeli taki 8800GTS ma o 1/4 więcej ROP-ów niż G71, do tego o 1/4 więcej pamięci, na szynie o 1/4 szybszej to naprawdę nie dziwne, że jest szybszy. I byłby szybszy niezależnie od tego czy wspierałby DX9, 10 czy 50. Nie liczę oczywiście przypadków kiedy GTS przegrywa ze względu na niedopracowane sterowniki.

Zakładam oczywiście, że za średnią półkę uznałeś 8800GTS, bo jak 8600GTS to ten przegrywa równo ze starszą generacją:)

A trzeba jeszcze dopisac, ze dx9 jest na tych kartach emulowany, wiec potencjal nie jest w 100% wykorzystany.

??? Sprawdziłeś chociaż czym w budowie różni się karta DX10 od tej DX9? (podpowiem, że różni się niewiele....)

17.06.2007 13:05
19
odpowiedz
zanonimizowany169157
47
Generał

NFSV fan--> ok, wygrales ;D <rotfl>

"Grafika Stalkera opiera się w ~90% na wysokorozdzielczych teksturach"

a myslalem ze dx10 miedzy innymi wnosi mozliwosc aby wszystkie tekstury byly wyzsze i znosi ograniczenia. Poza tym powiedz mi co ROP ma do tekstur bo zaraz bede fruwal po chmurkach.

"Jeżeli taki 8800GTS ma o 1/4 więcej ROP-ów niż G71, do tego o 1/4 więcej pamięci, na szynie o 1/4 szybszej to naprawdę nie dziwne, że jest szybszy. I byłby szybszy niezależnie od tego czy wspierałby DX9, 10 czy 50."

Ilosc pamieci nie ma nic do predkosci, podobnie ROP-y, a szyna jest szybsza tyklo u 8800, a juz 8600 wyraznie bije na glowe modele dx9 w tym samym przedziale cenowym. A tak na marginesie, poorientowales sie moze dlaczego wszystko jest szybsze a ROP-ow wiecej? to poczytaj, bo moze sie okazac ze wlasnie nowa archiotektura dx10 skraca czas trwania tego potoku i TMU.

"8600GTS to ten przegrywa równo ze starszą generacją:)"

akurat 8600gts uznalem za srednia polke, a jesli przegrywa ze stara generacja to tylko z hiendowymi jej modelami, wiec twoj argument idze w pupe.

"??? Sprawdziłeś chociaż czym w budowie różni się karta DX10 od tej DX9? (podpowiem, że różni się niewiele....) "

no to zle podpowiadasz.Po raz kolejny odsylam do artykolow nvidii i microsoftu. DX10 tak bardzo sie rozni ze wlasnie MUSI emulowac dx9. molgbys mi powiedziec ze dx9 od dx8 sie nie rozni, dlatego nie musi byc emulacji, ale to chyba oczywiste ze skoro jest emulacja, to roznice sa na tyle duze ze rendering idzie zupelnie inna droga.

PS poczytaj sobie o cuda, o procesorach strumieniowych i ogolnej architekturze dx10. Ale mniemam ze i tak nie zmienisz zdania bo poki co mam wrazenie ze gadam z upartym 10-latkiem.

PSS zeby nie byc tak do konca upartym: moje zdanie jest takie, ze nawet teraz super karty dx10 nie pokaza tego co on potrafi, bo glowna jego zaleta jest geometry shader, a ten zre w cholere.

27.06.2007 09:50
👍
20
odpowiedz
zanonimizowany449420
1
Junior

Ja mam karte ASUS x1650XT jest o 26% szybsza od Gforce'a 7600gs i dlatego powinno mi chodzic bez problemu.
A co do fabuły to sądze ze dla fanów serii COD to bez znaczenia.

Wiadomość Call of Duty 4 Modern Warfare będzie obsługiwać DirectX 9 oraz DirectX 10