Nowy układ graficzny AMD zapowiedzią wizualnej rewolucji?
Eeeee, czy rozdzielczość 7680x3200 to nie przypadkiem UltraHD?? Przeca to miało byc dopiero w 2015 roku. Ciekawa sprawa grać na czymś takim, ale wolałbym juz jeden wielki ekran, a nie kilka. Popatrzcie na screen z WoW, postaci prawie nie widać, z powodu obramówki monitora.
Ale takie coś jak ze screena po prawej to rozumie :D
Do dupy takie granie na wiecej niz jednym ekranie... nie da sie skupic ;/
dużo większe wrażenie zrobił na mnie rozkładany ekran do gier nie mogę znaleźć filmiku ale na targach E3 był prezentowany - pole widzenia nie wiem ile % większe .. a nawet na tym - skądinąd nie za dobrym filmie -wrażenie piorunujące.. wszsytko przed Tobą to gra. po bokach na dole i górze. nei tak jak w tym przypadku na płaskim monitorze lub kilku (z chamskimi ramkami) tylko sam czysty obraz dookoła Ciebie.. ty w grze. czad
eeee bardzo fajnie wygląda, gdybył miał !!DUŻO!! kasy to bym se sprawił takie coś, jedynym minusem to że to obramowania zasłaniają niektóre rzeczy i patrzenie jest trochę niewygodne, ale da się znieść pewnie, takie moje zdanie
wow, juz teraz mozna tak robic wystarcza tylko 2 karty z cuda i odpowiedni soft i juz masz panorame 6000x1200 na 3 lcdkach. co do 6 to odpada bo w praktyce nic nie widac, musisz sie oddalic a wtedy proporcje zostaja takie same. ale grac otoczonym trzema 24" to faktycznie musi byc cos. kampisz sobie w cs'ie i kontem oka widzisz czy cie ktos nie zachodzi. ciekawe czy cos takiego jest dopuszczalne w CB
Nie wiem jak wy ale ja się śmieję z takiego grania na 6 monitorach, mi wystarczy że mam jeden monitor i na nim wszystko widzę. A granie potem z czarnymi paskami (no chyba że obudowa monitora inna), i mega komputerem żeby wyrobił z grafika na tych 6 ekranach, nie dal mnie. :)
Czekam niecierpliwie a jak tylko pojawi się u nas na rynku to kupuję HD 5870 a jak nie to zaczekam na jego wersję OC od Sapphire. W każdym razie takie cacko znajdzie się u mnie.
Poczekamy co pokaże GF 350 GTX. ATI jak zwykle się podnieca, a jak NVIDIA wypuści nową grafikę to zmiecie ATI. Tak zawsze jest. No i czym wogóle się tak podniecają, że odpalili WOW na takiej rozdziałce na full ustawieniach. Przecież grafa w WOW-ie to porażka nawet na full detalach. Niech pokażą Crysisa na full w takiej rozdzialce, albo jakąś inną wymagającą grę to wtedy zobaczymy jak będzie z płynnością hehehe.
lol czym tu sie podniecac ze wowa odpalili na najwyzszych detalach niech odpala GTA 4 na ultra high to zobaczymy
Poczekamy co pokaże GF 350 GTX. ATI jak zwykle się podnieca, a jak NVIDIA wypuści nową grafikę to zmiecie ATI. Tak zawsze jest. No i czym wogóle się tak podniecają, że odpalili WOW na takiej rozdziałce na full ustawieniach. Przecież grafa w WOW-ie to porażka nawet na full detalach. Niech pokażą Crysisa na full w takiej rozdzialce, albo jakąś inną wymagającą grę to wtedy zobaczymy jak będzie z płynnością hehehe.
Nie no następny fanboy :/
Eeeee, czy rozdzielczość 7680x3200 to nie przypadkiem UltraHD?? Przeca to miało byc dopiero w 2015 roku
Nie to nie jest Ultra HD, bo Ultra HD ma mieć rozdziałkę 7680 x 4320, słyszałem, że w 2011 najwcześniej mają to wprowadzić...
Co do tematu, to ja wżyciu bym nie zmarnował kasy na kupienie sześciu monitorów 30 calowych, co innego jakby sprzedawali jeden 180 calowy monitor z taką rozdziałką, to chętnie bym kupił (jakbym kasę uzbierał :p), bo nie wiem jak innym, ale mi te obramowaniami przeszkadzały by mi tak bardzo, że praktycznie nie mógł bym grać.
Thrall Uther nie jestem fanboyem... Tylko stwierdzam fakty. Ale wszystko pokażą testy. Jak ta karta ATI żeczywiście będzie szybsza od GF 350 GTX, to przerzucę się na ATI...
Thrall Uther nie jestem fanboyem...
To zdanie mówi samo za siebie: ATI jak zwykle się podnieca, a jak NVIDIA wypuści nową grafikę to zmiecie ATI. Tak zawsze jest.
Skoro mówisz, że GF zawsze zamiatają radeony, to pokaż mi testy który potwierdzają to co mówisz! Byłbym zapomniał, tylko nie porównuj karty GF za np. 1500, do radeona w cenie np. 800, bo wtedy to wiadomo, że GF będą lepsze! Daj testy porównywalnych cenowo kart, bo chce zobaczyć jak GF miażdżą radeony. Żeby nie było, nie jestem fanboyem Ati, bo sam mam GF w SLI.
Thrall Uther proszę bardzo http://twojepc.pl/artykuly.php?id=geforce_gtx_295&strona=4
Radek 4870X2 kosztuje 1839 zł a GF 295 1 819 zł (ceny z komputronika) Czyli praktycznie różnicy nie ma w cenie.... GF 295 GTX wygrywa prawie w każdej grze, a Radek tylko w Call of Juarez....
Thrall Uther - nie to żebym się czepiał albo coś ,ale sądząc po specyfiku GTX3xx to będzie to zdecydowanie lepsza karta od powiedzmy konkurencyjnego ?! Radeon'a HD 5870X2 ,ale jak będzie naprawdę to się okaże...
[14] - Tak bardzo to ona nie zmiata, ale fakt lepsza jest. Nie mniej jednak to tylko ostatnia generacja, a ty mówiłeś o wiecznej dominacji nV.
Traktuję to jako ciekawostkę bo nie wielu stać na te karty a po drugie kto ma hajs na 6 monitorów każdy po 20" ? minimum?
Tyle kasy wydać żeby grac w WoWa na większym ekranie :)) (screen nr 1)
Pozdrawiam.
Wybacz ale tego twojego GF 295 gtx to powinienes porownywac z Radkiem HD4890X2 a nie z pozom nizsza karta.Pozatym gdy pojawily sie karty Hd 4850 i HD 4870 to wymiotly wszystkie karty Nvidi po kilku miesiacach zaczeli odgrzewac kotlety i kombinowac by wyjsc znow na czolo z przewaga 5 klatek... Pozatym czuje ,ze ati znow przytrze nosa Nvidi bo jezeli na 1 karcie obsuguja wowa w takiej rozdzielczosci na kilku monitorach to co ta karta bedzie robila na jednym ? Strach pomyslec. Pozatym co ty mi tu za testy pokazales, Assasin creed gra ktora jest optymalizowana glownie pod karty Nvidi wiec czego sie tu spodziewac, gdyby ta gra byla optymalizowana pod ATI to mialbys odwrotna sytuacje. Wszystkie gry ktore maja logo NVIDIA zawsze maja wieksza ilosc klatek na kartach tej firmy. Bioshock nastepna gra w ktorej lapy i kase maczala nvidia.
@Endex [ Level: 13 - Konsul ] > Eeeee, czy rozdzielczość 7680x3200 to nie przypadkiem UltraHD?? Przeca to miało byc dopiero w 2015 roku.
O czym ty mowisz? Moze jako _standard_ w grach i filmach mial byc w 2015, ale to, co tu widzisz, to nie jest standard, to opcjonalny feat obslugi multidisplay.
Nie rozumiem zdziwienia, takie rzeczy juz dawno byly mozliwe, a rozdzialki ponad-HD [lacznie z fullHD] juz dawno byly dostepne. A, ze dla 90% ludzi byly niedostepne z powodu niewydajnego sprzetu na tyle, to coz.. :)
@Jagar [ Level: 3 - Legionista ]: karty do porownan wybiera sie patrzac na polke cenowa, co niekoniecznie musi odzwierciedlac porownywalnosc wydajnosci obu kart.
Swoja droga:
@Thrall Uther [ Level: 2 - Konsul ]: ladny sig, ale naprawde wspolczuje ci wydanej na to kasy. Core i7 mogles zastapic dowolny Core2Quad, dwie grafiki to przerost formy nad trescia z uwagi na dosc znaczna strate mocy jednej z nich, to samo w sumie dotyczy 6GB ramu, podejrzewam, ze jakies 3 GB ci sie przewaznie nudza w grach, z powodu niewykorzystania, a i tez na nie musiales wydac, skoro to sa DDR3..
Naprawde, szkoda byloy mi tych pieniedzy, bo polowa sprzetu i tak lezy odlogiem w praktyce :)
Drau ja nie stwierdzałem, tylko się pytałem. Technika idzie za szybko, żebym wiedział o wszystkim.
Jak dla mnie to wygląda dziwacznie , te przerywane linie żenada. wole już jeden wielki telewizor albo projektor HD.
taaa a przeciwnicy beda sie chowac za ramkami miedzy monitorami:)
moim zdaniem pomysl do dupy.za cene 6 monitorow mozna miec jeden porzadny projektor HD.a uwiezcie mi,nic nie robi wiekszego wrazenia od samochodu z grida ktory jest wiekszy od fotela:) albo dron ze starcrafta wiekszy od piesci doroslego czlowieka;]
Thrall Uther proszę bardzo http://twojepc.pl/artykuly.php?id=geforce_gtx_295&strona=4
Radek 4870X2 kosztuje 1839 zł a GF 295 1 819 zł (ceny z komputronika) Czyli praktycznie różnicy nie ma w cenie.... GF 295 GTX wygrywa prawie w każdej grze, a Radek tylko w Call of Juarez....
Tutaj zgadzam się z userem Jagar, przyznał bym Ci rację gdybyś porównywał 2x HD 4890 w CrossFire do GTX 295, który w wyższych rozdziałkach (2560x1600) w większości gier zostaje z tyłu za dwoma radkami 4890, a za cenę GTX 295 można już dostać 2x HD 4890, więc GF nie miażdżą radków ;]
Nie no typowi polacy, "Eeee na 6 monitorach to się nie da grać, phi co to za karta". To jest super osiągnięcie, dzięki niej idziemy o krok w kierunku ultra realistycznej grafiki. Bardzo mi się podoba ten pomysł. Mam tylko nadzieje, że cena będzie osiągalna.
@Thrall Uther [ Level: 2 - Konsul ]: taki detal.. jemu chodzilo o wersje x2 karty HD4890, czyli dwuprocesorowa, a nie dwie karty w stratnym trybie CF :)
"wole już jeden wielki telewizor albo projektor HD."
dokladnie, projektor da ci taki sam efekt, znacznie taniej. a jesli chcesz grac w pelnej panoramie(5-6tys na 1200),co naprawde daje boosta w fps'ach/wyscigach czy nawet czasem w wowie to 22" full hd to jakies 500zeta, druga dowolna karta z cuda niecale 100, zakladajac ze jeden 22 juz masz(i jakiegos 200+ gf), wydajesz jedyne 1100zeta. zamiast szarpac myszka zerkasz na monitor obok...
Świetna sprawa, ale ja narazie mam w miarę kompa, więc tak na 3 lata starczy mi. Po tych 3 latach złoże coś świetnego zapewne z podobną kartą, bo 3 lata, to dużo czasu :)
Drau... Hd 4890x2 nie istnieje wiec z prostej przyczyny nie da sie porownac. Lecz 2xhd4890 jak najbardziej maja podobne osiagi mimo ,ze gry w testach byly typowymi grami optymalizowanymi pod karty Nvidi no poza Call of juarez ktory jest passe i wynik mocno byl na + dla karty radeon mimo ,ze jest innego poziomu.
Wg wstępnych danych GTX300 (czy jak tam Nvidia nazwie swój topowy GPU) ma być "na papierze" 2x szybszy od GTX285 jako że będzie miał 2x więcej jednostek obliczeniowych wszelkiego typu (TMU, ROP, SP).
Problem Nvidii polega na tym, że ATI także głupie nie było i przywaliło specyfikację RV870 2x lepszą niż RV770. Więc Nvidia wcale nie będzie miała lekko, zwłaszcza, że:
a) GeForce GTX300 wg aktualnie dostępnych informacji/plotek zaliczy potężne opóźnienie względem konkurencji z ATI. Jak się ukaże pod koniec 2009 to będzie dobrze, a znacznie pewniejszą datą jest początek 2010.
b) Zanim Nvidia wypuści swojego jednoprocesorowego "potwora" który i tak z Radeonem 5870 lekko mieć nie będzie to ATI będzie miało już wersję 2 procesorową tej karty, z którą najnowszy GeForce nie ma żadnych szans.
c) Nvidia wcześniej czy później odpowie kartą 2 procesorową, ale KIEDY? Na GTX 295 trzeba było czekać prawie ROK (sic!) jeżeli tym razem będzie podobnie to przez co najmniej kilka miesięcy ATI będzie niezagrożone w wyścigu wydajności, bo jakby świetna Nvidia nie była to imho pojedynczego GPU wydajniejszego od podwójnego HD 5870 w procesie 40nm nie są w stanie zrobić jak bardzo by chcieli - to po prostu niemożliwe.
Specyfikacja Radeona 5870:
GPU wykonane z ~2,1 mld tranzystorów w procesie 40nm taktowane zegarem 850MHz
1-2GB pamięci DDR5 taktowane zegarem 1,3GHz (efektywnie 5,2GHz)
256bit kontroler pamięci
1600 SPU
32 RBE
80 TMU
Ciekawa i potężna karta się szykuje. Ciekawe jaka cena będzie jak taką technologię ma obsługiwać i mam mieć taką moc.
Hm, ATI może jeszcze coś pokaże jednak nadal nie ma PhysX, nadal sterowniki są z kosmosu. W sumie mam zamiar zmienić 30" (2560x1600) na (7680x4320) na UHD jak tylko pojawi się do kupienia detalicznego i coś to obsłuży.
Podzielone ekrany to porażka,zwłaszcza że zasłaniają część aktualnej gry.Jeden duży ekran to rozumie.Zresztą na co komu takie zabawki,ja sam na 24 calach jade i nieraz mnie łeb boli a co dopiero jakbym do tego dorzucił 5 czy 6 takich.To są takie zabawki dla ludzi którzy nie mają co z kasą robic.
@Septi [ Level: 68 - Starszy Generał ]: obraz rozlozony na pare monitorow nie jest niczym zaslaniany. Gdybys nie mial ram monitora, to obraz bylby caly, nienaruszony, a przez istneinie ram jest po prostu podzielony na troszeczke oddalone od siebie puzzle tworzace calosc.
A.l.e.X ----> sterowniki ATI aktualnie są bardzo dobre, a już na pewno nie gorsze niż Nvidii, a odnośnie PhysX to dokładnie te same efekty można uzyskać i bez PhysX co z nim stąd też w 99% gier w ogóle nie jest wykorzystywany.
Oba argumenty kontra ATI niestety mocno chybione, ale skoro masz w PC 3x GTX280 to nie dziwne, że szukasz argumentu za swoim wyborem. Niestety po premierze serii 5870 i CO NAJMNIEJ do premiery GTX300 Nvidia żegna się z prowadzeniem w wyścigu wydajności.
O ile nie wydarzy się jakiś cud i GTX300 zostanie zaprezentowany w ciągu najbliższego miesiąca (baaaardzo mało prawdopodobne) to ATI znajdzie się w równie komfortowej sytuacji jak po premierze Radeona 9700PRO :)
Drau - i tak wygląda jak gówno przez te ramy.
Co do tematu, to ja wżyciu bym nie zmarnował kasy na kupienie sześciu monitorów 30 calowych, co innego jakby sprzedawali jeden 180 calowy monitor z taką rozdziałką, to chętnie bym kupił (jakbym kasę uzbierał :p), bo nie wiem jak innym, ale mi te obramowaniami przeszkadzały by mi tak bardzo, że praktycznie nie mógł bym grać.
6 monitorów 30-calowych nie równa się monitorowi 180 calowemu. Chyba byś musiał ścianę wyburzyć, aby taki do domu wnieść.
Teraz tylko trzeba czekać na pojedyncze ekrany zdolne wyświetlić taką rozdzielczość, bo jak widać, ten składak na zdjęciu nie prezentuje się zbyt dobrze. Chociaż o ile mnie pamięć nie myli już GF440MX mógł wyświetlić tapetę pulpitu (i nic więcej ;) w rozdzielczości 2048x1536 (chyba) czyli więcej niż FullHD, a kiedy to było, a u nas nawet FullHD jeszcze nie jest standardem ;)
NFSV fan - tym razem będzie innaczej podwójny Radeon nie będzie miał nawet szans z GT300...
Lukas ''The Assassin's'' -----> O ile zakład że się mylisz? ;>
Żebyś miał racje GTX300 musiałby być szybszy od pojedynczego Radeona 5870 o ok 70% co przy tak mocnej specyfikacji ATI jaką obecnie już znamy jest po prostu nie możliwe.
Pojedynczy GTX300 zapewne będzie szybszy od pojedynczego 5870, ale imho max 20 może 30% nie więcej. Podwójna wersja od ATI nie będzie miała problemu z pokonaniem nowego GPU Nvidii.
W końcu także i Nvidia wypuści podwójnego GTX300 (może trochę okrojonego) który pokona 5870X2, ale nie spodziewałbym się takiej karty za wcześniej niż pół roku, w końcu na GTX295 trzeba było czekać prawie rok.
A propos pojedycznych GPU jeszcze to na dzień dzisiejszy najszybszą kartą z 1 GPU bynajmniej nie jest GTX285 tylko Radeon 4890 (GPU@1GHz).....
Heh ... mam nadzieje że nowa karta za 300 zł ładnie mi wszystko w StarCraft II uciągnie ;)
To tyle bo resztę mam na swoich konsolkach ;P i monitorze 24" który całkowicie mnie wystarcza.
Może któryś ze zwolenników ATi wyliczyć 5 wielkich hitów i 5 potencjalnych hitów, które są optymalizowane pod ATi?
Dzięki ATi zwolennicy nVidii dostają nowe "kotlety", gdyby nie ATi to pewnie byśmy grali cały czas w gry z grafiką pokroju pierwszych Doom'ów, czy FX Fighter'a :) Nawet w ostatnim czasie po paśmie porażek ATi w końcu pojawiły się produkty warte uwagi w postaci kart z serii 48xx. Jeśli komuś nie zależy na wyścigu zbrojeń to zaczeka na produkt warty uwagi, czy to ze stajni nVidii czy ATi. Ja miałem zamiar kupić swego czasu 4870, ale zaczekałem i kupiłem GF 260 216, to czy mam 5 klatek więcej czy mniej w poszczególnych grach jakoś zeszło na plan dalszy, choć pod tym względem karciocha sobie nieźle radzi i jakoś do grania w 1080p mi wystarcza :)
PhysX niby zbędny bajer, ale osobiście wolę poczekać sobie w na Batmana AA na wersję PC niż zarywać nocki na konsoli :) Do tego ciekaw jestem jak by to wyglądało w 3D Vision, a niezbyt ciekawi mnie efekt rozbicia obrazu na 6 monitorów :) Choć i jedno i drugie nie jest żadną nowością.
Zrozumcie ludzie, że nie zawsze to co droższe jest lepsze i vice versa, często jest to kwestia wyboru sprzętu wg własnych potrzeb i upodobań. Ja pewnie zaczekam na coś nowego od nVidii, choć zawsze pozostawiam sobie furtkę na zakup produktu konkurencji, jeśli zaimplementują w swoim produkcie jakąś ciekawą technologię, a nie tylko rozdzielanie obrazu na 6 ekranów :)
Dzięki ATi zwolennicy nVidii dostają nowe "kotlety", gdyby nie ATi to pewnie byśmy grali cały czas w gry z grafiką pokroju pierwszych Doom'ów, czy FX Fighter'a
Co ma piernik do wiatraka ?
@NFSV fan nie jest to do końca prawda lista gier obsługująca PhysX jest naprawdę duża a różnicę potężne widać np. w Mirror's Edge, Batmanie, U3 w innych grach ma to już mniejsze znaczenie ale nadal jest. Mi jednak zależy na wydajności więc jeśli ATI będzie lepsze od Nvidii to będzie Ati choć mając już jakiś czas temu przygody z Ati trochę mi z tą firmą nie po drodze. Ważne jest że Dirt 2 będzie już wspierał DX11, a chyba Nvidia wyda grafiki dopiero w styczniu więc pewnie najpierw wypróbuje w CF dwie 5870
" więc pewnie najpierw wypróbuje w CF dwie 5870" wiec do wydania next gf bedziesz korzystal z 2 5870? a potem moze 2 300 gf i bedziesz na tym grac w dirta 2? taa jasne:)
Ja i tak jestem zwolennikiem nvidi , lecz dobrze ze jest konkurencja dzieki temu jest i rozwoj technologiczny i nizsze ceny..
Cena na pewno bedzie niemala, ale fajna technologia, tylko niedostepna dla przecietnego gracza ;)
To jest magia promocji. Wcisnąć ludziom gówno z podziałkami, liniami itp. tak zeby im sie to podobalo. Jak wam sie to tak podoba to oblkejcie swoje full HD telewizory tasma klejącą i sie cieszcie z nowej technologii. WOW
Przecież WoW odpali się na komputerze każdej kury domowej, niech odpalą Crysisa.
6 monitorów obsługiwanych przez jedną kartę. Sądzę, że będzie to najpotężniejsza karta, przynajmniej do premiery nowej karty NVIDII.