Witam.
Czy mając G-sync włączony powinienem wyłączyć v-sync? Czy nie ma to znaczenia?
Ja korzystam najczęściej z adaptacyjnego V-Sync, w grach multiplayer nie korzystam w ogóle w V-Sync, by zminimalizować opóźnienia. Problem mam z Assasins Creed Unity w którego obecnie gram, niestety w tej grze ilość FPS bardzo często spada poniżej 60 co owocuje częstym tearingiem, pozostaje jedynie użycie stałego V-Sync lub zjechanie z detali, na szczęście w AC Unity nie ma dramatu ze stałym V-Sync (gra ma chyba domyślnie zastosowanie potrójne buforowanie, bo przy spadku FPS poniżej 60 nie ma blokady na 30 FPS), ale w wielu innych grach (np Far Cry 4) włączenie stałego V-Sync bez potrójnego buforowania owocuje częstymi zmianami blokady FPS z 60 na 30 i z powrotem, co jest jeszcze gorsze od tearingu. Współczuję posiadaczom Radeonów, gdyż nie mają adaptacyjnego V-Sync i jeśli gra nie stosuje potrójnego buforowania, to pozostaje im tylko wyłączyć V-Sync i męczyć z tearingiem (no chyba, że mają monitor z free-sync).
PS. Jeśli w jakiejś grze nie ma opcji potrójnego buforowania to jeśli włączę tą opcję dla tej gry w panelu Nvidia, to i tak tego potrójnego buforowania nie będzie, bo te ustawienie w panelu Nvidia dotyczy się tylko OpenGL, a nie DirectX?
Naprawde jestem pod wrażeniem jakości ostatnich filmów Kacpra. Widac ze zrobil dobry research i podszedl do sprawy profesjonalnie. Oby tak dalej! Fajna odmiana i powiew swierzosci na TVGry :) Dajcie mu podwyzke.
Co tu dużo mówić... Pełna profeska :) Kacper, zdecydowanie przodujesz na tvgry. :))
@mateo1g: Tak, chociaz niektórzy mają tendencję do pisania, że "coś się zmieniło" jak to włączają. Jednak fakty wskazują na to, że obsługiwany jest tylko opengl (z ostatnich gier np. Wolfenstein).
Btw, dzisiaj w materiale króluje kawałek "Mantis" ze świetnego soundtracku do FTL by Ben Prunty. ;)
@Jesper - aha, dzięki z odpowiedź. Skoro ta opcja działa tylko w OpenGL, to twierdzenie graczy, że "coś się zmieniło" wynika chyba tylko z efektu placebo.
Bardzo dobrze wyjaśniony temat. Moje gratulacje Kacper. Nic dodać nic ująć. Tylko historycznie wspomnę, że na początku PC-ty z CGA (320x200) VGA (640x480) i SVGA miały stały obszar pamięci, w którym rysowały obraz i taki np. Prince of Persia, czy Dune miał tragiczny tearing, bo kolejne klatki szybko ruszającego się obrazu rysowały się na oczach gracza. Takie Atari, Commodore 64, nie mówiąc już o Amidze od początku miały możliwość przełączenia obszaru pamięci wyświetlanego na ekraniem czyli double buffering (obsługiwane w przerwaniu pionowym - V-Sync). Rządziła Amiga, która dzięki procesorowi Copper była w stanie w każdej poziomej linii ekranu wyświetlić inny obszar pamięci, co pozwalało na fajne efekty w demach (falujący napis jak woda) i czasem grach tylko poprzez żonglowanie adresami pamięci dla każdej poziomej linii na ekranie bez zmiany nawet jednego bajtu w pamięci obrazu.
Szacun za ten materiał!
Brawo Kacper za świetny materiał, czekamy na następny! Tak pomiędzy nami, napisz, skąd Ty to wszystko wiesz???
Kacper jesteś mistrzem !!kolejny świetny materiał, rewelacyjnie wszystko objaśnione. Czekm na kolejne odcinki dekonstruktora.
@ZaronDrake Pogrzebałem w necie i udało się kilku osobom uruchomić G-Sync na jakiś jednym laptopie Asusa ROG z nieoficjalnymi sterami. Nie znalazłem też żadnego hacka żeby po DisplayPort uruchomić FreeSync na GeForcie ... (bo kto kurde ma monitor z G-Sync)
Swietny material, to chyba moja ulubiona seria na TV gry.
W końcu doczekaliśmy się kolejnego materiału z tej serii :D domyślam się, że częściej ich nie będzie bo żeby dobry materiał zrobić potrzeba czasu, ale cieszy mnie on za każdym razem gdy się pojawi, bo potrafi on w super przystępny sposób pokazać pewien zakres informacji :) Gratuluje !
Dobry materiał. Przez te wszystkie technologie wybiorę konsolę, tam przynajmniej jest to tak zrobione by działało OK, wszyscy mają to samo, gra jest dostosowana do konkretnego kontrolera. Komp z monitorem (V-sync. lub G-sync) i porządną myszką i klawiaturą, a najlepiej i padem to niestety obecnie wydatek przynajmniej 5 000 PLN.
na konsolach zwykle tearing nie jest zauwazalny, ale np. w takim Watch Dogs na X360 rzucal sie w oczy strasznie
Na konsolach, gdzie klatki sa zablokowane, warto wziąć pod uwagę to, że twórcy projektując grę pod jeden konkretny GPU, mogą zadbać o to, żeby klatki wyswietlaly się jak najbardziej równomiernie. Wiec nawet bez vsynca da się tearing ograniczyć, jeśli gra jest dobrze zoptymalizowana. :)
Mały błąd. Adaptive sync, czy tez freesync miało być obowiązkowym standardem w DisplayPort 1.2a . Miało być tak, ze każdy monitor z DisplayPort 1.2a bedzie obsługiwał ta technologie. Jednak ostatecznie jest to opcjonalny komponent wtyczki. Czyli w praktyce monitor który ma DisplayPort 1.2a nie musi obsługiwać tej technologi, wszystko zależny od producenta monitora. Czyli główna zaleta tego otwartego standardu zniknęła. Konsument i tak musi szukać monitora który obsługuje czy to technologie amd czy nvidii. Przez to ze free sync DisplayPort 1.2a roznie on działa na roznych monitorach - czyli rozna jest ilosc klatek od ktorych działa, i poziom smużenia też jest rozny. Sprzętowe rozwiązanie nvidii pod tym wzgledem jest lepsze, tylko trochę droższe.
Mega materiał, bardzo chciałem o tym posłuchać ale w profesjonalnym wyjaśnieniu, doczekałem się :)
Super są te technologiczne materiały Kacpra, umie wsporo wyjaśnić w przystępny sposób. Tak trzymać!
Trochę skomplikowany, ale świetny i wiele wyjaśniający materiał jak i cała seria tak trzymaj Kacper :D
Kacper kolejny strzał w 10 !!! proponuje zrobić ,,Kącik Techniczny, nowinki " więcej takich pozdrawiam
Bardzo ciekawy, edukacyjny materiał. Świetnie przedstawiony, dzięki temu wszystko zrozumiałem :D
Wielki plus.
Ja już myślałem, że szykuje się jakaś dobra gra pt. "VSYNC" ;-(
Czyli reasumując
1. Mając bardzo dobry sprzęt w stosunku do gry - lepiej włączyć v-sync. Nasza karta graficzna produkuje za dużo klatek. Potrzebne wparcie programowe.
2. Mając sprzęt o wiele słabszy (np. minimalne wymagania) lepiej te opcje odhaczyć. Nasz gpu nie daje rady z klatkami biedząc sie przy 20-25 fpsach. Tearing będzie występował ale nic z tym nie możemy zrobić.
No nareszcie mniej więcej wiem co to V-Sync... W niektórych grach włączone v-sync zawiesza mi grę i nie wiem o co chodzi. Tak czy siak fajna naładowana info seria.
po prostu WOW. Kacper naprawdę widać twój rozwój, nie marnujesz się chłopie. A pamiętam jeszcze jak hejtowali cię gdy pojawiłeś się na tvgry.
Materiał na plus. :)
Bardzo dobre materiały. Ja mam kartę graficzną i procesor z górnej półki więc przy uruchamianiu nowej gry ustawieniami typu V-Sync, G-Sync, Antyaliasing nie będę zawracał sobie głowy pozostając przy ustawieniach domyślnych.
W ten weekend kupuje monitor o wartości PS4, nie ma co ograniczać grafiki i podcinać jej skrzydła.
panowie (ogólnie) kolejny świetny materiał.
niewiem jak u was z budżetem ale powinniście kupić jakiś kanał w tv (np. w cyfrowym polsacie) [sry nie znam sie] takie tvgry ale że w Telewizji macie dużo pomysłów a no I temat rozległy jak by takie coś powstało to nie oderwał od telewizora, taki Arash opowiadający o nowych premierach, taki "Hyper"
I tak po ziemi chodzą ludzie którzy nie widzą szarpania ekranu... Osobiście wypala mi to gałki oczne.
G-Sync jest technologią stanowczo lepszą od FreeSync. Wszystkie profesjonalne testy FreeSync od AMD pokazują że występuje "Ghosting" obrazu. NVidia po premierze freesync nawet wydała oficjalne oświadczenie że sami próbowali opracować G-Sync o AdaptiveSync ale właśnie ze względu na Ghosting efekty nie były zadowalające. Jeśli ktoś uruchomił G-Sync bez monitora które ma ten chip to na pewno efekt nie jest taki sam, chip G-Sync naprawdę robi sporo w monitorze i da się to zauważyć.
PS. Nie tak mało osób ma monitory z G-Sync jak Wam się wydaje. Z moich znajomych około 25% ma już monitory G-Sync, a każdy kto planuje zmianę monitora prawdopodobnie też taki właśnie wybierze.
Fajnie by było gdybyś zrobił filmik o DirectX12 (głównie o tych jajach związanych z GPU), Windows 10, DDR 4 lub o prockach :).
Bardzo ważna funkcja, jeśli jej nie ma w grze to używam jej specjalnym programem. Niepotrzebne męczenie karty 1000+ fps? What for? Przyznam jednak, że ostatnie kilka dni grałem w grę w której wyłączyłem V-Sync a dlatego, że klatki spadały mi podczas walk do 30 fps, dziwnie się trzymały tej wartości a w chwilach spokoju wracały do 60 fps. Było to w grze Crysis 2. Problem rozwiązałem wyłączeniem V-Sync i blokadą osobnym programem do 60 fps. Efekt - niemal stałe 60 fps.
Btw 10k post :)
Genialny materiał. Wy u siebie co używacie? 3DO, czy od razu monitor z G-S?
Zamiast promować monitory 144 Hz na których prawie w ogóle niema ghostingu i tearingu, to wciskają ludziom jakieś protezy typu g-sync czy freesync...
Bardzo fajny materiał. Proponuje teraz zrobić jakiś materiał o 4k. O graniu na TV w 30Hz, bądź pozbyciu się kolorów na rzecz 60HZ. O sterownikach i aktualizacjach TV do standardu 4k60HZ. Pozdrawiam
Zamiast promować monitory 144 Hz na których prawie w ogóle niema ghostingu i tearingu, to wciskają ludziom jakieś protezy typu g-sync czy freesync...
Akurat posiadam monitor z g-syncem i nie tylko ma odswiezanie w czestotliwosci 144Hz, ale tez 1ms czas reakcji matrycy. O kontrascie i rozdzielczosci nawet nie wspominam. :)
Blackthorn [67]
ale tez 1ms czas reakcji matrycy. O kontrascie i rozdzielczosci nawet nie wspominam. :)
Hahah, to tak jak wszystkie, też piszą, że 1ms, a kontrast i rozdzielczość nie ma nic wspólnego z gsync.
Swoja drogą ludzie dają sobie niezłą ściemę wcisnąć, wolą kupować gsynca, który nadal nie jest idealny, zresztą tak samo jak async (a niby mieli problem rozwiązać raz na zawsze, widocznie taki sam kłamliwy marketing), zamiast po prostu upewnić się, że ma się 60 fps + triple buffer wtedy problemu nie ma, wolą kupić droższy monitor i niż dołożyć kasę do wydajniejszego sprzęt i nadal bądź co bądź mieć problemy.
Które to też są ściemą, no ludzie, w co wy wierzycie, na serio tak trudno jest po prostu zmusić monitor do odświeżenia się wtedy kiedy chcecie bez względu na liczbę fps żeby nie wiem co, no oczywiście, że nie, według mnie nie rozprawiając się z tym do końca, mogą, ale na tym nie zarobią.
I tak samo w każdej grze powinien być obsługiwany triple buffer, a nie jest.
Miałem kupować monitor z 144hz, 1 ms albo czekać na tańsze g-sync ale wole zainwestować więcej teraz w 60hz z ładnymi kolorami z matrycą ips niż 144hz z tn bez redukcji migotania. 120-144 hz to bardziej dla osób grających w CS, BF3 albo SLI żeby osiągnąć ponad 100kl/s, na GTX 980ti gram przeważnie w 60hz i tak zostanie więc wywalenie kasy na 144hz mija się z celem. Dobrze że przed zakupem spędziłem kilka dni na czytaniu i na testach monitorów.
kaszanka9 oni nic z tym nie zrobią. Lepiej, by wiara kupiła nową kartę graficzną. Jakby chcieli, to już dawno by to ruszyło. Największym problemem póki co, to brak konkurencji. AMD upada coraz bardziej. Intel i Nvidia zjadają ich i podnoszą ceny do jakichś chorych wartości. Mam nadzieje, że ktoś ich kupi i pokaże, że monopol nigdy nie jest na rękę klientom, czyli po prostu nam.
Znalazłem artykuł który opisuje, że nie jest potrzebny monitor z G-Sync, a jedynie DisplayPort 1.2 i modowane sterowniki.
Może to ktoś potwierdzić?
kaszanka9 -> A miałeś kiedyś kontakt z ta technologia na własne oczy? Bo wiesz, moi znajomi też smęcili na mój zakup, a w rezultacie i tak każdemu opadła szczęka. Z ciemnogrodem nie piszesz.
PS: Mój monitor to Asus ROG Swift PG278Q. I oczywiście zadane pytanie przeze mnie jest pytaniem retorycznym.
Blackthorn też przymierzam się do jego kupna, lecz ta cena... Czysty gwałt.
jovalec na razie nikomu to nie działa, więc lepiej zainwestować w g-sync. Najtańszy monitor to 1700 zł. Mógłby być tańszy, ale nie jest źle.
Imrahil8888 -> Cena niestety jest duża, ale ogólnie to jestem bardzo zadowolony z tego monitora. Jakość obrazu i płynność animacji jest świetna.
Po zmianie kompa miałem screen tearing, ale tylko podczas odpalania filmików w przeglądarce bądź zwykłych filmów. Kombinowałem, robiłem co się dało i dopiero zmiana odświeżania na 59 Hz pomogło... A sam materiał świetny! :)