Zobacz technologię ray tracingu w Metro Exodus
Tekstury chyba nawet brzydsze niż w tym Metro z 2010 roku, a wymagania 10 razy większe widać nvidia zrobi swoje w sterownikach aby sztucznie zawyżyć wymagania, oczywiście wszystko po to aby kupować ich "mocniejsze" karty graficzne, tak naprawdę to mam wątpliwości czy one w ogóle są mocniejsze czy to jeszcze tak naprawdę karty graficzne z mocą na rok około 2010 tylko cyferki im się zmieniają.
Może za 10 lat gdy gry będę wyglądać nadal tak jak dzisiaj, czyli trochę lepiej niż Crysis z 2007, a wymagać będą 100GB ramu 32 rdzeniowego procesora i grafiki z kosmosu to gracze się wtedy obudzą i zrozumieją że korporacje robią ich w bambuko.
Mało kto zdaje sobie sprawę z tego co tak naprawdę Ray Tracing umożliwi. Dodanie go na szybko do obecnych gier niewiele zmienia, bo zostały one zaprojektowane pod aktualny sprzęt i technologię.
Silniki od dobrych kilku lat potrafią wypalać off-line wszystkie złożone interakcje światła. Co przy statycznej geometrii i oświetleniu pozwala osiągnąć jakość na poziomie ray-tracingu. Od pewnego czasu stosuje się też technologie hybrydowe np. Screen Space Reflections, który to działa na zasadzie śledzenia promieni i operując na składowych ramkach techniki Deffered Shading pozwala tanim kosztem uzyskać realistycznie wyglądające odbicia światła we wszystkich obiektach.
Podobnie jest z Global Illumination, która pojawiła się w grach jakiś czas temu, ale używany algorytm działa tylko na statycznej geometrii, bo pozwala to lwią część obliczeń przetworzyć off-line i później korzystać z gotowych współczynników.
Rozwój grafiki dąży w kierunku pełnej wolności. Dzisiejsze gry są ładne, bo artyści doskonale wiedzą jak maskować ograniczenia technologii. Uncharted 4 jest tutaj dobrym przykładem, bo choć technologicznie to nic specjalnego, ale kierunek artystyczny i konstrukcja lokacji stworzyły niesamowitą wizję. PS4 nie jest w stanie uciągnąć wszystkich efektów na raz, ale Uncharted 4 świetnie tym balansuje. Duże lokacje są statyczne, mniejsze mogą mieć dużo fizyki i dynamicznej roślinności. Odpowiednie tempo gry, balansowanie między efektami, skupianie uwagi gracza na miejscach pełnych detali np. radial blur w sekwencji z jeepem, który rozmywa ubogie, choć rozległe tereny, a skupia uwagę na pieczołowicie dopracowanym modelu pojazdu.
Raytracing zniesie te ograniczenia i da ogromną swobodę. W czasie rzeczywistym będzie można zmieniać nie tylko warunki oświetlenia, ale także geometrię, co pozwoli na piękne gry z dowolną deformacją świata.
To jednak przyszłość. Elementy tej swobody mogą pojawić się w PS5 czy nawet Xbox One X, ale na pełnoprawne użycie nie mamy co liczyć przez najbliższą dekadę.
No niestety niczego nie urywa.
No niestety niczego nie urywa.
Tekstury chyba nawet brzydsze niż w tym Metro z 2010 roku, a wymagania 10 razy większe widać nvidia zrobi swoje w sterownikach aby sztucznie zawyżyć wymagania, oczywiście wszystko po to aby kupować ich "mocniejsze" karty graficzne, tak naprawdę to mam wątpliwości czy one w ogóle są mocniejsze czy to jeszcze tak naprawdę karty graficzne z mocą na rok około 2010 tylko cyferki im się zmieniają.
Może za 10 lat gdy gry będę wyglądać nadal tak jak dzisiaj, czyli trochę lepiej niż Crysis z 2007, a wymagać będą 100GB ramu 32 rdzeniowego procesora i grafiki z kosmosu to gracze się wtedy obudzą i zrozumieją że korporacje robią ich w bambuko.
Coś w tym jest.
Ciekawe jak z fizyką bo tym ostatnio nie chwali sie wielu producentów.
Nvidia zabezpiecza się przed zalewem pokoparkowych używek na rynek. Albo będzie brak optymalizacji dla gtxów 10xx w nowych grach albo seria 20xx podniesie wydajność o 50% na segment. Pytanie ile da od siebie Ray tracing w stosunku do zjadanej mocy.
,,Tekstury chyba nawet brzydsze niż w tym Metro z 2010 roku,,
XD
@Gameplajak święta racja sztuczne zawyżanie wymagań albo nieumiejętność programistów do stworzenia dobrej optymalizacji. Skoro Metro Exodus na PC ma rozsadzać najmocniejsze karty graficzne to na PS4 oraz Xbox wypuszczą "inną" grę?
@Orek666 co do fizyki masz trochę racji bo wydaje mi się, że przełom nastąpił razem Half-Life 2 a od tamtej pory chyba niewiele się już zmieniło w tej kwestii.
Bez szału. Brakuje tu zdecydowanie tego samego filmu ale bez tej technologi.
Niestety to demo pokazuje jak niewiele trzeba aby obnażyć jak ta technologia w bardzo ograniczony sposób wpłynie na gry. Tylko w przypadkach gdy jest dużo obiektów odbijających światło robi to jakieś wrażenie i pomimo, że przy obiektach które tego światła w takim stopniu nie odbijają to i tak jest to symulowanie w realistyczny sposób pokazuje to tylko, że obecnie i tak grafika jest na świetnym poziomie.
A teraz tylko czekać aż ta technologia stanie się popularna i producenci gier będą starali się aby wszystkie przedmioty świeciły się jak psu jaja żeby kupić Titana V i zobaczyć te piękne odbicia.
Mało kto zdaje sobie sprawę z tego co tak naprawdę Ray Tracing umożliwi. Dodanie go na szybko do obecnych gier niewiele zmienia, bo zostały one zaprojektowane pod aktualny sprzęt i technologię.
Silniki od dobrych kilku lat potrafią wypalać off-line wszystkie złożone interakcje światła. Co przy statycznej geometrii i oświetleniu pozwala osiągnąć jakość na poziomie ray-tracingu. Od pewnego czasu stosuje się też technologie hybrydowe np. Screen Space Reflections, który to działa na zasadzie śledzenia promieni i operując na składowych ramkach techniki Deffered Shading pozwala tanim kosztem uzyskać realistycznie wyglądające odbicia światła we wszystkich obiektach.
Podobnie jest z Global Illumination, która pojawiła się w grach jakiś czas temu, ale używany algorytm działa tylko na statycznej geometrii, bo pozwala to lwią część obliczeń przetworzyć off-line i później korzystać z gotowych współczynników.
Rozwój grafiki dąży w kierunku pełnej wolności. Dzisiejsze gry są ładne, bo artyści doskonale wiedzą jak maskować ograniczenia technologii. Uncharted 4 jest tutaj dobrym przykładem, bo choć technologicznie to nic specjalnego, ale kierunek artystyczny i konstrukcja lokacji stworzyły niesamowitą wizję. PS4 nie jest w stanie uciągnąć wszystkich efektów na raz, ale Uncharted 4 świetnie tym balansuje. Duże lokacje są statyczne, mniejsze mogą mieć dużo fizyki i dynamicznej roślinności. Odpowiednie tempo gry, balansowanie między efektami, skupianie uwagi gracza na miejscach pełnych detali np. radial blur w sekwencji z jeepem, który rozmywa ubogie, choć rozległe tereny, a skupia uwagę na pieczołowicie dopracowanym modelu pojazdu.
Raytracing zniesie te ograniczenia i da ogromną swobodę. W czasie rzeczywistym będzie można zmieniać nie tylko warunki oświetlenia, ale także geometrię, co pozwoli na piękne gry z dowolną deformacją świata.
To jednak przyszłość. Elementy tej swobody mogą pojawić się w PS5 czy nawet Xbox One X, ale na pełnoprawne użycie nie mamy co liczyć przez najbliższą dekadę.
Oczarowałeś mnie swoją wiedzą.
A teraz napisz proszę to tak, żeby miało wartość informacyjną dla kogokolwiek, kto nie siedzi w temacie.
,,A teraz napisz proszę to tak, żeby miało wartość informacyjną dla kogokolwiek, kto nie siedzi w temacie.,,
Dla mnie ma wartość informacyjną, więc nie mów w imieniu innych z łaski swojej :v
Wreszcie jakiś wartościowy i ciekawy komentarz. Pełna zgoda. To co nazywasz zmienną geometrią to w grach głównie destrukcja. Już mi się nie raz zdarzyło, że niszcząc jakieś źródło światła w grze co prawda samo światło znikało, ale zabarwienie innych obiektów tym światłem pozostawało i to jest właśnie ten ray tracing off-line. Ray tracing w czasie rzeczywistym zyska na znaczeniu gdy zwiększy się interaktywność gier, zwłaszcza możliwość demolowania otoczenia.
@Matysiak
Raytracing to w swoich założeniach bodaj najprostszy i zarazem najlepszy (pod względem jakości) sposób renderowania, tylko niestety strasznie obciążający dla sprzętu.
W zasadzie raytracing przypomina sposób, w jaki nasz mózg "renderuje" to co widzimy w świecie rzeczywistym.
Jest sobie jakieś źródło światła (np. słońce, reflektor, świeca), które emituje faję świetlną. Fala uderza w jakiś obiekt, który absorbuje lub przepuszcza część tej fali, a resztę (o ile jakaś reszta została) odbija, przy czym ta odbita fala ma już inną długość niż na początku. Odbita fala trafia do naszego oka, a dalej mózg analizuje jej długość i na tej podstawie tworzy obraz. Raytracing mniej więcej naśladuje ten proces, który niestety wymaga ogromnej mocy obliczeniowej.
Na pierwszy rzut oka nie widać wielkiej różnicy (na obecnych demach) między raytracingiem a innymi sposobami renederowania, ale to wynika z faktu, że te "inne sposoby" potrafią osiągnąć bardzo zbliżone efekty... w drodze oszustwa.
Oszustwa, które jest łatwiejsze do przetrawienia dla sprzętu, ale mające mniejsze możliwości i często utrudniające życie projektantom.
Ja sam chciałem kiedyś napisać własny silnik gry w stylu 3D. Jako że jestem samoukiem, a nie zawodowym programistą, sięgnąłem po - jak mi się zdawało - najprostszą metodę, czyli silnik w stylu Wolfensteina 3D, opartego o technologię raycastingu (czyli ubogiego krewnego raytracingu). Całość udało mi się sklecić w około 2 miesiące, ale pisząc ten silnik doszedłem do wniosku, że to straszna bieda i że w sumie można osiągnąć podobne efekty (ale bardziej wydajnie), stosując metodę rzutowania na płaszczyznę z wykrywaniem jedynie wierzchołków brył. Potem doczytałem, że na podobny pomysł wpadł i Carmac pisząc Wolfa 3D, bo w taki właśnie sposób działa Doom Engine :).
Napisałem nowy silnik... i znowu nie byłem zadowolony. Stwierdziłem, że w sumie po co bawić się w rzutowanie i symulowanie głębi obiektów (strasznie upierdliwe), skoro mogę napisać silnik oparty o prawdziwe 3D i korzystać z prawdziwych modeli 3D.
No i faktycznie, napisanie takiego silnika było najłatwiejsze ze wszystkich (oczywiście nie jest nawet poziom pierwszego Quake'a, ale jest 3D ;p)! Co prawda komputer musi wykonywać sporo dodatkowych obliczeń, ale dla mnie jako projektanta to była po prostu bajka. Wrzucałem sobie tylko odpowiednie wymiary obiektów i wszystko przeliczało się samo. Nie musiałem stosować żadnych "protez", czy elementów udających pewne efekty.
Dobrze to widać na przykładzie rzutu izometrycznego:
https://upload.wikimedia.org/wikipedia/commons/e/ea/Sprite_anatomy_2d.svg
Powyższy rysunek przedstawia jakie wymiary musi znać projektant, by było możliwe narysowanie fragmentu muru w przestrzeni 2D.
https://upload.wikimedia.org/wikipedia/commons/d/de/Sprite_anatomy_3d.svg
Tutaj mamy ten sam element, ale już narysowany w przestrzeni trójwymiarowej. Różnicę widać od razu. Nie wspominając, że modelem 3D można sobie dowolnie manipulować, a izometryczny rzut 2D jest statyczny. Komputer woli 2D (bo mu lżej), ale projektantowi znacznie łatwiej działać jest w 3D.
@Likfidator
Dzięki za oba posty.
Będzie tak jak z dx12? Niby jest a prawie nikt nie korzysta,
Tylko czym tak naprawdę jest ten raytracing, w których miejscach sceny on działa? Powinien być film porównawczy z ekranem podzielonym na pół żeby było wiadomo co ta technologia daje.
Bo to co pokazano można by nazwać dowolnie i nikt nie zorientowałby się, że chodzi o jakiś magiczny raytracing.
Z dużej chmury mały deszcz.
Jednak istnieje filmik, który w prosty sposób pokazuje różnicę między tym co aktualnie jest dostępne w grach, a tym co RTX ma do zaoferowania:
JEDYNY MOŻLIWY SCENARIUSZ: Ja i np Alek pewnie będziemy podziwiali 100% okazałości grafiki, niektórzy komentujący bedą sztucznie narzekać na optymalizację wmawiajac sobie, że jest skopana oszukujac samego siebie, po czym po pewnym czasie dojdą do tego, że to bezsens, bo bez ray tracingu i tak wygląda ładnie zdając sobie sprawę z tego, że jednak to nie to, ale nie powiedzą o tym nikomu, (bo przecież jeszcze by wyszli na hipokrytów) wyłączą go z detali i będą mówić, że gra i tak jest zajebista.
Ta 1080ti nie starczy nawet na demo czy quake 2 z prawdziwym raytrace...
I ci co to wyłączą by zyskać fps jak najbardziej mają rację, bo jak nie widać różnicy to po co przepłacać, wielu ludzi od lat pisze, chciało by jakiś realizm w grach, ale nie zdaje sobie sprawy ile to wymaga obliczeń oraz faktu, że to co dostaną może być wcale nie wiele lepsze od obliczeń przybliżonych czy jakichś sztuczek.
To tak jakby w symulatorach wyścigowych od teraz wstawili rzeczywistą symulację fizyczną, żaden pc by tego nie pociągnął, a efekty dla gry mogłoby być nie wiele różniące się do stanu obecnego, dlatego używa się uproszczeń.
Jest jedna taka gra, Quantum Break, która już dodała coś z zakresu realtime w ograniczonym zakresie, wygląda bardzo dobrze, ale no właśnie NIE AŻ TAK DOBRZE, a wymagania przez to co dodali ma po prostu bardzo wysokie, nawet w stosunku do tego co używa, jest pełno narzekań na wydajność tej gry, właśnie z tego powodu, bo aż tak bardzo lepiej to nie jest wizualnie, a jednak moc pożera bardziej niż inne gry.
Rewolucja RT nie polega tylko na swiatelkach w grafice, ale na obliczaniu tylko fragmentu, na który jest skierowana kamera. Pozostały obszar masz wyłączony z obliczen. To samo będzie w vr. Proste sztuczki. Nie potrzeba bedzie do tego nawet 1080 noTi. 980Ti/1070 w pełni wystarczy, by w takim Metro móc sobie na to pozwolić w 30 klatkach w 1080p. Wspomnisz moje słowa.
Tak tak, a tymczasem 1080ti w marnym quake 2 demie na raytrace nie nadaje się do grania i to są fakty.
Proste sztuczki, takie jak na powyższym filmiku, że różnicy do dzisiejszych gier nie ma żadnej... zrób to samo, ale inaczej dla minimalnego efektu i minus 30 fps...
Uspokójcie się trochę, kolejne bezpośrednie ataki na drugą osobę będą już nie edytowane, a usuwane w całości.
@Hydro2 troszkę się zapędziłeś :) Backface culling jest od dwóch dekad wykorzystywany szeroko także nie trafiłeś. Normalnie też silnik liczy tylko to co widzi kamera :)
Jakie bezpośrednie ATAKI, na jakiej podstawie mój post został edytowany, ja nie napisałem tego co tam pisze obecnie, nie po to go pisałem, by ktoś bez jakichkolwiek podstaw go edytował, nie było tam żadnych wyrażeń uważanych za konkretne obrażanie czy wulgarne.
Co to jest za moderacyjna samowolka? Co następne, jak napiszę, ze ktoś jest hipokryta to też edytujecie? Bo widzę, że ktoś bredzi to też już SŁOWO ZAKAZANE.
soulldelsol - tak tylko jest jeden mały problem z tym przy raytrace, jako, że sama zasada działania techniki polega przecież na obliczeniach odbijania światła, tak brak wyrenderowanego kawałka świata zza ekranu za sprawą standardowo używanego wszędzie cullingu, spowoduje, że owe odbicia a tym samym efekt już w miejscu gdzie patrzymy kamerą nie będzie mógł brać pod uwagę tego co normalnie odbija światło, a tu nie jest nawet renderowane.
Tak więc nie tylko sama technika obciąża, ale też konieczność ograniczenia cullingu jeżeli ktoś chce uzyskać bardziej realistyczne rezultaty.
@kaszanka9 ale to już się dzieje. Nawet przy metodzie typu scanline trza brać pod uwagę niewidoczne najbliższe otoczenie (ono siedzi w pamięci gotowe do wywołania, ale jest ignorowane przez kartę graficzną aż do pewnego momentu), stąd cały szereg efektów w kategorii screen-space. Inaczej nawet najprostsze modele robiłyby na krawędziach ekranu mało widowiskowy pop-in. To też powód dla którego zdecydowana większość gier przez długi czas robiła lustra jak robiła :) zwyczajnie za bardzo nie było czego odbijać w tych lustrach.
Rewolucja RT nie polega tylko na swiatelkach w grafice, ale na obliczaniu tylko fragmentu, na który jest skierowana kamera. Pozostały obszar masz wyłączony z obliczen.
najwyrazniej masz problemy ze zrozumieniem o co chodzi.
Tak smiesznie sie sklada ze od zawse renderowany byl viewport.
I wlasnie w RT pozostaly obszar NIE JEST WYLACZONY Z OBLICZEN bo odgrywa istotna role w kreacji tego co widac w viewporcie. Chociazby odbicia. Mozesz wylaczyc glebokosc raytracingu limitujac ilosc odbic ale nie wyeliminujesz tego calkowicie.
Kolejna rzecz to aocc gi i sporo rzeczy o ktorych jeszcze nie mowi sie w kontekscie realtime raytracingu.
Tak jak pisałem, nie liczcie na cuda, wydali to, bo coś tam już powoli można robić, ale efekt to jest w demkach na 3/4 titanach, a grach to jak widać na powyższym materiale, no w zasadzie nie widać nic...
Bezsensu jak mamy zobaczyć różnicę jak nasze grafiki tego nie obsługują wygląda to tak samo jak wszystkie inne gry na ultra nie widzę różnicy przepłacony bubel od Nvidia jak zawsze. Komu zależy na pięknie wyglądającej grze? Ona ma wyglądać ale ma mieć dobrą fabułę ciekawe zadania i jak najmniej błędów i nie wymagać kupowania porche wśród komputerów dla jakiejś smugi światła. Puste i bezsensowne działanie lepiej niech zainwestują w porządny i stabilny silnik skryptów.
Wygląda ładnie... tyle. Jakiegoś szału nie robi, a biorąc pod uwagę cenę karty, to trochę porażka.
Jedna z moich ulubionych serii, ale nie kupie bo ma denuvo ;/
Ja to nawet nie wiem na co mam patrzeć.
Demko bieda, nawet bez raytracingu Cryengine V wygląda niebo lepiej, szkoda że ten silnik właściwie zepchnięty jest na boczny tor.
Masz Kingdome Come i Prey,a na Cryengine
Eee? Jakoś nie zauważę różnicy...
Państwo Nvidia i 4A Games, poproszę drugi filmik z wyłączony Ray Tracingu dla porównanie.
Proponowałbym się nie oszukiwać i spojrzeć trzeźwo na całą akcję. Nie ma ona nic wspólnego z "dobrem graczy" a jedynie upewnić się, że na AMD gra będzie działać beznadziejnie a nVidia będzie w porządku ... znając życie - tylko najnowsza seria.
Ostatnie działania zielonych to jakiś syf.
W ogóle działania tej firmy to żart totalny. Bezczelne zawyżanie cen. Nawet przed tymi walutami. Faworyzowanje nowych serii nowymi ficzerami, które były zablokowane na starych seriach i teraz wymyślanie tego dziadostwa. Na bank będzie dostępne tylko na nowej serii a zablokowane na starej i znowu podadzą jakiś durny powód. Zrobią wszystko, żeby jak najmniej osób kupiło karty post-koparkowe, które mogą zalać rynek w tym roku przez zblizajacym się sprzętem dla górników. Jeszcze ta akcja "sprzedawaj karty graczom, nie gornikom". Mówią jedno, a z tyłu zacierają ręce. Finalnie i tak słupki są najważniejsze. Nie cierpię tej firmy.
//Posiadacz GTX 980TI. Żyje nadzieja, że AMD zaskoczy kiedyś.
W końcu moje TITANY SLI się do czegoś przydadzą. Już mam dość grania w te pasjansy.
Możesz wracać do tych swoich pasjansów....
Sam robiłem telefonem sorry za jakość ale mój Vertu Constellation Ayxta robi słabe zdjęcia. Widać telefon za 3000 euro to zwykłe badziewko.
@Maniac1098
Trzeba było dołożyć już te 2000 euro i miałbyś coś sensownego.
Każdy sobie pogra na geforce now na Tesli P40 :D
Najbardziej został splusowany komentarz przez tych, którzy już trzęsą portkami, że im nie wejdzie. " Tekstury chyba nawet brzydsze od tych z 2010 " Haha
Weźcie mody kasujcie takie komentarze, bo tylko ośmieszacie własne podwórko.
sama technologia jest bardzo imponująca i jest kolejnym krokiem w kierunku realistycznej grafiki.
Niestety na filmiku od 4A Games nie robi to takiego wrażenia, powiem więcej... wygląda to trochę jak pierwsze klipy promujące Get Even i ich szumnie zapowiadana, fotorealistyczna niemal fotogrametria.
W klipie z Metro Exodus poza prześwitami promieni słonecznych cała scena wygląda jakby światło miała ustawione statyczne.
Gra wygląda spoko, ale jeśli "METRO" bedzie sie rozgrywać w 70% na otwarte przestrzeni, to ja podziękuję.
Gry doszły do takiego momentu że już raczej żadnych wodotrysków nie ujrzymy przez kolejne 10 lat.
Ten trailer jest ok, graficznie nie jest to jakiś szał, ale jest dobrze. Ten poprzedni bodajże, bez ray tracingu, dynamiczny, z zimową bieganiną wśród wraków samochodów i potworów wygląda niewiele lepiej niż pierwsze części. To pokazuje jak technologia - przynajmniej w moich oczach - przestała rozwijać się tak dynamicznie, jak było to circa 10 lat temu. To nie jest żadna rewolucja, to są małe ewolucje, tu i tam.
Kierunek artystyczny jest za to słuszny jak jasna cholera. To co mi się nie podoba, to że mapa z wioską jest tak naćkana, tak upstrzona szczegółami, detalami że zamiast się tym cieszyć, człowiek dostaje oczopląsu. Doceniam włożoną w nią pracę, ale jak na razie jest ona z kolei przykładem na to, że chcąc dobrze - można solidnie przedobrzyć.
[EDIT]: Pytanie do Likfidatora, lub redakcji GOLa, bo może ono mieć potencjał na materiał filmowy.
Chyba wszyscy zauważyli, że włażąc w takich grach jak W3, albo GTA V w miejsce słabo oświetlone, zacienione, jakość grafiki spada dość dramatycznie. Tekstury robią się szaro-bure, gra nagle robi się po prostu brzydka. Jedynym wyjątkiem jest chyba przejażdżka po Los Santos podczas głębokiej, deszczowej nocy. Ilość refleksów, źródeł światła i odbić, robi spore wrażenie, brzydota jest wtedy niedostrzegalna.
Podobny problem widzę ze scenerią śnieżną. Mam na myśli ten trailer Metra Exodus, albo podobny, z zaśnieżoną powierzchnią i wrakami samochodów:
https://www.youtube.com/watch?v=2k2XGNySH0E
Wygląda to gorzej, niż mapka z wioską, bez znaczenia czy z ray tracingiem, czy bez.
Czym to wszystko jest właściwie spowodowane? Analogia z fotografią ma sens? Jeżeli robimy zdjęcie bez "ciekawego" źródła światła, albo po prostu w kiepskich warunkach oświetleniowych, to jest szansa że wyjdzie ono mdłe, albo zaszumione, nieostre. Można to rozwiązać zwiększając czas naświetlania (statyw się przydaje), albo np. ISO. Jednak nadal mogą wystąpić szumy, utrata detali, zakłamany balans bieli i inne matrycowe świrowanie.
Ma to jakieś przełożenie na opisywane przeze mnie przykłady? Jeżeli nie, to co ma?
Poprzednie odsłony robiły robotę,gra była po prostu zajebista,dla mnie w każdym razie,exodus raczej będę brał w ciemno a na jakieś oświetlania i inne pierdoły to mam wyrąbane bo tu liczy się przede wszystkim klimat