Monitory CRT miały jedną wielką zaletę. Jak mi usiadł na ekranie jakiś robal, to mogłem przywalić kapciem bez obawy że ekran zmasakruję.
Oj przesiedziało się przy tej niszczarce do oczu wiele lat... o ile obraz faktycznie często był świetny i lepszy niż średniej klasy LED, o tyle wzrok się mega męczył przy dłuższych posiedzeniach.
1600 x 1200 / 85 Hz na iiyama VisionMaster Pro 510 22'.... prawie 35kg
do 2005 dzielnie się spisywał
Przez to wyjaśnienie czym jest monitor CRT uświadomiłem sobie jak dawno to było. Dzięki GOL, teraz czuję się staro.
Ja ma caly czas mam swojego CRT LG Flatrona 17 cali. Stare gry po prostu na CRT wygladaja lepiej bo byly tworzone na CRT. Baldur Gate, Planescape: Torment, Diablo I, Diablo II (wiem, ze sa mody na rozdzialke), Dune, Dune II, seria Fallout. Ogrywam tez gry z Amigi przez emulator. Na LCD/plazmie tv wygladaja jak kupa. Wogole wiekszosc starych gier 100x lepiej wyglada na CRT. Tez mam 2k 21:9 LCD IPS, a i tak wole grac w stare gry na CRT.
Znalazlem jeszcze jedno zastosowanie. W DCS latam KA-50 i on w kabinie ma TV CRT do namierzenia i odpalania pociskow. DCS umozliwia wyeksportowanie przyzadow do innych ekranow. U mnie idzie to na CRT.
CRT w niczym nie jest lepsze, a kosi oczy jak szalone.
Mam bardzo miłe wspomnienia z kineskopami, a miałem ich trochę. Co prawda nigdy bym do niego nie wrócił, bo nie ukrywajmy ryją wzrok niemiłosiernie. Po godzinie już często miało się dosyć, gdzie przy przy ciekłokrystalicznym można siedzieć cały dzień bez zmęczenia. Taką zaletę widziałem już od samego początku, ale na jakość obrazu i technologie na początku człowiek patrzył z politowaniem. Było to drogie, a zarazem fatalne i nieopłacalne ale jak każda nowa technologia. Różnica jest w przypadku telewizora od którego siedzi się znacznie dalej, to faktycznie podłączenie PS2, GameCube czy jeszcze starszych konsol robi dużo większe wrażenie.
W mojej historii posiadałem CTX z takich bardziej budżetowych, natomiast później miałem dość ciekawego Panasonica. Następny był NEC już z płaskim kineskopem z wysokiej półki i skończyłem na Sony wymienionym na końcu artykułu. Jeden z lepszych modeli i bardzo oryginalnym wyglądzie. Przed CTX mieliśmy jeszcze w rodzinie coś podpięte do komputera AT z Intel 386, potem 486 ale co to było za nic nie mogę sobie przypomnieć.
No i pełen szacunek autorze za Re-Volta czy Max Payne'a jednych najbardziej miodnych gier. Ja do tej magicznej listy dorzuciłbym jeszcze Airfix Dogfighter czy SWAT 3/4. Na dodatek byłem jednym z tych graczy co miał okazję jeszcze grać na kineskopie w takie tytuły jak Half-Life 2, Doom 3, Stalker Cień Czarnobyla, Counter-Strike Source czy Quake 4. Ale to jeszcze nikogo nie powinno dziwić, bo wtedy jeszcze sporo graczy miało kineskopy.
Jedyny kineskop jaki mi pozostał to mam schowany chyba 32" płaski kineskop Panasonic. Jeden z ostatnich modeli, bo takie telewizory były już na wymarciu. Kiedyś jak podpiąłem pod to PS2 to naprawdę trudno było się oderwać.
Świetny artykuł, bardzo miło się czytało i za to kocham GOLa. A na dodatek zrzut ekranu z Re-Volta w ogóle przywołał nostalgię razy dwa.
PS moja ulubiona trasa to obydwa Markety, znam je na pamięć i najwięcej kółek tam wykręciłem.
Sporo czasu miałem 19" Flatrona, a obok jeden z lepszych w tamtych czasach lcd z matrycą IPS i o ile filmy na LCD świetnie się oglądało, tak granie na CRT po prostu zamiatało.
Tylko zawsze pojawić powinno się najważniejsze pytanie co z czym porównujemy. Bo porównywanie taniego CRTka do super gamingowych monitorów UltraWide nie ma sensu tak samo jak porównywanie CRT referetna od Sony z tanim LCD za 300zł.
Problem porównania utrudnia uwzględnienie inflacji, ale zawsze można porównać ceny w stosunku do średniej krajowej. I tak, sam pamiętam, że za minor umożliwiający mi przesiadkę z 640x480 na 1024x768 zapłaciłem jakieś 800zł tamtego czasu (chyba był to rok 1999). Tyle, ze na dzisiaj by było to prawie 2500zł. Za tą kwotę można kupić dzisiaj już naprawdę niezły monitor a nie pierwszy lepszy LCD ze sklepu za 400zł.
"JAK PODŁĄCZYĆ MONITOR CRT DO NOWOCZESNEJ KARTY GRAFICZNEJ?"
Żadne przejściówki takie jak na zdjęciu nie załatwią sprawy. Do tego ta przejściówka zadziała tylko na wyjściu DVI-I czyli takim które wysyła sygnał cyfrowy i analogowy. Większość złącz DVI w kilkuletnich grafach jeżeli już była to była DVI-D czyli wysyłała tylko cyfrowy sygnał. Nowoczesne karty graficzne nie wysyłają w ogóle sygnału analogowego i pozostaje tylko użycie jakiegoś urządzenia które skonwertuje sygnał hdmi na dsub.
Miałem nawet kilka, zaczynałem od 14" czarno-biały 640x480 i 75hz, a skończyłem na 17" 1280x1024 i 85hz, ten ostatni z 30kg ważył.
Samsung SyncMaster z kwadratowym włącznikiem pamiętam doskonale, ale do starych gier nie zawsze CRT jest lepsze.
PS2 wygląda lepiej na starym telewizorze z dupą przez technologię z jaką był połączony z odbiornikiem, dziś aby obraz na LCD lepiej wyglądał, musi to być np. komputer z emulatorem PS2. Podobnie sprawa wygląda z C64, obecna na rynku retro "konsolka" ma wyśmienity obraz na współczesnych telewizorach FullHD, nie chciałbym wracać do CRT.
Lepiej ulepszyć obecną technologię niż się cofać do muzeum.
To teraz słuchajcie.
W kwietniu na złom wywiozłem benq 25 cali chyba 4:3 na płaskim kineskopie z odświeżaniem chyba 100hz na wyższych rozdzielczościach, na niższych 120hz, z wejściem RGB BNC 5. Cenę na tamte czasy miał pięciocyfrową.
Monitor kiedyś stał w studiu fotograficznym, mi umilał granie w Guild Wars i Doom3 oraz Half life 2.
Kolory, płynność obrazu były bezkonkurencyjne na nim, żaden lcd mu nie dorównywał.
Waga - 28kg.
W sumie wywaliłem bo od jakiś 5 lat stał i kurz zbierał, a ciężki był w przestawianiu, chyba zaczynam żałować tego, co zrobiłem.
W zeszłym roku kupiłem "starożytny", dosowy komputer na dyskietki. Podłączyłem go do telewizora - granie na kanapie z odległości paru metrów na dużym telewizorze w dosowe starocie jest bardzo przyjemne. Zrobiłem więc odwrotnie niż autor artykułu, bo mam cały przedpotopowy sprzęt oprócz monitora. Przyznam, że kusi mnie możliwość kupna monitora crt, ale tu pojawia się istotny problem - mam sporą wadę wzroku, która pogłębiała się, jak podejrzewam, właśnie od crt. Odkąd używam nowszego ekranu, wada właściwie się zatrzymała. Pamiętam też zmęczenie nie tylko oczu, ale całej głowy po sesji na crt - po dwóch godzinach czułem się jak pijany, z bolącymi oczami. Z crt zrezygnowałem dobre 15 lat temu, więc niezbyt dobrze pamiętam, jak wyglądał na nim obraz. Z ciekawości na nowym komputerze użyłem filtra crt w Dosboxie i nie powiedziałbym, żeby gry wyglądały lepiej - sprawiały raczej wrażenie podzielonych na małe kwadraciki, co może ukrywało niedoskonałości dosowej grafiki, ale jednak wolę grać bez tego. Jak to się ma do prawdziwego crt, niestety nie pamiętam, dlatego za jakiś czas planuję wybrać się do warszawskiego muzeum komputerów, w którym podobno można grać na retro sprzęcie i wtedy sobie przypomnę, jak wyglądał obraz na crt. Uwielbiam stare sprzęty i gry. Ale jednak te zmęczenie głowy i oczu, które pamiętam, plus wada wzroku, która znowu może zacząć się pogłębiać skutecznie odstraszają mnie od powrotu do tego urządzenia.
może mi sie wydaje ale widziałem już ten artykuł tutaj pare lat temu
No cóż, wada wzroku przestała mi się pogłębiać właśnie gdzieś w okresie przesiadki na LCD, ciekawy zbieg okoliczności. Także za starymi dobrymi czasami tęsknię, ale tylko troszeczkę.
Nostalgia nostalgią, ale jakoś nie tęsknię za psującym wzrok i zajmującym pół biurka CRT. Pamiętam jak za dzieciaka pierwszy monitor ustawiony był po skosie, na prawej części biurka bo na wprost by mi zajął zbyt dużo miejsca - wielogodzinne wyginanie szyi w prawo to była sama przyjemność :D
Swoją drogą co do męczenia oczu, to jakiś czas temu przesiadłem się z monitora z 60hz na 144hz i już samo to przyniosło też ogromną ulgę (dość długo siedzę przed ekranem).
Aktualnie mam 3 monitory Sony w tym 21 calowy topkowy graficzny f520 który jest mniejszym bratem fw900 jednocześnie będąc najlepszy monitorem 4:3 jaki kiedykolwiek powstał. Mimo sporych gabarytów(32kg) jakość obrazu i sam feeling ciśnięcia w gry z przełomu wieków jak i nieco starszych jest masakrycznie dobra. Jeszcze jak się ustawi 120hz na rozdziałce to i oczu nie meczy.
A tam monitory. Kiedyś urządzenia wyświetlające maskowały niedoskonałość komputerów. Pamiętam, jak kiedyś podłączałem mojego C-64 do stareńkiego telewizora. Graliśmy z kolegą w jakąś grę arkanoidopodobną w "multiplayerze" na tej samej planszy i kolega nie mógł wyjść z podziwu jaka płynna jest animacja, jaka piękna grafika i że twórcy gry zadbali nawet o to, by za piłeczką pozostawał rozmyty ślad. Jakie było nasze zdziwienie, kiedy graliśmy w tą samą grę na tym samym C-64 podłączonym do nowszego telewizora, gdy okazało się, że te wszystkie znakomite efekty wizualne były "sprzętowe" i występowały tylko na tym starym telewizorze. ;-)
Mój pierwszy monitor kineskopowy ("z dupą z tyłu"), to był chyba 16 lub 17 calowy LG Flatron F700B i trzeba przyznać, że od lutego 2004 roku do lutego 2013 roku był naprawiany w okolicach 2006 roku tylko raz, a poza tym działał niezawodnie przez ok. 9 lat!
Monitor LG Flatron w połączeniu z klawiaturą Logitech i myszką kulkową powodował, że w takie klasyczne gry jak np. Quake 3 Arena w latach 2005 - 2008 grało się po prostu wyśmienicie.
Jedyny minus monitorów kineskopowych jaki zauważyłem był taki, że szybko męczył się przy nich wzrok.
Obecnie od 2013 roku do teraz używam LG M2252 mającego rozdzielczość FullHD i przekątną ekranu 21,5 cala i taka wielkość przekątnej ekranu jest dla mnie wystarczająca, ponadto stwierdzam, że tak jak w smartfonie zbyt duży ekran wcale nie musi być zaletą tak samo posiadanie monitora komputerowego o wymiarach znacznie większych niż 21,5 cala wcale nie musi być zaletą, bo ludzkie oko ma ograniczony obszar widzenia z odległości kilkudziesięciu cm, czyli z takiej odległości, że jak się siedzi przed monitorem i da się dotknąć palcami dłoni ekranu monitora.
Inaczej wygląda sytuacja kiedy ktoś chciałby na ekranie monitora komputerowego obejrzeć film - wtedy mając słuchawki z długim kablem albo jeszcze lepiej zestaw głośników komputerowych można mają wielki monitor odsunąć się co najmniej na 1 - 1,5 m i oglądać film z bezpieczniejszej odległości dla oczu.
Rozdzielczość obrazu w ruchu to coś czego nie mamy od czasu końca crt/plazm. Jak odpakowałem pierwszy lcd w 2012 r, po tym jak crt LG f700p wyzionął ducha, włączyłem MW3 w które akurat wtedy grałem... nie wiedziałem co się dzieje na ekranie. Dopóki obraz się nie ruszał było super, wiadomo przejście crt 17 cali na 24, brak problemów z geometrią itp. ale jak tylko ruszyłem myszą... no właśnie. Coś było nie tak, ale co? Długo nie rozumiałem co się tam dzieje, ale dość szybko dowiedziałem się że istnieje coś takiego jak rozdzielczość obrazu ruchomego, i że to coś na lcd po prostu nie istnieje. Nie dość że nie ma czerni, nie ma kontrastu, kolory nie takie, to jeszcze dodatkowo obraz w ruchu to totalna kupa, i to nie chodzi nawet o smużenie, a o "persistence blur" które to pojęcie polecam sobie wyguglać. I która to rzecz występuje dokładnie tak samo na lcd jak i oledzie, który przecież nie ma smużenia, a bluruje tak samo jak najlepszy lcd, bo to jest fizyka i tego nie przeskoczymy.
Crt wyświetlał obraz statyczny i ruchomy... tak samo, i we łbie mi się nie mieściło że lcd może tego drugiego nie potrafić, i że w 2021 będę narzekał na to nadal...
Całe pokolenie najmłodszych graczy nie widziało w życiu jak gry powinny wyglądać w ruchu, co śmieszne bo przecież mamy coraz więcej detali w tych wirtualnych światach, a przy szybszym ruchu kamerą 99% tych detali znika, i co śmieszniejsze- lud grający tego nawet nie widzi...
W grach przecież chodzi o obraz ruchomy a nie statyczne obrazki, pomyślałbyś że mama oglądająca Trudne Sprawy może tego nie widzieć na swoim 65" lcd manta, ale że gracz, w grze- tego nie widzi... No cóż, takie czasy, ludowi zależy żeby tv miał 8mm grubości, bo przecież 1cm to przypał.
LCD/oled leżą i kwiczą wyświetlając ruch, mogą osiągać podobną jakość obrazu w ruchu jak crt- używając błyskania. Tyle że oled jest na to za ciemny i tak raczej zostanie, do HDR to już w ogóle redukcja blura bazująca na błyskaniu odpada w oledach. W tej chwili chyba tylko oledy modele 2020/21 błyskają używalnie, choć i tak wychodzi im to średnio, błysk jest za długi żeby zlikwidować blur w szybszym ruchu (ok 4ms, a krótszy błysk oznaczałby mniejszy blur, ale i jeszcze ciemniejszy obraz, a już jest w tych trybach tylko 100nitów czyli tak na styk), działa toto tylko w 60/100/120hz, pierwsze jest nieużywalne (60hz za bardzo błyska po oczach) a 100hz powodzenia żeby osiągnąć (stałe!) np. w rdr2 czy nawet gta5 i tym podobnym. Tym bardziej w konsolówkach w 30fps, bo tu hz tv musi się równać fps gry. Czyli z grą 30fps nic nie zdziałasz, jest blur i koniec. 60fps- no... można wyświetlić błyskowo ale to jest stroboskop, szczególnie na dużym ekranie.
Dlaczego oled może błyskać w 120hz, ale już nie np. w 79hz? Albo 86hz? Tyle więcej gier osiągnie, a 100 już nie. Przecież to jest absurd, ale- takie czasy.
Pomyślałbyś że w 2021 roku pójdziemy trochę do przodu z hercami bo na 60hz to w latach '90 narzekaliśmy, ale nie, lud chce 30fps i ładną grafę, bo ludowi 30fps wystarczy. 60hz na crt nam migotało, no to w lcd/oled zrobiliśmy brak migotania, lud szczęśliwy, a że to wprowadza blura w ruchu to ciii, przecież nikt tego nie widzi.
Na crt można było błyskać np. w 75/85hz i już, w 85 ja już migotania nie widziałem, gry pc nie miały problemów z osiąganiem tylu fps, tak się pisało te gry. Teraz kult 30fps+ładna grafa, a w ruchu zostaje z tego ładnego obrazu kupa. Z tego crt 1024x768 które chociaż w ruchu czy nie było takie samo, poszliśmy w lcd 1080/ 4k które tylko w statycznych obrazkach ma te 1080/ 4k.
LCD też nie nadaje się za bardzo do błyskania- obraz na górze/dole ma powidoki na praktycznie każdym monitorze/tv w trybach błyskowych, teoretycznie jest to do ominięcia, ale nikomu w branżuni się nie chce, jedynie nieliczni jak viewsonic w porozumieniu z blurbusters coś tam próbują- wydali model chyba xg270 a teraz w 2021- XG2431 i one potrafią błyskać króciutko w 75-240 co 1hz, nowszy niby nawet od 60hz, ale nie będzie dostępny w euro, bo po co. No i to tylko 24cali ips 1080p więc...
Gdyby umówić się na np. 90hz jako standard dla gier, plus odpowiednie tryby błyskowe w game mode w tv, byłoby pięknie i każdy zobaczyłby różnicę natychmiast, a migotania już by nie było.
BFI to niestety pojęcie większości graczy nieznane, więc mamy świat giereczkowy jaki mamy. Pchamy się w 8k niedługo, w 30fps (czy tam 60 bo to dla niektórych czubek świata), więc w ruchu zostanie z tego 1% szczegółów i to dosłownie. Szkoda nawet się rozpisywać na ten temat, bo nic się tu nie dzieje, jest źle i tak jeszcze jakiś czas zostanie, branża nie pcha świadomości problemu, a dzisiejsi gracze są pod tym względem jak dzieci we mgle.
Z historią Alloy zapoznałem się stosunkowo niedawno i uważam, że pod względem fabuły i kreacji świata jest to tytuł wybitny.
Przecież to chyba najgorsza z fabuł wśród exów sony. Jedyne co w niej serio budzi ciekawość to co się stało w przeszłości, jednak wydarzenia, postaci, zadania, przewidywalność, to wszystko jest na poziomie najnudniejszych growych tasiemców robionych na ilość a nie na jakość. W sensie, ja rozumiem, że i słaba gra może się komuś bardzo podobać (np. ja lubię grać w cody), ale trochę zastanawiające takie daleko idące oświadczenia ze strony pracownika portalu branżowego.
Obecnie już w niczym, podane plusy połowa naciągana, druga połowa nieprawda, do czasu jak nie było OLEDów nie było kontynuatorów jakości CRT tylko sam syf oparty na LCD, swego czasu jeszcze były plazmy, które miały najwyższą jakość, ale upadły.
Także od OLEDa crt nie są już w niczym lepsze, absolutnie niczym.
w niektórych technologicznych obszarach są one lepsze od płaskich następców - hehehe ;)