Intel zapowiada wielkie zwycięstwo na polu grafiki i AI
Dlaczego wszędzie wciskają to pseudo AI... Chcę odpalić sobie grę, spokojnie pograć i potem iść spać. Na cholerę mi AI w domowym komputerze? Chcę CPU i GPU bez AI, za to może tańszego i żrącego mniej prądu, odwalającego swoją pracę.
Wsadzili tam Miliardy dolarów, wiec chcą zeby to się zwróciło, a jako że nie wyszło im wciskanie tego, jako usługi to teraz wciskają to wszędzie tam, gdzie się da.
AI umrze tak samo, jak crypto mówie to od kiedy zaczęło się na to 'buum'
nie przypominam sobie, aby ludzie narzekali wtedy na akceleratory 3D. Wręcz przeciwnie, były bardzo pożądane.
Dlaczego wszędzie wciskają to pseudo AI... Chcę odpalić sobie grę, spokojnie pograć i potem iść spać. Na cholerę mi AI w domowym komputerze? Chcę CPU i GPU bez AI, za to może tańszego i żrącego mniej prądu, odwalającego swoją pracę.
Dokladnie, a jesli idzie o to dlaczego: Jest to nic innego jak obcalowywanie du* korporacjom.
- Po pierwsze za miejsce na kosci trzeba zaplacic i chipy dla korpo wyjda taniej jesli pospolstwo/swolocz tez takie kupi (nie bedzie miala wyboru) bo tak dziala ekonomia skali.
- Po drugie, asystenci AI na korputerach przyszlych niewolnikow znaczaco ulatwi ich kontrolowanie oraz "zaanektowanie" wszystkiego co sie na nich znajduje co moze miec jakakolwiek wlasnosc (chociaz to tez mozna podpiac pod kontrole - bo jakikolwiek pomysl praca z wartoscia, pozwalajaca wyzwolic sie z ekonomicznych lancuchow automatycznie i "calkowicie przypadkowo" pojawiala by sie wsrod pomyslow "wygenerowanych "przez nalezace do elit modele AI).
Chcesz precedensu? Dokladnie to sie stalo przy okazji AI ktore mamy obecnie, ale juz wykozystali wszystkie dane dostepne publicznie (internet/chmury) do ktorych dostep miala obecna generacja AI. Powiedza: BIERZEMY CO TWOJE "DLA DOBRA LUDZKOSCI" i co im zrobisz?
naturalny kierunek rozwoju technologii. Zakładam, że w latach 90tych ludzie narzekali, że wszędzie wciskają akceleratory 3D
Ty jestes taki t*py czy ci za to placa?
0. Zakladam = zalozenie jest falszywe = g*wno wiesz. Dodatkowo nawet nie pofatygowales sie sprawdzic, ale do wymadrzania sie i korygowania innych to pierwszy... klasyczny id*.
1. Akceleratory trzeba bylo kupic oddzielnie, ich integracja byla benefitem dla klienta, naturalnym rozszerzeniem mozliwosci karty graficznej, dodatkowo nie mialy negatywow i nie byly integrowane w procesory (przez dluzszy czas).
2. Zreszta wciaz nie sa integrowane we wszystkie procesory, przynajmniej wedlug artykuly dotyczacego Ryzenow 9000 sprzed paru dni, z tego wzgledu ze to podnosi cene, zuzycie pradu i ogranicza wydajnosc.
a po co ci sprzetowy wspomaganie grafiki? Po co ci w ogole shadery, kurla wciskaja wszedzie to teraz. Software mode i lecisz. Dude, jpd.
A po co ci samochod, spodnie i elektrycznosc? W jaki sposob t*py ci*u fakt wykorzystywania akceleracji grafiki mialby motywowac cokolwiek innego?
ZWLASZCZA, ze zeby wcisnac AI w to ograniczone miejsce na kosci Procesora cos innego trzeba bedzie przynajmniej czesciowy wywalic. Biorac pod uwage ze na kosci procesora masz obecnie Procesor i Akcelerator grafiki a sprzedaz Procesora zawierajacego sladowe ilosci Procesora jest raczej kiepskim pomyslem to zgadnij gdzie beda cieli? Odpowiem, zeby cie to id* nie meczylo do emerytury: Akcelerator grafiki. Ten samiutki ktorego obecnoscia uzasadniasz ladowanie do procesorow AI.
o ezu, ale bezrozumny argument xd. Akceleratory, które po prostu dawały gry w 3D, a AI, które gówno się przyda do czegokolwiek, bo w ostatecznym rozrachunku to większa cena, mniej mocy z procka. To teraz powiedz mi czy ludzie w czasach dużo większych skoków mocy obliczeniowych, chcieli gry 3D czy woleli zostać na 2D? I czy teraz ludzie chcieliby to gówno AI, które póki co nic użytecznego nie zrobi, ale pochłania moc + podnosi cenę procka?
A i należy też wyjaśnić jak powinien wyglądać kierunek rozwoju technologii, bo ty właśnie wypaczyłeś znaczenie tych słów. Kierunek rozwoju technologii powinien oznaczać, że daje same korzyści. Przykładowo te AI w tych prockach, nie zrobią nic wielkiego użytecznego, a niosą ze sobą szereg wad albo RT, które może coś daje, ale dla konsumentów jest to bezsensowne, bo daje mizerne korzyści jak na wadę jakim jest zajętość zasobów komputerowych, a tylko ma przyspieszyć deweloperom tworzenie oświetlenia, cieni co od początku było jedynym celem tej technologii (prosto wyjaśnię, by każdy debil to zrozumiał: automatyzujesz produkcję jakiejkolwiek części jakiegokolwiek oprogramowania? To masz teraz spieprzone, bo choć masz zrobione zgodnie z celem, ale jednak coś niewidocznego traci całkowicie na jakości, jakie to jest wtedy niezoptymalizowane, bo automatyzacja ma gdzieś optymalizację). To są technologie, które w żaden sposób nie świadczą o rozwoju technologii, wręcz przeciwnie. Rozwój technologii by był gdyby RT nie zajmował zasobów komputerowych, a był zoptymalizowany, te AI z procków robiły cokolwiek użytecznego co jest wątpliwe.
Sory, ale kierunek rozwoju technologii jest tu inna niż elektronika czy maszyneria. Oprogramowanie to nie coś, że można sobie walnąć coś i koniec, bo to jest bardzo złe, wręcz naganne ze względu na ogromne ryzyka, szkodliwość, niestabilność i brak wydajności.
Typy co myślą, że zintegrowane grafiki w procesorach czy akceleracja 3D jest bardziej potrzebna w laptopach niż AI xD
Ogarnijcie ludzie że laptopa częściej się kupuje do pracy niż do grania. Myślicie, że jak księgowa kupuje dla swoich pracowników do firmy nowe laptopy to jest zadowolona bo ma zintegrowana grafikę na której można odpalić Wiedźmina xDD
No nie wydaje mi się. Gdyby wiedziała jak to działa to prędzej psioczyłaby na to że ten posrany Intel ładuje do jej procesora zintegrowane GPU, za które musi płacić a nie AI, które przydałoby się jej w pracy, bo na przykład pisałoby za nią maile czy formułki w excelu xD
Typy co myślą, że zintegrowane grafiki w procesorach czy akceleracja 3D jest bardziej potrzebna w laptopach niż AI xD
Ogarnijcie ludzie że laptopa częściej się kupuje do pracy niż do grania. ...
Mylisz sie, i w przypadku Akceleracji 3D czy generalnie grafiki, oraz oddzielnie w sprawie tego jaki to ma efekt na w laptopy/desktopy.
Przede wszystkim akceleracja 3D czy 2D jest mocno wykorzystywana przez wspolczesne oprogramowanie i nie chodzi mi o wykonywaniu na akceleratorach obliczen (chociaz to tez oczywiscie). Bez tej akceleracji nawet po wylaczeniu graficznych fajerwerkow wydajnosc interfejsow wspolczesnych systemow operacyjnych jest zwyczajnie zalosna bo proste akcje/animacje potrafia haczyc/klatkowac/lagowac zwlaszcza w laptopach bo maja slabsze wielowatkowo i jednowatkowo procki. Dodatkowo pomijajac juz sprzetowe dekodowania wyswietlanie wideo bez wsparcia karty graficznej zakrawa na zart, bo sa sterowniki umozliwiajace wykonywanie go softwareowo i ilosc zasobow ktore cos takiego zuzywa przekracza to co wielu ludzi ma wciaz w komputeracj, a to jeszcze zanim doliczymy dekodowanie samego video, gdzie nowoczesne kodeki wykonywane na CPU zezra ci bez problemu cala wydajnosc dostepna w wspolczesnym laptopie i jeszcze troche nie mowiac juz o baterii. Jest juz prawie mobilna tradycja ze dekodowanie wideo odbywa sie tam na dedykowanym sprzecie, z tego wlasnie wzgledu chociaz youtube juz lata siedzi na AV1, to duza czesc sprzetu wciaz dostaje z automatu h264.
Ps. Poza dekodowaniem video, ktore jest wymagajace obliczeniowo z racji wlasnej natury, wiekszosc problemow z wydajnoscia nowych systemow pracujacych bez akceleracji jest technicznie sztuczna i nie ma logicznego sensu (po prostu developer zaklada ze wszyscy maja wsparcie - po czesci z tego wlasnie biora sie wymagania) co nie zmienia faktu ze jest.
To co piszesz oczywiście ma sens, jakaś minimalna wydajność układu graficznego musi być + sprzętowe dekodowanie wideo to oczywista oczywistość. Tylko że gość wyżej pisze o akceleracji 3D do grania w gry xD W sensie, że to było coś czego ludzkość tak bardzo potrzebowała i ciągle potrzebuje w każdym jednym komputerze. Żeby móc sobie odpalić gry w 3D, zamiast 2D. Gość nie widzi, że AI wywraca obecnie cały świat do góry nogami i chyba każda bardziej ogarnięta technologicznie osoba, która używa komputera do pracy a nie tylko do grania to zauważa. No ale dla typa wyżej to jest bez sensu. Gry w 3D, to była dopiero rewolucja, KAŻDY chciał to mieć w komputerze!! Nie jakieś tam AI, którego nikt nie potrzebuje tylko te paskudne korporacje wciskają nam to na siłę xD
Za 20 lat to pewnie nawet grafika nie będzie renderowana w tradycyjnym sensie tak jak teraz, tylko generowana w locie przez AI. Jak ktoś w przyszłości odkopie komentarze takie jak z dzisiaj to będzie miał niezłą bękę z takich oszołomów, którzy jęczą jak ktoś w ogóle śmie ładować AI do procesorów !! xD
GPU zajmuje się przetwarzaniem grafiki. Natomiast podsystemy AI czym zajmują się? Można jeszcze zrozumieć skalowanie obrazu. Ale moje pytanie brzmi: Czy z czasem zaczniemy otrzymywać drogie, ale mało wydajne GPU (w natywnych rozdzielczościach) i całe generowanie klatek będzie opierało się na skryptach?
I zastanawiam się, czy na pewnym etapie zaczniemy zastanawiać się, czy przeskalowany obraz jest wierny oryginałowi, czy może skrypt uznał, że tak to mogłoby prezentować się i na podstawie tego, czego w przeszłości nauczył się, tak to nam wyświetla.
Do tego dochodzi Copilot zintegrowany z systemem Windows. W przyszłości będę musiał użerać się nie tylko z mało elastycznym systemem operacyjnym, który coraz trudniej skonfigurować pod własne potrzeby - Microsoft wie lepiej czego potrzebuję i jak to powinno działać. Ale będę jeszcze zmagał się ze skyptami AI, które będą chciały urządzać system po swojego, rzekomo na podstawie doświadczenia związanego z tym, jak ja korzystam z systemu.
Bajka.
Producent jest na tyle pewny siebie, że zapowiada wygraną na wielu polach: wydajności, grafice i sztucznej inteligencji.
Na polach grafice? Jak to jest, że nawet wstępu nie potraficie napisać bez błędu? Deklinacja to podstawówka.
Producent jest na tyle pewny siebie, że zapowiada wygraną na wielu polach: wydajności, grafice i sztucznej inteligencji.
Na polach grafice? Jak to jest, że nawet wstępu nie potraficie napisać bez błędu? Deklinacja to podstawówka.
Kompoju nie denerwuj sie... :)
Winni takiego stanu rzeczy sa w mojej opini polonisci. Cala domena pojec i konceptow pojawila sie i rosnie w jezyku angielskim, odpowiednikow polskich praktycznie brak (znacza co innego) wiekszosc technicznych omija problem trzymajac sie angielskiego, potem w firmach Panie Jagody musza to same, bez zadnego wsparcia ze strony jezykowcow poetycko zamknitych w wlasnych elitarnych kregach poetyckich i zajetych wdmuchywaniem sobie dymu do zadkow, tlumaczyc dla szefostwa inwestorow, kazda robi to inaczej i wychodzi jak jest... (nie krytykuje ich akurat, bo odwalaja prace za kogos innego)
Ps. Nie wiem czy to jest to dokladnie wideo o ktorym mysle, w 90% zwiazane - powinno wystarczyc :p
https://www.youtube.com/watch?v=u2_gPmQZu3U
Nowe technologie, nowe podzespoły tylko gry coraz to bardziej niedorobione i czasami bardziej ubogie pod względem interakcji z otoczeniem niż niektóre tytuły sprzed 20 lat ale dali Ray Tracing aby zrobić iluzję postępu i niestety większość to łyknęła.
No i super. Najpierw dostaliśmy te durne procesory, które mają niepotrzebne bzdury zapewne komplikujące optymalizację gier, a także pogarszające kompatybilność z starszymi grami, bzdury typu pomieszane rdzenie typu ekonomiczne i wydajnościowe, a teraz jeszcze wciskają AI w procki co tylko zwiększy zużycie energii elektrycznej, zwiększy emisję cieplną, zwiększy cenę za procka z AI, zmniejszy ogólną wydajność. Ale oczywiście ludzie jak poprzednio zaakceptują to i skupią wszystkie egzemplarze tych śmiesznych procesorów. To co się dziwić jak wydają jakieś coraz bardziej pokombinowane sprzęty komputerowe zamiast po prostu normalnie rozwijać je zwiększając ogólną ich użyteczność i moc obliczeniową...
Niestety procesory (obecne/jak i nadchodzące) nie nadają się do AI. Jeżeli chodzi o grafikę, to zarówno ich integra, jak i dedykowane układy są do bani. Jedyne "wielkie zwycięstwo", to zwycięstwo marketingu. Oczywiście jeżeli chodzi o inne zastosowania ich procki są/będą super.
to jest tylko pod marketing, bo jak zwykle ludzie debile kupią masowo, bo mają jakieś magiczne hasełka powypisane na pudełku...
Zresztą identycznie też jest z tymi dodatkowymi rdzeniami ekonomicznymi czy jak tam to zwało, a pewnie chodziło, by ludzie zobaczyli 12 czy 14 rdzeniuf i zachęcili się do kupna, bo myślą, że dostaną procka z tak samo mocnymi rdzeniami za niską cenę.
Dla niepoprawnie naiwnych. Wspomnialem wczesniej o tym, ze wlasnosc ludzi dostepna w internecie zostala zajumana przy pomocy AI (a prawo wlasnosci wlascicieli tak zdobytej zawartosci zignorowane).
Przewidywalem tez kolejnosc "zaboru" bedzie najzwyczajniej swiecie to do czego uzyskaja dostep.
1. Na pierwszy front poszly dane do zdobycia w publicznym internecie, co juz mialo miejsce
2. Kolejnym krogiem beda prywatne dane w obecnie promowanym modelu chmur i uslug
3. A na koncu te dostepne lokalnie (do czego wbudowane w procka AI bedzie jak znalazl - poniewaz na chwile obecna ten krok bylby zbyt kosztowny/problematyczny gdyz albo trzeba by wysylac cala zawartosc dyskow do internetu (nierealistyczne), albo liczyc lokalnie na bieda-procesorach bez akceleracji AI (tez nierealistyczne)).
Otóż, druga czesc tego planu odbywa sie wlasnie na naszych oczach, adobe wczesniej dostarczajacy oprogramowanie przez uslugi do usluch polaczonych z chmura obecnie, zmienil sobie ich regulamin, ot tak (nawet bez pretekstu) zeby moc uczyc swoje AI na projektach/WŁASNOŚCI klientow...
https://www.youtube.com/watch?v=EXxMCm941WA
Ps. Kolejne wideo idzie bardziej w detale, niz w ogolna mechanike problemu:
https://www.youtube.com/watch?v=ZI1wFN8pbXM
PPs. Z wlasnych rozwazan: jesli kozystam z aplikacji dzialajacej w chmurze, i dokonuje w niej operacji na mojej zawartosci,
to czy to ze zapisuje/wczytuje dane na i z lokalnego dysku, ma jakies znaczenie jesli w miedzyczasie informacje/pliki sa w aplikacji (u nich?) czyli nie podlegaja pod ograniczenia dotyczace lokalnego skanowania, co sprawia ze ich zastrzezenie (ze nie beda skanowac lokalnie) traci znaczenie?