Apple M1 Pro i M1 Max - nowe układy o mocy RTX 2080 i PS5
Tylko to nie są komputery do zabawy - nikt normalny by tyle za laptopa nieee zapłacił żeby na nim grać, zresztą i tak laptopy z win bardziej się nadają do gier
Tylko to nie są komputery do zabawy - nikt normalny by tyle za laptopa nieee zapłacił żeby na nim grać, zresztą i tak laptopy z win bardziej się nadają do gier
Ale tak, racja, to nie jest sprzęt do grania. Ale nie ze względu na cenę, tylko ze względu na ograniczenia systemu (lub dostosowania gier pod niego). Stawianie na nich windowsa mija się z celem ;p Natomiast do pracy (kodzenie - nie gier, ogólna praca i wydajność) spisuje się idealnie dla mnie.
Swoją drogą - nadal to będzie możliwe teraz postawienie Windy na nim bez wirtualizacji - jak np Parallels? Czy już od M1 Macbook Air nie można postawić windy obok?
Mozna, sam dzisiaj ogladalem sobie filmiki na YT wlasnie apropo tego. Wydaje mi sie, ze jak juz wyjda te lapki to pojawi sie masa testow. Ja swoja droga swojego zamowilem wczoraj. Od miesiaca przegladam rozne lapki do kupienia, ale wczoraj MacBooki wygraly.
No to miej nadzieję, ze poprawiono problem z pękającymi matrycami. Bo w poprzedniej generacji (pierwsza na M1) luka pomiędzy klawiatura a ekranem okazała się pól milimetra za wąska i powodowało to problem z pękającymi matrycami jak się z laptopem nie obchodziło wystarczająco delikatnie.
Sam kupić na planuję ale dobra kolegów pracujących na mackach i czekających na M1Max mam nadzieję, że to ogarnęli.
elathir od 6 miesiecy uzywam M1 w pracy i laduje go do torby na silke z blenderem i innymi pierdolami, delikatnie to ja sie z tym nie obchodze, zero problemow.
Bez jaj.
Procesor ma byc jakies 40% szybszy od pierwszego M1 ktory wydajnosciowo w grach oscyluje w okolicach 1050
w renderingu GPU podobnie. Zeby dobic do wspomnianego poziomu 2080 (nie Ti) ten uklad musialby byc 7 razy szybszy - 700%
Ja wiem ze apple umie w marketing, ale obowiazkiem "dziennikarza" jest poszukiwanie informacji - a da sie znalezc ja w sieci.
Wystarczy sobie porownac dostepne wyniki, uzyc troche matematyki na poziomie szkoly podstawowej, zeby napisac cos madrzejszego.
Ten procesor jest bardzo fajny - do laptopow jak znalazl ale to poki co tyle. Ludzie oczekuja cudow, a cudow nie bedzie. Nigdy nie bylo, byl tylko swietny marketing apple.
wlasnie znalazlem jeszcze jedno porownanie, z ktorego wynika ze teoretycznie GPU M1 max jest 4x szybsze od M1
to ciagle za malo zeby dobic nawet do 1080Ti.
Porównanie do 2080 ma raczej pokazać jakie możliwości ma Apple. Procesor M1 którego wydali w tamtym roku do Macbooka Air jeśli chodzi o testy na grach był lepszy od GTX-a 1050 Ti i Radeona RX560. Po roku wydają nowe procesory i są na poziomie RTX 2080. AMD i NVIDIA raczej nie mają tak spektakularnych wzrostów rok do roku. Pomyśl, gdzie będą te procesory jeśli chodzi o wydajność za 5 lat.
Dlatego, jeśli Apple kiedykolwiek otworzyłoby się na gaming to Intel i AMD musiałyby mocno spiąć pośladki.
Poza tym, teraz to nie jest procesor do gier. To jest urządzenie dla programistów, projektantów animacji etc. I jeśli chodzi o tą działkę to w połączeniu z MacOS nie ma na rynku nic lepszego. Poza tym ludzie powinni mieć świadomość, że to Apple teraz rozdaje karty, bo jeśli ktoś zechce kupić laptopa do wszystkiego oprócz grania w cenie minimum 5000 zł to Apple jest teraz minimum 2 razy lepsze niż jakakolwiek konkurencja z Dellami, Asusami i HP-kami na czele w tej samej cenie.
AMD i NVIDIA raczej nie mają tak spektakularnych wzrostów rok do roku.
Porownujesz najmocniejszy M1Max 32 do M1 - czy jakos inaczej?
Bo spokojnie znajde ci analogiczne porownanie zarowno w AMD jak i NVIDII
Pomyśl, gdzie będą te procesory jeśli chodzi o wydajność za 5 lat.
A gdzie niby maja byc?
Sadzisz ze liniowy przyrost wydajnosci to jakas normalna sprawa w projektowaniu chipow? Bierzesz pod uwage roznice w architekturze M1 / M1Pro /M1 Max?
To jest urządzenie dla programistów, projektantów animacji etc.
Ani dla tych ani dla tych. i to akurat pisze jako osoba zajmujaca sie profesjonalnie grafika.
Te sprzety sprawdza sie w domowym zaciszu do edycji wideo, ale w tej cenie profesjonalista bedzie mial porzadna maszyne do DaVinci resolve ktora zmiecie tego macbooka w pyl.
Ich jedyna zaleta to czas pracy i zuzycie energii, ktore jest naprawde warte rozwazenia gdy mysli sie o pracy poza biurem.
zeby nie bylo mam macbooka 2016 pro i dzieci graja na nim w robloxa, a ja czasem odpalam indesigna.
Chodzi mi o postęp jako taki. Apple zaczął produkować swoje procesory ARM rok temu i w ciągu roku od premiery M1 stworzyli procesor M1 Max który jest cztery razy szybszy od poprzedniego i według wstępnych testów ma rzucić na kolana nawet i9-11900K.
www.komputerswiat.pl/aktualnosci/sprzet/apple-m1-jest-wydajniejszy-od-core-i7-11700k-w-tescie-jednowatkowym-passmark/r5n149b
Jeśli znajdziesz mi taki skok w erze procesorów poniżej 10 nm gdzie rok do roku, czy to AMD czy NVIDIA, miały skok wydajności flagowca do flagowca na poziomie czterokrotnym do poprzedniego to chętnie poczytam.
"A gdzie niby maja byc?
Sadzisz ze liniowy przyrost wydajnosci to jakas normalna sprawa w projektowaniu chipow? Bierzesz pod uwage roznice w architekturze M1 / M1Pro /M1 Max?"
Eeee, w kosmosie? Wiem że im dalej z nanometrami w dół tym trudniej o wydajność, ale M1 i M1 MAX mają ich tyle samo a jakoś udało się zrobić 4 krotny wzrost. Intel dość długo męczył się z mniejszą litografią ale nawet jak już szedl w dół to w ostatnich latach niewiele z tego wynikało. Co nie oznacza, że z Apple będzie tak samo.
"Ani dla tych ani dla tych. i to akurat pisze jako osoba zajmujaca sie profesjonalnie grafika.
Te sprzety sprawdza sie w domowym zaciszu do edycji wideo, ale w tej cenie profesjonalista bedzie mial porzadna maszyne do DaVinci resolve ktora zmiecie tego macbooka w pyl.
Ich jedyna zaleta to czas pracy i zuzycie energii, ktore jest naprawde warte rozwazenia gdy mysli sie o pracy poza biurem."
Polemizowałbym, że W TEJ CENIE będziesz miał to samo a nawet lepiej, dałbyś jakiś benchmark?
"zeby nie bylo mam macbooka 2016 pro i dzieci graja na nim w robloxa, a ja czasem odpalam indesigna."
Ale używaleś M1 chociaż? Bo w porównaniu do pro z 2016 to jest jednak niebo a ziemia.
Ale rozumiesz że porównywanie M1 do M1 max jest z dupy czy nie? To inna architektura abstrahując już od generacji.
M1 mini mamy do obróbki krotkich materiałów nie jestem edytorem ale nie widzę żeby te dwie maszyny były jakoś okupowane.
Pracowałeś kiedyś na TR 3975 z dual 3080? Gwarantuje ci, że jak spróbujesz to nie spojrzysz na M1.
To właśnie są porównania z dupy.
"Chodzi ci o postęp jako taki" a to Apple wzięło i wymyśliło sobie pierwszy procesor powiadasz? To chyba przespałeś parę lat pod kamieniem. M2 możliwe że będzie kamieniem milowym póki co mamy dokładnie to co robią inne formy - mnożenie rdzeni które przekłada się na efektywność działania.
Prosta matematyka M1 ile ma rdzeni gpu?
8
M1 max ile ma rdzeni gpu?
32
Widzisz jakaś korelację?
Benchmark? Jakie zastosowania?
Ja naprawdę siedzę z makami od dlugiego czasu pre intelowy powerpc bodajże quadra, żeby się wyleczyć z tych wszystkich pierdol o unikalności systemu sprzętu itp. Są fajne w pewnych zastosowaniach ale zasada u mnie jest taka że to soft determinuje platformę nigdy na odwrot
"Ale rozumiesz że porównywanie M1 do M1 max jest z dupy czy nie? To inna architektura abstrahując już od generacji."
M1 i M1 max mają twoim zdaniem inną architekturę? Wybacz ale nie rozumiem.
"Pracowałeś kiedyś na TR 3975 z dual 3080? Gwarantuje ci, że jak spróbujesz to nie spojrzysz na M1."
Dobrze a powiedz mi ile kosztuje taki zestaw, który podałeś na wolnym rynku? Bo ja cały czas mówię o M1 w laptopie i każe ci porównywać maszyny Z TEJ SAMEJ PÓŁKI CENOWEJ. Ja mogę sobie włożyć cztery rtx 3090 i wiesz co? Tak, będzie szybciej, każdy jest w stanie do tego dojść. Tylko chyba jednak lepiej mieć bardzo porównywalną maszynę, którą mogę zabrać ze sobą w pleacku niż 10 kg skrzynkę chłodzoną cieczą, która żre prąd jak ogrzewanie elektryczne. Zawsze można sobie też kupić komputer kwantowy.
https://www.youtube.com/watch?v=H8sG0Be4PFU
U góry masz film, gdzie facet testuje M1 z laptopa ze swoim rtx 3090, 128 gb ramu procesor AMD 5950x. Różnica w daVinci Resolve jest minimalna. I jak masz teraz maszynę 4 razy szybszą to chyba łatwo sobie wyobrazić, że jak na laptop to nie jest najgorzej, nie? W dodatku bez zaawansowanego chłodzenia.
Cytat z artykułu: "Występujący w prezentacji programiści mówią o przyroście mocy pokroju 8-krotnego przyspieszenia przy transkodowaniu ProRes w DaVinci Resolve i czterokrotnie wyższej wydajności względem Apple M1".
"Prosta matematyka M1 ile ma rdzeni gpu?
8
M1 max ile ma rdzeni gpu?
32
Widzisz jakaś korelację?"
Ech, czyli jak Intel i AMD wypuszczali przez ostatnie lata nowe model to nie należało ich w ogóle ze sobą porównywać, bo miały coraz więcej rdzeni mam rozumieć? Poza tym teraz coraz większą rolę zaczyna w procesorach odgrywać AI.
"Ja naprawdę siedzę z makami od dlugiego czasu pre intelowy powerpc bodajże quadra, żeby się wyleczyć z tych wszystkich pierdol o unikalności systemu sprzętu itp. Są fajne w pewnych zastosowaniach ale zasada u mnie jest taka że to soft determinuje platformę nigdy na odwrot"
No i na koniec - "hardware nie jest ważny liczy się soft." XD
Zastanawia mnie też po co komu w Polsce TR 3975 z dual 3080.
Pracujesz nad nowymi Avengersami?
Trochę bzdur (informacje) i jeszcze więcej bzdur (te komentarze).
Gwarantuje, że nie znajdziesz drugiej maszynki, która pobierając 25-30 watów ze ściany (m1 mac mini) da ci możliwość pracy na timeline Davinci w 4k.
Nie, Gtx 1050 nie daje takiej możliwości i sam pobiera więcej W.
Jasne, jak chcesz się bawić w profeskę, to masz do tego stację roboczą i pobór cię nie obchodzi, gdyż liczy się produktywność.
Co do gier, to gdy jest wpierany, też w efektywności ciężko pobić M1 - np. w Dolphinie bije spokojnie układy pobierające 100w+.
I nie piszę, że zupełnie nie masz racji, tylko zwracam uwagę, że czysta wydajność to jedno, ale jest jeszcze masa innych zmiennych.
Edit
żeby nie było, tu bardziej rzeczywiste porównanie do iMaca z Pro 5700 XT 16gb na pokładzie, gdzie widać, że m1 brakuje vRAM do obróbki 6k i/lub większej liczby efektów.
https://www.youtube.com/watch?v=DVO1Co3OQOE
Dobra, polece szybko bo juz jestem zmeczony.
Nie mieszkam w PL
Architektura M1 wywodzi sie z Bionica, M1 w pierwotnej wersji mial 8rdzeni gpu M1 Max 32, apple twierdzi ze M1 ma 4 razy wieksza moc obliczeniowa gpu - i teraz zagadka na poziomie klasy trzeciej szkoly podstawowej - ile jest 32 / 8
Zestaw TR 3975 z dual 3090 to jakies 9.000 funtow, Ale zestaw ktory zmieli tego M1 mozna miec tez za 3000 funtow. przed lockdownem za chyba 1600 kupilismy w pracy dwa amd z dual 2070super do ktorych ten M1 tez nie bedzie mial startu.
Pisze oczywiscie o desktopach. Bo w tych kategoriach rozpatruje sensownosc tego zakupu.
Występujący w prezentacji programiści mówią o przyroście mocy pokroju 8-krotnego przyspieszenia przy transkodowaniu ProRes w DaVinci Resolve i czterokrotnie wyższej wydajności względem Apple M1
Programisci zabieraja sie za testowanie programu do edycji wideo i tak to potem wyglada.
Transkodowanie ProRes to mozna zrobic darmowym ffmepgiem i nie trzeba do tego maca za 4k z M1, wiem ze M1 ma encoding proresa wbudowany, ale problem polega na tym, ze nie ma BRaw'a.
A w przypadku enkodowania to dysk jest zazwyczaj waskim gardlem. Prores nie jest wymagajacym formatem jezeli chodzi o encoding, to juz mogli cos napisac o HEVC.
Ja bym zapytal jak wyglada temporal denoising 8k z reda na wysokich ustawieniach na przyklad.
Gwarantuje, że nie znajdziesz drugiej maszynki, która pobierając 25-30 watów ze ściany (m1 mac mini) da ci możliwość pracy na timeline Davinci w 4k.
Nie, Gtx 1050 nie daje takiej możliwości i sam pobiera więcej W.
Tylko po co mi to? napisalem chyba wczesniej, ze mamy M1 mini do szybkiej edycji ale to tyle. Chlopaki jada na site biora m1 i monitory i cos tam dziargaja w adobe premiere.
Kiedy pracuje to nie jaram sie tym ze moja firma oszczedza prad tylko tym, ze mam szybko efekty tego co robie.
I nie piszę, że zupełnie nie masz racji, tylko zwracam uwagę, że czysta wydajność to jedno, ale jest jeszcze masa innych zmiennych.
https://www.pugetsystems.com/labs/articles/Apple-M1-MacBook-vs-PC-Desktop-Workstation-for-Adobe-Creative-Cloud-1975/
Jeden z moich ulubionych argumentow - wydajnosc an sofcie ktory nie ma nic wspolnego z nowoczesna architektura i jest szyty jeszcze gorzej niz x386. Nie, rozmowa z kimkolwiek kto podaje Creative Cloud jako benchmarka jest bezprzedmiotowa - to juz lepiej bylo Final Cuta.
Tak wiem, mainstream i miliony much, ale naprawde after effects, premiere to jest antysoftware.
Jeszcze jedna rzecz ,nie siedze w edycji to robia u mnie w firmie inni (glownie na premiere ale pare osob docenilo juz DaVinci), kiedys uzywalem mocno keynote do eventow, ale niestety chyba w 2016 keynote zostal koncertowo spierdzielony, i teraz nawet powerpoitn 365 jest lepsza alternatywa. No chyba ze ktos potrzebuje Hammer transition.
No, porównanie zdaje się najmocniejszego TR z poprzedniej serii i dwóch 3080 do wypierdka SoC ARM faktycznie jest chyba nieco dziwne...
Ja tam nie wiem jak jest, bo znów wszędzie czytam, że benchmarki M1 kłamią, ale jeśli to główienko na ARM ma moc porównywalną do stacjonarnych procesorów poprzedniej generacji Intela i AMD... to chyba nie jest źle?
A ponoć ARM miał się nie nadawać od niczego, a Apple miało oszaleć przesiadając się z x86.
Edit: No chyba, że M1 wcale tej mocy nie ma i kładzie go pierwszy lepszy 2070S i mainstreamowy Ryzen 7, wszystko jest ściemą z optymalizacją softu i benchmarku na zamówienie Apple... To można aż tak kłamać? :D Spisek ze szczepionkami się chowa.
Moje ulubione
Benchmark brute force który pokazuje po prostu ile fabryka daje. Siła gpu w renderingu. CPU nie szukam nawet bo tam byłby już pogrom.
To jest bardzo wąskie zastosowanie. Ale paradoksalnie dobrze się skaluje na inne zastosowania.
nowego M1 nie ma ale można zastosować wspomniane już działanie matematyczne żeby dostać jakaś aproksymacje (bardzo optymistyczna moim zdaniem)
Cudów nie ma i juz
https://www.cgdirector.com/redshift-benchmark-results/
Intel też by mógł podbijać wydajność o 20-40% ale wtedy zaspokoili by rynek i nie zarabiali na sprzedaży podzespołów, dlatego stopują rozwój.
A teraz Apple, no super że stworzyli potwora (choć nie wiem, ile razy jeszcze trzeba zrobić z siebie kretyna i wierzyć w marketingowy bełkot przed realnym testem działania), ale skąd ta moc? No bo wykrzesali ile mogli, bo i tak produkują rzadko i żeby dostać to rozwiązanie trzeba wyłożyć 20 tysięcy, w czasie życia tego urządzenia producenci konsumenccy przebiją go mocą i za 5 lat nie będzie już konkurencyjny, potem pewnie znowu zrobią strzał i tak to się kręci, a zaraz ARM przejdzie w ręce Nvidii i może się skończyć dominacja Apple.
Oczywiście, że firmy mają tendencję do produkowania tego na co mają ochotę ale gdyby tak zawsze było to Intel nie miał by takich problemów w utrzymaniu tempa z AMD, które mu w ostatnich latach wyraźnie odstaje. Wiem jaką Apple ma renomę m.in w Polsce ale jednak M1 uważam za pewną rewolucję w ostatnich latach, której chyba mało kto się spodziewał. I to na czym mi zależy to właśnie presja ze strony Apple na AMD i Intelu. Faktem jest, że nie przez przypadek Apple wypuścił w tamtym roku chyba jednego z najtańszych MacBooków w historii. Dla mnie te procesory od nich teraz to raczej poligon doświadczalny. Nawet gdyby za ARM wzieły się inne firmy to trudno mi wyobrazić sobie sytuację, kiedy Apple mówi: "Słuchajcie teraz to kończymy z tymi procesorami.". Do gry wszedł trzeci gracz (albo czwarty jak kto uważa) i mnie to bardzo cieszy. Jeśli chodzi o to 20 tys. to to jest niestety dużo ale w Polsce. Na zachodzie to nie jest kwota jakaś powalająca. A już na pewno w zasięgu każdej firmy. Samochód też ludzie kupują za 80-100 tysięcy aby po kilku latach był on wart 20-30 tys. Takie jest życie. Ale jeśli chodzi w tym względzie o Apple to ja znam ludzi, którzy na Allegro kupują używane starsze modele Macbooków bo te komputery nawet po latach eksploatacji są super stabilne w działaniu. Co do tego bełkotu to ja nie wierzę w marketing tylko po prostu wiem z dośiwadczeń swoich i znajomych. Ja fanboyem nie jestem ale z doświadczenia wiem, że Apple hejtują najbardziej ci, którzy nie mieli styczności z żadnym z ich urządzeń.
To jest jak z tym ramem w ich telefonach i komputerach latami. Ludzie się śmiali, że Apple nie daje więcej ramu. Tylko to nie miało żadnego znaczenia, bo i dziś IPhone ma najmniej ramu ze wszystkich flagowców a i tak jest najlepszy i tak było też przez lata. W przypadku Apple nie patrzy się na specyfikację, wierzy się w software. I kto nigdy nie korzytsał to tego nie zrozumie.
Co do tego bełkotu to ja nie wierzę w marketing tylko po prostu wiem z dośiwadczeń swoich i znajomych.
Mam to samo jednak bazuje głównie na swoim doświadczeniu a.mam je całkiem spore. Wokół maca zawsze unosiła się aura "cudowności". Za czasów power pc miał to być najlepszy sprzęt do montażu wideo. Okazało się że efektywnością cena i mozliwosciami biła je na głowę Amiga z PVRem.
W zamierzchłych intelowych czasach Apple miało final cuta, shake i to było praktycznie wszystko nie licząc oczywiście DTP z którym nie miałem zbyt dużego kontaktu
Ja fanboyem nie jestem ale z doświadczenia wiem, że Apple hejtują najbardziej ci, którzy nie mieli styczności z żadnym z ich urządzeń.
Apple stworzyło świetny ale zamknięty ekosystem który dobrze sprawdza się w zastosowaniach indywidualnych. Który w pewnym momencie zaczyna jednak ograniczać. Przeszedłem tę ścieżkę, przeszło ja paru moich kolegów dla których problem wyboru miedzy makiem pro a zestawem na windowsie przestał być problemem po sprawdzeniu co/jak/za ile działa. Bzdura jest twierdzenie, że na zachodzie pieniędzy nie liczy się czy jest łatwiej. Nie, jest dokładnie tak samo.
Prosumer mający pojęcie o sprzęcie i możliwościach zawsze wybierze sprzęt najbardziej odpowiedni dla swej pracy, ale nawet jak wybierze źle to będzie chwalił (tylko czy można nazwać go pro?).
Mam to szczęście że mam dostęp do różnego rodzaju sprzętu i wiem że M1 to jeszcze nie jest sprzęt dla studiów graficznych. Bo jak mam wydać 4k funtów to jestem w stanie zrobić to w dużo sensowniejszy sposób.
Apple targetuje ten sprzęt w jutuberow i wszelkiej maści freelancerów ale.tak było od zawsze.
A Najbardziej chwalą maka nuworysze któryż zaczęli swoją zabawę z nim.
Czas pokaże czyje przewidywania się sprawdza.
Jaka osoba pracująca profesjonalnie na Threadripperze i 2x RTX 3090 (czy tam 80) za miarę mocy używa wydajność w grach, na wyspach to ty może mieszkasz, i pracujesz na zmywaku żebyś miał na prąd i internet co to by ci pozwolił pisać głupoty na GoLu a nie masz profesjonalną firmę którą nie obchodzi pobór prądu tylko produktywność.
Idąc twoją logiką to jak teraz odpalę grę na najlepszym Threadriperze i osiągnę wydajność wiele niższą od Ryzena 9 5900X to oznacza że ten komputer ma moc I7 9700K?
Sorry ale nikt raczej nie wieży w ten BS, i to z twojej winy.
uu widze ze edit byl
Sorry ale nikt raczej nie wieży w ten BS, i to z twojej winy.
Mam to w dupie, nie szukam kolegow na tym forum.
Wow, gościu. Już wiedziałem, że jest coś z tobą nie tak jak zacząłeś pie%23przyć coś o Bionicu i tych rdzeniach.
A ten idiotyczny slang, którym mnie uraczyłeś jak "byłeś już zmęczony" tylko mnie w tym utwierdził.
Jak kolega wyżej wspomniał ty to chyba na tym zachodzie rzeczywiście raczej zmywak, bo z pewnością nic związanego z technologią.
"trollowac trzeba umic"
"Mam to w dupie, nie szukam kolegow na tym forum."
To nie szukaj, ale to tylko pokazuje że internet poełen jest ludzi, których jedynym codziennym zajęciem jest pisanie o czymś o czym nie mają zielonego pojęcia.
Jak to mowia w dupie byles, gowno widziales.
Poczytaj o architekturze tych procesorow i przede wszystkim naucz sie matematyki na poziomie podstawowym, to pomaga w zyciu, rowniez tym, ktorzy wiedze czerpia wylacznie z internetu.
Ale gry poza mobilnymi będą na tym słabo działać bo to procesory AMR a nie x86, API graficzne to Metal a nie powszechnie używane directX, openGL, Vulcan więc wszystko to musi emulować co mocno wpływa na wydajnośc
Już na mcbooku air z M1 uruchomili gta 5 i działało na low w porywach do 30fps
Chyba można lekko wrócić do tematu, bo coś tam już wiadomo. Najwięcej testów na dziś jest M1 max 10 rdzeni cpu, 32 rdzenie gpu i 32 gb pamięci.
Jeżeli chodzi o zastosowanie profesjonalne to brak jeszcze dokładnych testów z Davinci, ale są z Adobe i jest chyba dość dobrze. Sytuacje oddaje ten test
https://www.tomshardware.com/news/apple-m1-max-benchmarked-in-adobe-premier-pro
Co do benchmarków typu Cinebench czy Geekbench, to chyba wszyscy znają wyniki i w tym względzie M1 max świetnie się skaluje- to taki prawie 2x mocniejszy CPU od M1 oraz 4x mocniejsze GPU od M1.
Jeżeli chodzi o gry to sytuacje jest złożona, bo mamy wiele poziomów implementacja wsparcia dla M1 i api metal.
Ważne – piszę o desktopowych wersjach kart i CPU – bez limitów mocy, jak przypadku laptopów.
Zaczynając od wsparcia poziomu Native (bardzo mała liczba gier), można smiało napisać, że wspomniany wyżej M1 MAX (10,32, 32) jest na poziomie mocnego ośmiowątkowego CPU z RTX 3070 OC na pokładzie (tyle na bazie testów z Baldurs Gate 3, bo pozostałe gry natywne wiele nie powiedzą).
Następnym poziomem jest Rosetta 2 z Api Metal (tu już parę gier, nawet AAA jest): tu zależnie od poziomu optymalizacji będzie to (Windowsowy odpowiednik):
- Ryzen 3 3300x (na normalnym RAMie) z GTX 1060 przy słabej implementacji (CoD BO3; Borderlands 3)
- Ryzen 3 3300x (na normalnym RAMie) z GTX 1070 przy średniej implementacji (np. Total War: Troja; LOL, Deus Ex MD);
- Ryzen 3 3300x (na normalnym RAMie) z RTX 2070 Super przy dobrej implementacji (np. Shadow of the Tomb Raider, Original Sin II). Tu bardzo wartościowych info dostarczył benchmark z SotTR, który dał wykresy milisekund dla CPU w grze, CPU render oraz GPU.
Następnym poziomem jest Rosetta 2 z innym API:
- dla Molten + Vulkan dział dość dobrze, trochę więcej jak GTX 1060 (Dota 2, Dolphin Emulator - tu wyniki jest spokojnie wyższy, ale trochę brak skali);
- dla OpenGL działa słabo – na poziomie jakiego GTX 1030 (Alien).
Tu lista gier ze wsparciem: https://www.macgamerhq.com/apple-m1/native-mac-m1-games/
Kolejne, już mniej oficjalne rozwiązania to Parallels (działa raczej słabo) oraz CrossOver (działa lepiej), ale tu już wszystko zależy od danego tytułu.
Oczywiście to porównania gier na zupełnie odmiennym systemie do względnych odpowiedników przy Windows, ale to wszystko dotyczy maszynki, która w peaku dla CPU i GPU pobiera 120W. Jasne, mało gier ze wsparciem (w szczególności natywnym - a tu jest olbrzymi potencjał), ale na mnie robi to lekkie wrażenie.
Ja jednak poczekam na redshift/davinci resolve, o testowaniu w adobe premiere juz pisalem wczesniej (swoja droga czemu nie after fx).
wystarczy sobie zobaczyc jaka rozpierducha jest w tej tabelce z tomshardware zeby podziekowac.
Znalazlem jeszcze to:
https://prolost.com/blog/m1max
redshift benchmark: 11 minutes, 13 seconds
czyli gdzies w okolicach 1070, bazujac na tej stronie, niestety najslabsza karta testowana na wersji 3.0+ (tylko ta jest rowniez pod Metal) to 1080ti
https://www.cgdirector.com/redshift-benchmark-results/
gosc testowal mobilnego 3080 dlatego odniesienia do strony moga byc mylace.