Superkomputer z procesorami AMD bije rekord mocy obliczeniowej
Tymczasem NV kończy budowę znacznie mocniejszej maszyny
Tymczasem NV kończy budowę znacznie mocniejszej maszyny
Nie, nie kończy. Układy Grace mają być dostępne dopiero za ok rok, więc prawdopodobnie wtedy dopiero zacznie się ewentualna budowa.
Jeśli już na siłę chcesz być fanbojem Intela/nVidii to rób to chociaż w racjonalny sposób.
Póki co, to robisz z siebie pajaca na każdym kroku.
To wszystko pikuś, przy tym co szykuje nam IMB już za 3-4 lata: superkomputery kwantowo-centryczne https://youtu.be/0ka20qanWzI?t=995
To co podałeś, to odmienne podejście do konstrukcji superkomputera. Podana tam liczba EFLOPSów, nie jest podana w odniesieniu do tych samych obliczeń.
Ten tutaj jest stworzony do obliczeń o sporej dokładności. Np. do stworzenia symulacji przebiegu jakiegoś procesu. I jest w stanie dokonać trylion obliczeń podwójnej precyzji na sekundę (dziwne to brzmi po polsku, po angielsku jest to double precision, co można odnieść do standardowych w 32bitowym systemie zmiennych double, które zawierają 64bitów informacji o liczbie- czyli w liczbie dziesiętnej daje to 15-16 cyfr dziesiętnych precyzji przy każdym obliczeniu).
Wydajność podawana jako 10ExaFLOPSów w superkomputerze od Nvidii, to jest wydajnośc dla AI, gdzie nie używa się obliczeń wysokiej precyzji raczej, bo nie ma takiej potrzeby. Tam ważne jest, by była gigantyczna moc obliczeniowa dla prostych obliczeń. Nie wiem dla jakich obliczeń Nvidia podaje moc dla AI, ale obawiam się, że dla obliczeń FP8. Czyli 8x mniejszych liczb(mniejszych 8x pod względem zajmowanej pamięci, nie wartości przechowywanej, bo wartości przechowywać mogą bardzo mało). Więc duże prawdopodobieństwo jest, że w tym superkomputerze Nvidii, jest sporo mniej tranzystorów...
Szczerze mówiąc, o ile zastosowanie jednostek podwójnej precyzji w takiej ilości przez okres wykonywania programu jest dla mnie trochę kosmosem, tak wykorzystanie tych 10 EFLOPSów od Nvidii, to trochę dla mnie zagadka, bo o ile w pierwszym przypadku może to być jakaś symulacja np. cząstek elementarnych oddziałujących na siebie grawitacyjnie/elektrostatycznie/chemicznie. Co jest trudne do ogarnięcia przez zwykłych zjadaczy chleba, ale wydaje się do zrobienia. O tyle napisanie programu, który będzie wykonywał 10trylionów obliczeń na sekundę, w celu określenia, jakiejś konkretnej rzeczy, wydaje się być nie do zrobienia. Ja rozumiem, że może sobie obrabiać jakąś gigantyczna bazę danych, ale jak wymyśleć mu aż tak dużo zadań ?
Tymczasem NV kończy budowę znacznie mocniejszej maszyny