Szefowa AMD uważa, że Nvidia może się mylić
Jedyny problem jaki widze w zrobieniu ukladow z lepsza moca obliczeniowa (co tez widac na np. RTX 4090) to wytwarzane cieplo, im wieksza moc obliczeniowa tym wiecej danych musi przeplywac przez sciezki i szybko co oczywiscie powoduje grzanie sie ukladu, dochodzi do tego tez pobor mocy. Jezeli nie rozwiaza tego problemu w pierwszej kolejnosci to raczej mozna zapomniec o "postepie".
Możecie wreszcie przestać powtarzać te głupoty o wysokim zużyciu prądu przez nowe GPU? Przecież RTX 4000 i RX 7000 miażdżą poprzednie generacje pod tym względem, a szczególnie po undervoltingu, po którym np taki RTX 4070 potrafi brać i 50 W mniej przy marginalnym spadku wydajności.
Prawo Moore’a to największa bzdura w IT tech, która nie wnosi do IT niczego wartościowego. Puste założenia i frazesy, żeby ładnie wygladało na slajdach marketingowych.
Bzdura?
Każde prawo można obalić po wykonaniu odpowiedniej ilości testów oraz z czasem i rozwojem nowych technologii.
Nic nie trwa wiecznie, poza pitoleniem w Internecie.
Jakich testów i jakim rozwojem nowych technologii? Wiesz w ogóle czego ono dotyczy? Randomowe argumenty przeciw konkretnemu "prawu". Bajki w postaci "Prawa Moora" można sobie wymyślić na poczekaniu typu "Co roku w IT będzie przybywać pracowników w IT o 5%". Niczego nie wnosi, niczego nie daje. Im wyżej siedzisz tym większe głupoty możesz przepchnąć.
Jak zgłębisz podstawy logiki i zapoznasz się z definicją dowodzenia, to może wtedy będziesz przeciwnikiem do dyskusji.
Póki co, reprezentujesz pitolenie.
Przeciwnikiem... dobre sobie, lepiej idź do psychologa skoro szukasz problemów.