#SemiAnalysis

2025-05-20

walknews.com/907972/ ファーウェイ、NVIDIA対抗の新AI半導体「Ascend 910D」開発 米国の対中規制下で自給目指す 先端半導体自国開発へ活路、米中技術覇権の行方は(1/2) | JBpress (ジェイビープレス) #Ascend #Blackwell #isMedia #JBpress #NVIDIA #SemiAnalysis #SMIC #TSMC #UnitedStatesOfAmerica #US #USA #アメリカ合衆国 #ファーウェイ #半導体 #対中規制 #日本ビジネスプレス #米国

ファーウェイ、NVIDIA対抗の新AI半導体「Ascend 910D」開発 米国の対中規制下で自給目指す 先端半導体自国開発へ活路、米中技術覇権の行方は(1/2) | JBpress (ジェイビープレス)
2025-02-07

Trening modelu DeepSeek nie kosztował 6 mln dolarów, lecz 1,3 miliarda dolarów – raport SemiAnalysis

Chińska sztuczna inteligencja: DeepSeek mocno zamieszała w branży AI. Jednym z szokujących twierdzeń chińskich twórców tego modelu są deklarowane przez nich znikome, w stosunku do innych modeli AI, koszty szkolenia. Szkoda tylko, że podane kwoty mocno rozmijają się z prawdopodobnym stanem faktycznym.

SemiAnalysis to niezależna firma badawcza i analityczna specjalizująca się w branży półprzewodników i sztucznej inteligencji (AI). Oferuje dogłębną analizę całego łańcucha dostaw, od produkcji półprzewodników po najnowsze modele AI, oprogramowanie i infrastrukturę. I właśnie eksperci z tej organizacji wzięli na warsztat analizę faktycznych kosztów treningu najnowszego chińskiego modelu sztucznej inteligencji.

Wnioski? Pokrywają się z przypuszczeniami tych, którzy od początku ogłoszenia DeepSeek przez chiński podmiot wątpili w deklarowane przez twórców koszty treningu nowego modelu. Przypomnijmy, że Chińczycy deklarowali iż wytrenowanie DeepSeek kosztowało ok. 6 mln dolarów. Eksperci SemiAnalysis twierdzą, że to tak, jakby wskazać część materiałów tworzących jakiś produkt i przypisać ją jako całkowity koszt wytworzenia danego produktu. Kwota 6 mln dolarów to ich zdaniem koszt wstępnego szkolenia, co jednocześnie stanowi bardzo wąską część całkowitego kosztu budowy tak rozbudowanego modelu AI jak DeepSeek.

Przede wszystkim eksperci zwracają uwagę, że DeepSeek to nie jest firma istniejąca od wczoraj, lecz organizacja, która przez lata gromadziła środki i potencjał do rozwijania prowadzonych przez nią działań. Kilka lat temu kontrola eksportu półprzewodników ze Stanów Zjednoczonych była znacznie mniej szczelna niż obecnie, to najprawdopodobniej pozwoliło chińskiemu podmiotowi zgromadzić potencjał obliczeniowy, którego koszt całkowicie pominięto w owych deklarowanych przez Chińczyków kosztach szkolenia.

Zdaniem SemiAnalysis wykluczono ważne elementy układanki, takie jak badania i rozwój oraz TCO (całkowity koszt posiadania – Total Cost of Ownership) samego sprzętu. Dla porównania, szkolenie Claude 3.5 Sonnet, modelu zbudowanego przez Anthropic, kosztowało dziesiątki milionów USD, a gdyby to był całkowity koszt potrzebny Anthropic, firma ta nie pozyskałaby miliardów dolarów inwestycji od Google i dziesiątek miliardów od Amazon. Sam trening to nie wszystko, budowa AI to również eksperymenty, opracowywanie nowych architektur, gromadzenie i czyszczenie danych przeznaczonych do treningu sztucznej inteligencji, koszty utrzymania mocy obliczeniowej, energii, lokalizacji, pensje dla pracowników i cała masa innych elementów stanowiących faktyczny, całkowity koszt budowy danego rozwiązania.

SemiAnalysis zwraca uwagę na jeszcze jedną istotną rzecz: DeepSeek V3 jest ich zdaniem niewątpliwie imponującym pod wieloma względami modelem, porównywanym np. do GPT-4o od OpenAI. Jednak trzeba pamiętać, że wykorzystywany dziś GPT-4o to model, który został udostępniony w maju 2024 roku, ponad pół roku temu. W rozwoju sztucznej inteligencji to dużo czasu, biorąc pod uwagę tempo tego rozwoju. Dlatego dobrze jest zachować odpowiednią perspektywę.

Jakoś nikt specjalnie nie zachwyca się istniejącymi już dziś modelami, które są w stanie działać lokalnie i mogą być wytrenowane i uruchomione nawet na dobrze wyposażonym laptopie, a oferują potencjał porównywalny z GPT-3, modelem, którego koszt treningu wymagał całych centrów danych, olbrzymiej mocy i znacznych nakładów. Finalnie SemiAnalysis oszacowało faktyczny koszt wytworzenia DeepSeek na poziomie ok. 1,6 miliarda dolarów. To trochę większa kwota od deklarowanej przez Chińczyków, prawda?

Wszystkich zainteresowanych odsyłam do źródła, raportu SemiAnalysis, który w znacznie bardziej szczegółowy sposób wyjaśnia meandry związane z faktycznymi kosztami treningu modeli zależnie od ich efektów działania.

#AI #DeepSeek #kosztTreninguAI #news #SemiAnalysis #sztucznaInteligencja

DeepSeek
Winbuzzerwinbuzzer
2024-12-12

An in-depth analysis from SemiAnalysis argues that AI scaling laws have remained robust through innovations like reasoning models and synthetic data, questioning the idea of a wall of diminishing returns. @semianalysis

winbuzzer.com/2024/12/12/semia

Erik JonkerErikJonker
2024-12-11

Always impressed with the technical details in articles on the semianalysis website, this time about "Scaling Laws – O1 Pro Architecture, Reasoning Training Infrastructure, Orion and Claude 3.5 Opus “Failures”
semianalysis.com/2024/12/11/sc

2024-12-10

Empfehung: SemiAnalysis.com -> Newsletter, wie üblich Freemium (die ersten paar Seiten gibts umsonst. Ich lesen nur diese.)

Erik JonkerErikJonker
2024-10-17

Great blog with amazing in-depth articles on technical subjects with regard to AI and IT.
semianalysis.com/

Erik JonkerErikJonker
2024-09-06

"The Memory Wall: Past, Present, and Future of DRAM" , excellent and detailled article on DRAM, i learned a lot 😀
Interesting that it doesn't scale anymore, in this time of AI, that must give some headaches.
semianalysis.com/p/the-memory-

#Google #AI #インフラストラクチャ の優位性: #マイクロアーキテクチャ よりも #システム が重要」: semianalysis

Google の AI 戦略について、詳しく解説しています。私はとてもついていけませんが、紹介します。

AIの分野で、本当に #Microsoft が勝つのか?少々疑問になって来ました。

semianalysis.com/p/google-ai-i

#prattohome #semianalysis

Peter Jonespetergjones
2024-04-04

from
This is from mid last year but gets into vs , what that means for technology/market development and Google vs NVIDIA.
bit.ly/4annZkS

Peter Jonespetergjones
2024-04-03

from
Can Intel come back as a Fab business?
bit.ly/3VIqUji

Peter Jonespetergjones
2024-04-03
Peter Jonespetergjones
2024-04-03

from
I agree with this. The external constraints are going to be a bigger problem that the number of chips you can buy.
bit.ly/3xfSZV0

Florian - RISC-V AmbassadorFlorianWoh@fosstodon.org
2023-09-04

Dylan of #semianalysis

Florian - RISC-V AmbassadorFlorianWoh@fosstodon.org
2023-09-04

A little much yesterday but a great day. Jon of Asianometry (great YouTube channel), Doug of FabricatedKnowledge (check the blog) and Dylan of SemiAnalysis shared a wealth of information too.

Was full house and highly recommend

#semiconductor #semianalysis #fabricatedknowledge

:mastodon: Mike Amundsenmamund
2023-04-10

When AI’s Large Language Models Shrink Smaller models trained on more data challenge the dominance of ChatGPT, GPT-4, and company

spectrum.ieee.org/large-langua

"We won’t be able to make models bigger forever. There comes a point where even with hardware improvements, given the pace that we’re increasing the model size, we just can’t." --

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst