2025 人工智能系列深度:DeepSeek十大關(guān)鍵問(wèn)題解讀_第1頁(yè)
2025 人工智能系列深度:DeepSeek十大關(guān)鍵問(wèn)題解讀_第2頁(yè)
2025 人工智能系列深度:DeepSeek十大關(guān)鍵問(wèn)題解讀_第3頁(yè)
2025 人工智能系列深度:DeepSeek十大關(guān)鍵問(wèn)題解讀_第4頁(yè)
2025 人工智能系列深度:DeepSeek十大關(guān)鍵問(wèn)題解讀_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

DeepSeek十大關(guān)鍵問(wèn)題解讀——人工智能系列深度評(píng)級(jí):推薦(維持)證券研究報(bào)告計(jì)算機(jī)2025年02月13日2024/02/192024/05/192024/08/192024/11/19相對(duì)滬深300表現(xiàn)《計(jì)算機(jī)行業(yè)點(diǎn)評(píng)報(bào)告:DeepSeek攪動(dòng)了全球Al的“一池春水”(推薦)*計(jì)算機(jī)*劉熹》

——2025-02-03《美國(guó)對(duì)華Al限制加劇,自主可控大勢(shì)所趨——Al

算力“賣(mài)水人”系列(4)(推薦)*計(jì)算機(jī)*劉熹》——2025-01-24《計(jì)算機(jī)行業(yè)事件點(diǎn)評(píng):我國(guó)中部最大智算中心投產(chǎn),國(guó)產(chǎn)算力景氣上行(推薦)*計(jì)算機(jī)*劉熹》——2025-01-14表現(xiàn)計(jì)算機(jī)

滬深3003M3.3%

-4.1%12M57.5%

16.5%1M30.1%

5.0%最近一年走勢(shì)相

關(guān)

報(bào)

告DeepSeek

探索出一條“算法創(chuàng)新+有限算力”的新路徑,開(kāi)源Al時(shí)代或已至,國(guó)產(chǎn)Al估值或?qū)⒅厮堋!?/p>

Q1:DeepSeek對(duì)于算力的影響?

—Jevons

悖論:短期訓(xùn)練側(cè)算力需求或受影響,但DeepSeck推理價(jià)格下降吸引更多用戶(hù)調(diào)用模型,帶來(lái)英偉

達(dá)H100GPU的租賃價(jià)格提升,故表明算力需求量短期仍呈提升趨勢(shì),中長(zhǎng)期推理算力需求有望持續(xù)增長(zhǎng)。◆

Q2:

文本與多模態(tài)對(duì)算力的需求差別?

多模態(tài)模型大規(guī)模應(yīng)用,或?qū)⑸?jí)算力需求。Sora將大模型訓(xùn)練數(shù)據(jù)從大規(guī)模的文本/圖像,發(fā)展到

視頻數(shù)據(jù),提升了新的維度,這或?qū)?shù)倍提升算力需求。◆

Q3:

對(duì)芯片未來(lái)格局的影響?——訓(xùn)練:NV仍具備計(jì)算與生態(tài)護(hù)城河,

DeepSeek

帶來(lái)模型訓(xùn)練算力使用效率提升,

NV高等級(jí)芯片或主要用于

探索AGI;推理:推理化、國(guó)產(chǎn)化、

ASIC化為三大趨勢(shì)。◆

Q4:DeepSeek

系列模型為何引起轟動(dòng)?

技術(shù)與開(kāi)源:

DeepSek

優(yōu)化模型結(jié)構(gòu)

(MLA+MOE

、MTP)

模型訓(xùn)練方法

(DualPipe)

、針對(duì)性

GPU優(yōu)化

(FP8

混合精度等)等內(nèi)容,降低了訓(xùn)練成本,同時(shí)進(jìn)行開(kāi)源,各下游企業(yè)可以直接通過(guò)本地部署或云端調(diào)用,降低了調(diào)用成本。◆Q5:模型未來(lái)側(cè)重Dense還是Sparse(MOE)?—

一個(gè)通才(Dense)能夠處理多個(gè)不同的任務(wù),但一群專(zhuān)家(MoE)能夠更高效、更專(zhuān)業(yè)

地解決多個(gè)問(wèn)題。◆

Q6:

蒸餾模型的定義與發(fā)展?jié)摿?

蒸餾可以減少原本大參數(shù)模型部署的硬件需求高、推理時(shí)間長(zhǎng)、成本高昂的缺點(diǎn),更有利于本地部署、

推理業(yè)務(wù)、應(yīng)用與端側(cè)發(fā)展。◆

Q7:多模態(tài)的演進(jìn)路徑?

AI大模型技術(shù)和應(yīng)用逐漸從文本擴(kuò)展至更多模態(tài)。◆

Q8:DeepSeek

發(fā)生后對(duì)應(yīng)用側(cè)的影響?

DeepSeek

在推動(dòng)降本、強(qiáng)推理等驅(qū)動(dòng)下,有望加速AI應(yīng)用普及度迎來(lái)跨越式提升。◆

Q9:DeepSeek

發(fā)布對(duì)于端側(cè)的影響?—

DeepSeek

決定支持用戶(hù)進(jìn)行“模型蒸餾”,已更新線(xiàn)上產(chǎn)品的用戶(hù)協(xié)議,有望加速AI在端側(cè)進(jìn)程,未來(lái)

手機(jī)、PC、

小型設(shè)備等端側(cè)或可部署。◆

Q10:北美增加Capex的用意,以及對(duì)deepsek

的看法?

北美CSP廠(chǎng)商增加資本開(kāi)支至服務(wù)器與數(shù)據(jù)中心,繼續(xù)發(fā)展模型預(yù)訓(xùn)練與推理側(cè),重視deepseek技術(shù)與發(fā)展。

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

3核心提要◆

投資建議DeepSeek

探索出一條“算法創(chuàng)新+有限算力”的新路徑,開(kāi)源Al時(shí)代或已至,國(guó)產(chǎn)AI估值或?qū)⒅厮埽S持計(jì)算機(jī)行業(yè)“推薦”評(píng)級(jí)。◆

1)AI

應(yīng)用:2G:

中科曙光、科大訊飛、中國(guó)軟件、太極股份、中科星圖、國(guó)投智能、云從科技2B:

金蝶國(guó)際、用友網(wǎng)絡(luò)、衛(wèi)寧健康、廣聯(lián)達(dá)、石基信息、明源云、新開(kāi)普、泛微網(wǎng)絡(luò)、同花順2C:

金山辦公、三六零、萬(wàn)興科技、福昕軟件、合合信息◆

2)算力:云:海光信息、寒武紀(jì)、浪潮信息、中科曙光、華勤技術(shù)、紫光股份、中國(guó)電信、優(yōu)刻得、云賽智聯(lián)、光環(huán)新網(wǎng)、中國(guó)軟件國(guó)際、神州數(shù)碼

邊:網(wǎng)宿科技、順網(wǎng)科技、中科創(chuàng)達(dá)、深信服端:軟通動(dòng)力、樂(lè)鑫科技、移遠(yuǎn)通信◆

風(fēng)險(xiǎn)提示:宏觀經(jīng)濟(jì)影響下游需求、大模型產(chǎn)業(yè)發(fā)展不及預(yù)期、市場(chǎng)競(jìng)爭(zhēng)加劇、中美博弈加劇、相關(guān)公司業(yè)績(jī)不及預(yù)期,各公司并不具備

完全可比性,對(duì)標(biāo)的相關(guān)資料和數(shù)據(jù)僅供參考。

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

4投資建議與相關(guān)公司一、DeepSeek十大關(guān)鍵問(wèn)題解答

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

5Q1:DeepSeek

對(duì)于算力的影響?——Jevons悖論

·AI

的演進(jìn)路徑中,推理成本不斷下降,計(jì)算效率持續(xù)提高是長(zhǎng)期趨勢(shì)。例如:據(jù)Semianalysis,算法進(jìn)步的速度約為每年4次;Anthropic

CEO

Dario甚至認(rèn)為,這一進(jìn)步速度可能達(dá)到10倍。·Jevons

悖論:技術(shù)進(jìn)步提高了資源使用效率,效率提高降低了資源使用成本,成本下降刺激了資源需求的增長(zhǎng),需求增長(zhǎng)可能超

過(guò)效率提升帶來(lái)的節(jié)約,最終導(dǎo)致資源總消耗增加。●我們認(rèn)為,短期訓(xùn)練側(cè)算力需求或受影響,但DeepSeek

推理價(jià)格下降吸引更多用戶(hù)調(diào)用模型,帶來(lái)英偉達(dá)H100GPU的租賃價(jià)格

提升,故表明算力需求量短期仍呈提升趨勢(shì),中長(zhǎng)期推理算力需求有望持續(xù)增長(zhǎng)。表:大模型成本持續(xù)下降,效率提升

表:V3/R1

發(fā)布后,AWS多地H100

GPU價(jià)格上漲,H200

也更難獲取Cheapest

LLMAboveCertain

MMLUCost/1MTokens$100.00GPT-4GPT-4Turbo$10.00GPT-40Llama3.1405BsemicnalysisMedian

Price$1.00

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

6資料來(lái)源:Semianalysis,新浪網(wǎng)DeepSeek-V3●多模態(tài)大模型是一種基于深度學(xué)習(xí)的機(jī)器學(xué)習(xí)模型,類(lèi)似于人腦能夠同時(shí)處理文本、聲音、圖像等不同類(lèi)型的信息,多模態(tài)模型能夠處理和整合“圖像+文本”、“視頻+音頻”、“語(yǔ)音+文字”等多種模態(tài)的數(shù)據(jù)和信息,利用不同模態(tài)之

間的互補(bǔ)和協(xié)同,來(lái)提高模型的全面感知和泛化能力,使其能夠應(yīng)對(duì)更多復(fù)雜的任務(wù)和場(chǎng)景,以實(shí)現(xiàn)更好的性能表現(xiàn)。·

與傳統(tǒng)的單模態(tài)模型相比,多模態(tài)對(duì)算力供給提出了更高的要求。急劇飆升的算法復(fù)雜度及工程難度、模型迭代下動(dòng)

輒干億規(guī)模的參數(shù)量和遠(yuǎn)高于單模態(tài)模型的大量圖片、文本和視頻數(shù)據(jù)集,不僅需要消耗大量計(jì)算資源,對(duì)算力的速

度、精度、性能等方面的要求也水漲船高。圖:多模態(tài)模型推理所需算力較高Inference

Compute

ComparisonSora(1

minvideo)—

GPT-4(1000

text

tokens)—

LLama-270B(1000

text

tokens)—

DiT-XL/2

Image

Generation

(512x512px

images)Q2:

文本與多模態(tài)對(duì)算力的需求差別?附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明7資料來(lái)源:機(jī)器之心公眾號(hào),國(guó)海證券研究0.0

0.20.4

0.60.81.0Number

of

generated

outputs

le7圖:sora

表示訓(xùn)練計(jì)算量增加,視頻質(zhì)量顯著提高基礎(chǔ)計(jì)算

4倍計(jì)算

32倍計(jì)算10251023102110+910171015FLOPS·NV

仍具備計(jì)算與生態(tài)護(hù)城河。我們認(rèn)為,DeepSeek

的成果使用低精度計(jì)算、模型側(cè)發(fā)展MOE

架構(gòu)、使用PTX

層,這些會(huì)帶來(lái)預(yù)訓(xùn)練算力使用效率的提升,但是這些技術(shù)仍與NV

生態(tài)緊密聯(lián)系,NV

護(hù)城河仍在。●模型訓(xùn)練算力使用效率提升,NV

高等級(jí)芯片或主要用于探索AGI。

根據(jù)《DeepSeek-V3

Technical

Report》,模型的訓(xùn)練過(guò)程僅

使用2048塊H800,

這表明使用A100

、H800等相對(duì)低端的芯片可以實(shí)現(xiàn)類(lèi)似openAI

o1類(lèi)似性能。這可能會(huì)影響英偉達(dá)2025年以后,

B200

等最先進(jìn)GPU

的普及,

Blackwel/Rubin

等最先進(jìn)的GPU

的用途,初期可能會(huì)被局限在探索下一代大模型(探索AGI)上

。C/C++and

CUDAcodeNVIDIACUDACompiler(NVCC).ptx

PTX(Virtual)ISA

codeDevice

Just-in-TimeCompilerDeviceAssembly

(e.g.,SASS)GPU公眾號(hào)

·新智元資料來(lái)源:新智元公眾號(hào),IDC,

國(guó)海證券

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

8Q3:

對(duì)芯片未來(lái)格局的影響?圖:英偉達(dá)PTX

是專(zhuān)門(mén)為其GPU

設(shè)計(jì)的中間指令集架構(gòu)圖:2024H1,

中國(guó)人工智能芯片市場(chǎng)份額HostAssembly(e.g.,x86,Power,ARM)■GPU卡■非GPU卡HostC/C++

CompilerHostC/C++Code

.CCPU.CU公司202220232024ENVIDIA67.6%65.5%63.6%AMD(包括Xilinx)5.7%7.3%8.1%Intel(包括Altera)3.1%3.0%2.9%Others23.6%24.1%25.3%全部100%100%100%●推理芯片百花齊放。●國(guó)產(chǎn)化:我們認(rèn)為,考慮到目前中美半導(dǎo)體博弈加劇,DeepSeek

積極適配昇騰、海光等國(guó)產(chǎn)

芯片,國(guó)產(chǎn)化推理算力需求有望持續(xù)增長(zhǎng)。●

ASIC/LPU/單芯片等:

ASIC芯片在性能、能效以及成本上優(yōu)于標(biāo)準(zhǔn)GPU

等芯片,更加契合

AI推理場(chǎng)景的需求。據(jù)TrendForce

預(yù)估,2024年北美CSPs

業(yè)者(如AWS

、Meta

等)持續(xù)擴(kuò)

大自研ASIC,以及中國(guó)的阿里巴巴、百度、華為等積極擴(kuò)大自主ASIC

方案,促ASIC

服務(wù)器

占整體AI

服務(wù)器的比重在2024年將升至26%,而主流搭載GPU

的AI服務(wù)器占比則約71%。資料來(lái)源:Trendforce,

華為云公眾號(hào),國(guó)

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

9圖:DeepSeekR1&V3推理適配昇騰云首發(fā)!硅基流動(dòng)×華為云聯(lián)合推出基于昇騰云的DeepSeek

R1&V3推理服務(wù)!華為云2025年02月01日12:58廣東Q3:

對(duì)芯片未來(lái)格局的影響?表:2024年搭載ASIC

芯片AI服務(wù)器出貨占比將逾2.5成DeepSeek-R1開(kāi)源后引發(fā)全球用戶(hù)和開(kāi)發(fā)者關(guān)注。經(jīng)過(guò)硅基流動(dòng)和華為云團(tuán)隊(duì)連日攻堅(jiān),現(xiàn)在,雙方聯(lián)合首發(fā)并上線(xiàn)基于華為云昇騰云服務(wù)的DeepSeekR1/V3推理服務(wù)。●模型的優(yōu)勢(shì)點(diǎn):我們認(rèn)為,

DeepSeek

優(yōu)化模型結(jié)構(gòu)(MLA+MOE)

、模型訓(xùn)練方法

(DualPipe)

、針對(duì)性GPU

優(yōu)化

(FP8混合精度等)等內(nèi)容,降低了訓(xùn)練成本,同時(shí)進(jìn)行開(kāi)源,各下游企業(yè)可以直接通過(guò)本地部署或云端調(diào)用,降低了調(diào)用成本。·DeepSeek

的轟動(dòng)性:1)快速的技術(shù)突破:2024年9月OpenA

I

發(fā)布01模型,但是2025年1月deepseek

就推出類(lèi)比OpenAIo1

的DeepSeek

R1,這改變海外對(duì)于國(guó)內(nèi)模型能力與迭代速度的認(rèn)知。2)開(kāi)源:DeepSeek

R1模型實(shí)現(xiàn)了開(kāi)源,采用MIT

協(xié)議,

一定程度打破高級(jí)閉源模型的封閉生態(tài)。開(kāi)源免費(fèi)調(diào)用有助于先行占據(jù)市場(chǎng)份額,成為規(guī)則制定者,率先拓展生態(tài)粘性。DeepSeek

R1

Zero以V3

作為基礎(chǔ)模型,純強(qiáng)化學(xué)習(xí)替代有

監(jiān)督微調(diào)核心創(chuàng)新1、強(qiáng)化學(xué)習(xí)RL

算法:

GRPO框架2、自我演化與AhaMoment:模型通

過(guò)

RL

自動(dòng)學(xué)習(xí)復(fù)雜的推理行為,在推

理任務(wù)上顯現(xiàn)突破性的性能提升。DeepSeekV3MoE架構(gòu)模型核心創(chuàng)新1

、多頭潛在注意力

(MLA):

減少KVCache2、混合專(zhuān)家架構(gòu)(DeepSeekMoE):

細(xì)粒度

專(zhuān)家分割,共享專(zhuān)家隔離,輔助損失優(yōu)化的專(zhuān)家

負(fù)載平衡策略。3、多

Token

預(yù)測(cè)目標(biāo)(MTP)4

、DualPipe

算法。5、支持

FP8

混合精度訓(xùn)練。DeepSeek

R1以V3

作為基礎(chǔ)模型,結(jié)合冷啟動(dòng)數(shù)據(jù)的

多階段訓(xùn)練核心創(chuàng)新1、冷啟動(dòng)數(shù)據(jù)引入:提高了模型的可

讀性和訓(xùn)練初期的穩(wěn)定性。2、推理導(dǎo)向的強(qiáng)化學(xué)習(xí):通過(guò)多輪

RL,

優(yōu)化模型在數(shù)學(xué)、編程等密集任務(wù)表現(xiàn)。3、監(jiān)督微調(diào)與拒絕采樣:使用RL

檢查

點(diǎn)生成額外的推理和非推理任務(wù)數(shù)據(jù)。4、全場(chǎng)景強(qiáng)化學(xué)習(xí):

在最終階段結(jié)合

多種獎(jiǎng)勵(lì)信號(hào),提升模型有用和安全性。Q4:DeepSeek

系列模型為何引起轟動(dòng)?

——技術(shù)與開(kāi)源資料來(lái)源:《DeepSeek-R1:IncentivizingRea

《DeepSeek-V3TechnicalReport》,國(guó)海證羌附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

10國(guó)海證券SEALANDSECURITIES計(jì)算效率與傳統(tǒng)的Dense模型相比,MoE能夠在遠(yuǎn)少于前者所需的計(jì)算資源下進(jìn)行有效的預(yù)訓(xùn)練,計(jì)算效率更高、速度更快,進(jìn)而使得模型規(guī)模得到顯著擴(kuò)大,獲得更好的AI性能。Al響應(yīng)速度由于MoE在模型推理過(guò)程中能夠根據(jù)輸入數(shù)據(jù)的不同,動(dòng)態(tài)地選擇不同的專(zhuān)家網(wǎng)絡(luò)進(jìn)行計(jì)算,這種稀疏激活的特性能夠讓模型擁有更高的推理計(jì)算效率,從而讓用戶(hù)獲得更快的Al響應(yīng)速度。復(fù)雜任務(wù)由于MoE架構(gòu)中集成了多個(gè)專(zhuān)家模型,每個(gè)專(zhuān)家模型都能針對(duì)不同的數(shù)據(jù)分布和構(gòu)建模式進(jìn)行搭建,從而顯著提升大模型在各個(gè)細(xì)分領(lǐng)域的專(zhuān)業(yè)能力,使得MoE在處理復(fù)雜任務(wù)時(shí)性能顯著變好。靈活針對(duì)不同的專(zhuān)家模型,Al研究人員能夠針對(duì)特定任務(wù)或領(lǐng)域的優(yōu)化策略,并通過(guò)增加專(zhuān)家模型數(shù)量、調(diào)整專(zhuān)家模型的權(quán)重配比等方式,構(gòu)建更為靈活、多樣、可擴(kuò)展的大模型。Q5:

模型未來(lái)側(cè)重Dense

還是Sparse(MOE)?●

MoE是

構(gòu)的

種,

設(shè)

計(jì)

術(shù)

業(yè)

專(zhuān)

攻”

,

務(wù)

門(mén)

類(lèi)

個(gè)

專(zhuān)

進(jìn)

與MoE

對(duì)

應(yīng)的

念是

密(Dense)模

型,

個(gè)

型。

個(gè)

個(gè)

務(wù)

一群專(zhuān)家能夠更高效、更專(zhuān)業(yè)地解決多個(gè)問(wèn)題。圖:moe

模型的優(yōu)勢(shì)(N/2)xNXAdd&NormAdd&NormMulti-HeadAttention

FFN?

MoE

FFNEGatingP

pituinale

ndgi

s

Add

&NormMulti-Head

AttentionInputembeddings

+Positional

embeddingsnsbededdiemotosIn資料來(lái)源:昆侖萬(wàn)維集團(tuán)公眾號(hào),國(guó)海證券

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

11MoE

TransfomerEncoderEncoderoutputEncoderoutputAdd&NormFeed

Forward

FFN圖:傳統(tǒng)大模型

vs

MoE架構(gòu)Add

&NormFeed

Forward

FFNAdd&NormMulti-HeadAttentionTransfomerEncoder用

進(jìn)

語(yǔ)

來(lái)

關(guān)

過(guò)

識(shí)

強(qiáng)

的數(shù)

據(jù)

個(gè)

發(fā)

優(yōu)

勢(shì)

標(biāo)

計(jì)

索經(jīng)

濟(jì)

報(bào)

2

6日,

團(tuán)

隊(duì)

5

0

計(jì)

費(fèi)

訓(xùn)

個(gè)

來(lái)

1

0

0

0

個(gè)

對(duì)

問(wèn)(Qwen)ModelAIME2024pass@1

cons@64MATH-500pass@1GPQADiamondpass@1LiveCode

Benchpass@1CodeForcesratingGPT-4o-05139.313.474.649.932.9759Claude-3.5-Sonnet-102216.026.778.365.038.9717OpenAl-o1-mini63.680.090.060.053.81820QwQ-32B-Preview50.060.090.654.541.91316DeepSeek-R1-Distill-Qwen-1.5B28.952.783.933.816.9954DeepSeek-R1-Distill-Qwen-7B55.583.392.849.137.61189DeepSeek-R1-Distill-Qwen-14B69.780.093.959.153.11481DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.21691DeepSeek-R1-Distill-Llama-8B50.480.089.149.039.61205DeepSeek-R1-Distill-Llama-70B70.086.794.565.257.51633IdentityConsistencyEvaluationResponse

SimilarityEvaluationPrompt

from

BenchmarksFactsof

TargetLLMsTanQwendevelopedbyAlibuba)LamCludsedevelopedbyAnthropieJudge

LMCheckforlogicalcontradictionscplwihgscnReferenceLLMTargetLLMs米0◆llEvaluationLLMSContentLogical

Overall

ilsrityStyleJailbreakTemplates●

利LLM遷

小的

,來(lái)實(shí)現(xiàn)SOTA

性能。●李

飛s1-32B

據(jù)

每日為

s1-32B的

模模型進(jìn)行微調(diào)而成。資料來(lái)源:機(jī)器之心公眾號(hào),《DeepSeek-R

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明12Q6:

蒸餾模型的定義與發(fā)展?jié)摿?*Contradictions

RateldentityPromptsWichteam

or

compuny

developed

yo?weieyputfomarhitastureyouuse?bilbekcespomMutation

LLMMutatetemplate

andmergepromptldentity

Responses

Target

LLMsQwerImQwendeelopodbyAibshu)QwerlamChadedoclopodby

OpanAi

Me圖:DeepSeek

蒸餾模型圖:蒸餾程度比較方式輸入處理文本輸入文本處理文本特征提取文本嵌入多模態(tài)融合聯(lián)合表示任務(wù)特定處理輸出生成圖像輸出

音頻輸出資料來(lái)源:搜狐,華制智能,甲子光年公眾

階躍星辰Step-1Step-2系列Step-1VStep-1.5VStep-1XStep-Video

V2Step-lo

AudioStep-R-Mini智譜GLM-4系列CogVLMGLM-4VCogviewCogVideoXGLM-4-VoiceGLM-Zero-

PreviewMiniMaxabab

6.5MiniMax-VL-01MiniMax-01/Video-01S2V-01speech-01

T2A-01-HD/月之暗面Kimi

Kimi///K0-mathK1、K1.5百川智能Baichuan4

Baichuan4////零一萬(wàn)物Yi-LargeYi-LightningYi-VL1///DeepSeekDeepSeek

V3

DeepSeek-VL21//DeepSeek

R1阿里巴巴Qwen

Qwen-VLwanx-T2Iwanx-T2VQwen-Audio8v8百度文心大模型

文心大模型文心大模型///騰訊混元大模型

混元大模型混元大模型混元大模型/1字節(jié)跳動(dòng)豆包大模型

豆包大模型豆包大模型豆包大模型豆包大模型/●AI

大模型技術(shù)和應(yīng)用逐漸從文本擴(kuò)展至更多模態(tài)。多模態(tài)大一統(tǒng)模型的理念最早由谷歌提出,Gemini

便是這一理念的代表之

作。其核心設(shè)計(jì)在于運(yùn)用

Transformer

架構(gòu),將文本、圖像、音

頻等多種模態(tài)的數(shù)據(jù)進(jìn)行統(tǒng)一處理,實(shí)現(xiàn)對(duì)不同模態(tài)信息的理解

與生成。圖:國(guó)內(nèi)主要廠(chǎng)商的多模態(tài)布局Q7:

多模態(tài)的演進(jìn)路徑?附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

13圖:多模型模型結(jié)構(gòu)音頻輸入音頻處理圖像輸入圖像處理圖像特征提取音頻特征提取音頻嵌入圖像嵌入文本輸出●核心觀

點(diǎn):DeepSeek在推動(dòng)降本

、強(qiáng)推理等層

面驅(qū)

動(dòng)

加速Al

應(yīng)

來(lái)

升。·

賣(mài)

認(rèn)

無(wú)

開(kāi)

計(jì)

廠(chǎng)

計(jì)

務(wù)

產(chǎn)品,

計(jì)

算資

源的

價(jià)

升,

的Capex流向

領(lǐng)

域,

件也

望受

。●

模型

廠(chǎng)商

:DeepSeekR1模

對(duì)

標(biāo)OpenAIo1,且

開(kāi)

源,

對(duì)

廠(chǎng)

擊,

礎(chǔ)

訓(xùn)

。·應(yīng)用

側(cè)

:我們認(rèn)為

,C

戶(hù)

數(shù)

據(jù)

礎(chǔ)

好、

態(tài)

產(chǎn)

強(qiáng)、

與AI結(jié)合度

好的公司

,B端

業(yè)

市占

高、

戶(hù)

數(shù)

大、

用戶(hù)數(shù)據(jù)和產(chǎn)品案例的廠(chǎng)商,且具備Al

結(jié)合能力的公司有望受益。圖:全球生成式Al市場(chǎng)規(guī)模全球生成式Al市場(chǎng)規(guī)模(億美元)

——

yoy76%

74%

215465%1569

52%1500103537%%30%20%

10%

0%2023

2024

2025E

2026E

2027E

2028E資料來(lái)源:中國(guó)工業(yè)互聯(lián)網(wǎng)研究院,艾瑞咨

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

142元2

3

4

5月

6月

7

8

9月1

0

月11月12月Q8:DeepSeek

發(fā)生后對(duì)應(yīng)用側(cè)的影響?Anthropic210元OpenAi阿里騰訊字節(jié)1

月20元混元-Pro100元

混元-Turbo15元圖:大模型降本趨勢(shì)明確Claude3

Opus525元

Claude

3.5

Sonnet105元80%70%

60%

50%Qwen-VL-Max9元GPT-40105元GPT-4070元204.8360.6627.21000250020005000圖:端側(cè)Al產(chǎn)業(yè)鏈圖譜傳感器We

BOSCH華

周微電子0MNIVISISNC

CH0Micron

KIOXIA

長(zhǎng)江存儲(chǔ)其他Microsoft

HarmonyOs達(dá)夢(mèng)數(shù)置庫(kù)Googh

e

OoRACLE

IEM中游端側(cè)AI設(shè)備oppo

端側(cè)AI大模型XMeta|Lama

-間里云通

華為云|盤(pán)古Google|Gemini

兩訊云|混元MOSsOpenAI|GPT

百限圖能云|文心Applelnteligence泛娛樂(lè)汽車(chē)應(yīng)用場(chǎng)景教育金融醫(yī)療其他資料來(lái)源:《On-Device

Language

Models:A

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

15●

認(rèn)

除AI

和Al

機(jī)

機(jī)

、AR/VR

設(shè)

來(lái)

長(zhǎng)

端側(cè)的應(yīng)用發(fā)展之后,會(huì)進(jìn)一步帶動(dòng)Al

算力硬件的需求。●DeepSeek

產(chǎn)

協(xié)

可“

,

速AI

側(cè)

。DeepSeek決

戶(hù)

進(jìn)

型蒸餾

,

線(xiàn)

產(chǎn)

戶(hù)協(xié)

速Al

側(cè)

進(jìn)

來(lái)

機(jī)

、PC、小

設(shè)

側(cè)

署。Q9:DeepSeek

發(fā)布對(duì)于端側(cè)的影響?LenovoSAMSUNG

MicrosoftQualcoMM

HSLLICON通信模塊存儲(chǔ)SAMSUNG

intelZTE中興

2tp-ink唐

me下游圖:全球端側(cè)Al市場(chǎng)規(guī)模HUAWEIvivoHIKVSON

SGcon

AOHAIHUAWEIFeNmelogitech

CE-LINKCambricon寒武

紀(jì)基礎(chǔ)軟件AMDA上游Size(USD

Billion)CFILM歐

光AI芯片GGoerTekCEC中

國(guó)嗎解將技Western

DigitalNVIDIA電

子公司2024年及未來(lái)互聯(lián)網(wǎng)大廠(chǎng)資本開(kāi)支預(yù)期情況

Microsoft2024Q4(FY2025Q2),含融資租賃資本支出226億美元,一半以上的云和AI相關(guān)支出用于長(zhǎng)期資產(chǎn)。預(yù)計(jì)2025財(cái)年的第三季度和第四季度的季度支出將與第二季度的支出保持相似水平。Alphabet

(

)2024Q4公司資本開(kāi)支達(dá)到143億美元,主要是技術(shù)基礎(chǔ)設(shè)施的投資。公司預(yù)計(jì)2025年將投資約750億美元的資本支出,其中約160億至180億美元將在第一季度投資Meta2024Q4公司資本支出(包括融資租賃本金支付)為148億美元,主要用于服務(wù)器、數(shù)據(jù)中心和網(wǎng)絡(luò)基礎(chǔ)設(shè)施的投資。公司預(yù)計(jì)2025年的資本支出將在600-650億美元之間,以支持的生成Al工作和核心業(yè)務(wù)。亞馬遜2024Q4資本開(kāi)支為278億美元。預(yù)計(jì)2025年資本支出約為1050億美元,其中大部分將用于人工智能和數(shù)據(jù)中心支出。300

(億美元)250200150100500Meta

谷歌Alphabet■

微軟

■亞馬遜Q10:

北美增加Capex

的用意,以及對(duì)deepseek

的看法?SEALAND

SECURITIES20%22%9%5%

6%

9%

19%17%6%15%11%

16%圖:2022-2024Q4

各廠(chǎng)商資本性開(kāi)支

圖:2023-2024年全球CSP對(duì)高階Al服務(wù)器需求占比資料來(lái)源:,騰訊網(wǎng),澎湃新聞,虎嘯商業(yè)評(píng)論,bi:Microsof

t■GoogleCoreWeave■

BBAT附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明16內(nèi)圈:2023外圈:2024E■AWS■其他20%25%Meta二、投資建議及風(fēng)險(xiǎn)提示

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

17◆投資建議DeepSeek

探索出一條“算法創(chuàng)新+有限算力”的新路徑,開(kāi)源Al時(shí)代或已至,國(guó)產(chǎn)AIl估值或?qū)⒅厮埽S持計(jì)算機(jī)行業(yè)

“推薦”評(píng)級(jí)。◆1)Al

應(yīng)用:2G:

中科曙光、科大訊飛、中國(guó)軟件、太極股份、中科星圖、國(guó)投智能、云從科技2B:

金蝶國(guó)際、用友網(wǎng)絡(luò)、衛(wèi)寧健康、廣聯(lián)達(dá)、石基信息、明源云、新開(kāi)普、泛微網(wǎng)絡(luò)、同花順2C:

金山辦公、三六零、萬(wàn)興科技、福昕軟件、合合信息◆

2)算力:云:海光信息、寒武紀(jì)、浪潮信息、中科曙光、華勤技術(shù)、紫光股份、中國(guó)電信、優(yōu)刻得、云賽智聯(lián)、光環(huán)新網(wǎng)、中國(guó)軟件

國(guó)際、神州數(shù)碼邊:網(wǎng)宿科技、順網(wǎng)科技、中科創(chuàng)達(dá)、深信服端:軟通動(dòng)力、樂(lè)鑫科技、移遠(yuǎn)通信

附注中的風(fēng)險(xiǎn)提示和免責(zé)聲明

182.1

投資建議與相關(guān)公司2)大模型產(chǎn)業(yè)發(fā)展不及預(yù)期:

AI

行業(yè)核心是技術(shù)驅(qū)動(dòng),如果人工智能大語(yǔ)言模型技術(shù)進(jìn)步不及預(yù)期,或應(yīng)用效果不及預(yù)期,

將導(dǎo)致AI產(chǎn)業(yè)發(fā)展邏輯受到影響;3)市場(chǎng)競(jìng)爭(zhēng)加劇:軟件、技術(shù)和硬件是成熟且完全競(jìng)爭(zhēng)的行業(yè),新進(jìn)入者可能加劇整個(gè)行業(yè)的競(jìng)爭(zhēng)態(tài)勢(shì);4)中美博弈加劇:國(guó)際形勢(shì)持續(xù)不明朗,美國(guó)不斷通過(guò)“實(shí)體清單”等方式對(duì)中國(guó)企業(yè)實(shí)施打壓,若中美緊張形勢(shì)進(jìn)一步升

級(jí),將可能導(dǎo)致中國(guó)半導(dǎo)體供應(yīng)鏈或AI技術(shù)創(chuàng)新受

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論