




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
在過往三年連續圍繞整個前沿科技來提供年站在新進展新信息的最前沿,站在產學研交匯地帶,把正在總之,希望這份年度趨勢報告,能夠對你在歲末科技合作伙伴2024年度??AI趨勢趨勢??模型創新:架構優化加速涌現,融合迭代?勢所趨/02趨勢?ScalingLaw泛化:推理能?成皇冠明珠,倒逼計算和數據變?/10趨勢四AI應?格局:第?輪洗牌結束,聚焦20賽道5?場趨勢五AI應?競爭:多領域競速運營?于技術,AI助?兵家必爭/35趨勢六AI應?增?:AI+X賦能類產品??快上,原?AI爆款難求/45趨勢?AI智變千?百業:左?變??產?,右?重塑?業?態趨勢九AI?業滲透率:數據基礎決定初速度,??需求成為加速度/75趨勢?AI創投:投融資?太效應明顯,國家隊出?頻率提升/78千?百業AI優秀落地?案推薦/8700趨勢一大模型創新:架構優化加速涌?,融合迭代大勢所趨1.架構層創新助?解決算?瓶頸現實問題/022.創新混合架構挑戰Transformer壟斷/02技術原理——1.路徑?:循環神經?絡及其變種(以RWKV為代表)/032.路徑?:狀態空間模型(以Mamba為代表)/053.路徑三:層次化卷積模型(以UniRepLKNet為代表)/064.路徑四:多尺度保持機制模型(以RetNet為代表)/075.路徑五:液體神經?絡模型(以LFM為代表)/08趨勢二ScalingLaw泛化:推理能力成皇冠明珠,倒逼計算和數據變革技術原理——1.AI模型的性能強烈依賴于規模/102.全新的ScalingLaw/13趨勢三AGI探索:視頻生成點燃世界模型,空間智能統虛擬和技術原理——1.視頻?成:從擴散模型出發/162.世界模型:從?動駕駛領域到整個世界/193.具?智能:回到現實世界,回到產業鏈/204.空間智能:連結具?智能與空間計算/22一、大模型創新:架構優化加速涌?,融合迭代大勢所趨Transformer架構是?前應?最?泛的主流?模型架構,??注意?機制(Self-Attention,SA)則是Transformer架構的核?——它允許模型進?并?計算,在序列中?線性地直接捕捉任意兩個位置之間的關聯權重,?幅提?模型能?上限。但另???,這也使模型的算?需求、計算復雜性和消耗資源成本都隨參數增加呈指數級增?,在?規模任務中快速觸達天花板。2024年以來,隨著?模型參數量的?速規模化以及訓練與部署的深?落地,Transformer架構的上述弊端愈發顯著,成為助推全球性算?緊缺的重要因素,也為?模型的端側 落地提出了挑戰。為尋求突破,對?模型架構的創新性探 索逐漸成為不容忽視的趨勢。若能突破Transformer在算?和數據需求??的限制,新架構有望在?然語?處理和計算機視覺領域引發新?輪技術?新。——明勢創投2.創新混合架構挑戰Transformer壟斷?2017年AttentionIsAllYouNeed出世提出Transformer架構以來,7年已過。AI?業對Transformer的路徑依賴引發了越來越多的“過時”爭論,體現出?漸迫切的架構創新需求。2023年以來,RWKV和Mamba引起熱議,多種新架構加速圖:Transformer模型架構,?歌、多倫多?學涌現,世界范圍內的學者從多個?向努?,試圖在保留Transformer架構優勢的基礎上創新性引?其他架構特點,解決算?開銷問題,Transformer的絕對統治地位得到挑戰,兼采眾家之?的混合模型(Hybrid)已成未來趨勢。Transformer架構、Next-TokenPrediction和ScalingLaw是當前?模型的算法基?,但這些領域也越來越需要新的突破,以構建強?且?效的新?代基礎?模型。強?意味著卓越的性能、泛化能?和抵抗幻覺能?;?效則指低成本、?效率和低能耗。只有具備這兩?特質,??智能才能真正成為?和電?樣的基礎設施。——微軟亞洲研究院02HyenaHierarchyRetNetTimeMixerMamba-2FalconMamba2023.042023.052023.072024.042024.052024.052024.082024.09MichaelPoli,StefanoMassaroli,EricNguyen,DanielY.Fu,TriDao,StephenBaccus,YoshuaBengio,StefanoErmon,ChristopherRéBoPeng,EricAlcaide,QuentinAnthony等YutaoSun,LiDong,ShaohanHuang,ShumingMa,YuqingXia,JilongXue,JianyongWang,FuruWeiZimingLiu,YixuanWang,SachinVaidya,FabianRuehle,JamesHalverson,MarinSoljacˇic,ThomasY.Hou,MaxTegmarkShiyuWang,HaixuWu,XiaomingShi,TenggeHu,HuakunLuo,LintaoMa,JamesY.Zhang,JunZhouAlbertGu,TriDaoJingweiZuo,MaksimVelikanov,Rhaiem,IlyasChahed,YounesBelkada,GuillaumeKunschRaminHasani,MathiasLechner,AlexanderAmini,DanielaRusStanfordUniversity,MilaandUniversitédeMontréal微軟亞洲研究院MIT,Caltech,NortheasternUniversity,螞蟻集團,清華?學普林斯頓、卡內基梅隆?學阿布扎?Technology InnovationInstitute(TII)LiquidAI這些新興?模型架構不僅在性能上可以與Transformer模型競爭,還在內存效率和可擴展性上展現出優勢。梅花創投楊顏媛表?,部分新架構更易于進?并?計算,能夠充分利?現代硬件的并?計算能?,提?訓練和推理的速度。它們的出現,為AI領域帶來了新的活?,也為未來的研究和應?開辟了新的可能性。隨著這些模型的不斷發展和優化,我們有理由相信,?模型創新架構將在AI未來發展中扮演越來越重要的??。技術原理循環神經?絡(RNN)通過循環?式處理序列數據,能夠對過去的輸?保留記憶,但存在難以并?化的問題,Transformer架構的誕?最早就是為彌補這?缺陷。但仍有很多學者認為,RNN的潛?還遠未達到天花板,在Transformer架構越來越受到詬病的今天,RNN憑借其獨特優勢再度獲得了越來越多學者的探索創新。?前這?路徑的架構創新主要使?循環神經?絡(RNN)替代?注意?機制,通過循環?式處理序列數據,使模型對過去的輸?保留記憶。03元始智能區別于Transformer的Query-Key-Value參數,RWKV架構由四個重要參數組成:R、W、K、V,除了可訓練的權重參數w(Weight),RWKV還使?r(Receptance)參數來控制對信息的接受程度。RWKV與Transformer架構的本質區別在于背后的記憶機制,與Transofrmer的內存尋址機制相?,RWKV更像是?種聯想記憶?法。Transformer=AddressingMemory尋址記憶:RWKV=AssociativeMemory聯想記憶:我相信RNN是正確的,但現在的RNN遠遠沒有做到它真正的?平,它的上限其實是?常?的,現在我們還遠遠沒有到那個地步,還有很多空間。因為RNN更接近?腦和宇宙的運作?式。例如,在物理上,宇宙的下?狀態只與上?狀態有關,這是所謂的locality和causality,量?場論遵循這?原則。RWKV(RecurrentWeightedKey-Value)模型核?思想是將RNN的循環結構與Transformer的并?計算能?相結合,在實現?效推理、節省存儲開銷的同時保持模型的?性能。這使得RWKV可以“像Transformer?樣”進?并?訓練,同時在推理階段可以以遞歸形式進?解碼,“像RNN?樣”推理。??TokenShift:tokenshift在時間混合計算中,通過對當前和前?輸?的線性組合進?線性投影,?成?于時間混合的向量;在通道混合計算中,也采?類似的?法?成通道混合輸?向量WKV運算符:WKV運算符利?時間衰減因?對權重進?更新,使得每個時間步的輸出依賴于之前所有時間步的信息,從?保留了RNN的記憶能?,這種設計使得RWKV模型在保持較低計算復雜度的同時,能有效捕捉序列數據中的?期依賴關系04?輸出?控:RWKV通過在時間混合和通道混合塊中使?sigmoid函數對接收向量進??控,控制信息的流動和記憶更新,確保在每個時間步只傳遞和處理相關信息,從?減少梯度消失和爆炸問題,增強了模型的穩定性和訓練效率RWKV?提出以來已經經歷了多次版本迭代,最新版本RWKV-7預覽版已在今年9?正式發布。2.路徑?:狀態空間模型(以Mamba狀態空間模型可以看作是循環神經?絡(RNN)和卷積神經?絡(CNN)的融合,由其發展?來的結構化的狀態空間序列模型(SSM)是另?頗具潛?的?模型創新架構代表。這類模型利?狀態空間處理?序列問題,通過循環或卷積運算實現?效計算,使得計算開銷與序列?度呈線性或近線性關系,從?顯著降低計算成本。(1)Mamba?次提出2023年12?,Mamba架構?次被提出,引?了選擇性狀態空間模型,實現了對輸?數據的有選擇性處理。這種選擇機制使得模型能夠根據當前輸?的token決定哪些信息是重要的,忽略不相關的信息,提升模型處理?序列的能?和推理吞吐量,達到Transformer模型的五倍。(2)Mamba核?思想Mamba的核?在于其硬件感知算法,利?現代硬件(如GPU)的內存層次結構,通過掃描??卷積計算模型,減少不同級別GPU內存間的IO訪問,提?計算效率。此外,Mamba簡化了深度序列模型設計,?需注意?機制或多層感知器(MLP)塊,使模型更加簡潔。圖:選擇性狀態空間模型(SelectiveStateSpaceModel),卡內基梅隆、普林斯頓?學05(3)Mamba-2核?思想今年5?,Mamba-2發布,提出了狀態空間對偶(SSD)框架,揭?了狀態空間模型與結構化掩碼注意?之間的聯系。Mamba-2的核?層通過引?新的SSD算法,在訓練效率上提升了2-8倍,同時保持了與Transformer在語?建模??的相似?平競爭?。(4)Mamba-2創新點?硬件友好設計:Mamba-2的另?個重要貢獻是其對硬件友好的設計,允許使?更?的狀態維度,提?訓練速度。在處理需要更?狀態容量的任務,如多查詢關聯回憶(MQAR)任務時,Mamba-2顯?出?Mamba-1顯著的性能提升?混合模型的探索:Mamba-2還探索了將注意?層與SSM層結合的混合模型,發現適量的注意?層可以進?步提升模型性能圖結構化狀態空間對偶性)?結構化矩陣闡明狀態空3.路徑三:層次化卷積模型(以UniRepLKNet為代表)層次化卷積模型,以UniRepLKNet為代表,是?種?卷積架構,其核?在于使?與輸?序列?度相當或接近的濾波器(核)來捕捉序列數據中的?距離依賴關系。這種設計使得模型在處理輸?時能夠考慮到更遠的歷史信息,有效處理?序列問題。(1)UniRepLKNet創新點UniRepLKNet采??核CNN,能夠處理多種模態數據,如圖像、?頻、時序預測等。該模型提出了 “局部結構設計、重參數化、核??選擇和隨深度拓展添加?核”四條指導原則來設計?核CNN架構,并采?硬件感知的并?算法,在圖像識別任務中實現領先性能,并在?頻、視頻、點云和時間序列等多模態任務中也取得了顯著的結果。UniRepLKNet的優勢在于充分利??核卷積神經?絡的特點,通過創新的架構設計,有效地解決了感受野、特征抽象層次以及模型深度表?能?等核?問題。圖:UniRepLKNet的架構設計,騰訊AILab06本報告來源于三個皮匠報告站(),由用戶Id:349461下載,文檔Id:184502,下載日期:2024?核卷積的獨特優勢在于不依賴深度堆疊即可獲得?感受野,避免了深度增加帶來的邊際遞減問題。UniRepLKNet提出了?種膨脹重參數塊(DilatedReparamBlock),即通過使?多個膨脹?核卷積層來增強?個?核卷積層,從?在不增加推理成本的情況下提?性能,該塊的公式如下:膨脹重參數塊使?膨脹的?核卷積層來增強?膨脹的?核層。這樣的膨脹層相當于具有更?稀疏核的?膨脹卷積層,因此整個塊可以等效地轉換為單個?核卷積。4.路徑四:多尺度保持機制模型(以RetNet為代表)多尺度保持機制模型(RetentiveNetwork,Retnet)由微軟亞洲研究院提出,克服傳統Transformer架構在效率和性能上的局限性。RetNet的設計突破了所謂的“不可能三?”,在保持訓練并?性的同時,實現了低成本部署以及良好性能。作為全新的神經?絡架構,RetNet同時實現了良好的擴展結果、并?訓練、低成本部署和?效推理。這些特性將使RetNet有可能成為繼Transformer之后?語?模型基礎?絡架構的有?繼承者。——?福如,微軟亞洲研究院全球研究合伙?(1)RetNet創新點RetNet作為全新的神經?絡架構,使?多尺度保持(Retention)機制替代了標準的?注意?機制。與標準?注意?機制相?,保持機制有以下特點:??引?位置相關的指數衰減項取代softmax:這?改進簡化了計算過程,并使得前步信息以衰減的形式得以保留,從?在降低計算復雜度的同時,保留了序列中的重要信息引?復數空間表達位置信息:這??法取代了傳統的絕對或相對位置編碼,使得模型更容易轉換為遞歸形式,增強了模型對序列中元素之間相對位置的感知能?07??使?多尺度的衰減率:保持機制采?了多尺度的衰減率,使RetNet能夠更靈活地處理不同?度的序列,提升了模型對序列數據的適應性和表達能?利?GroupNorm的縮放不變性提?Retention層的數值精度:這?特性使得在GroupNorm中乘以?個標量值不會影響輸出和反向梯度,從?在保持模型性能的同時,提?了計算的穩定性和效率???并?:并?表?使RetNet可以像Transformer?樣?效地利?GPU進?并?訓練遞歸:遞歸表征實現了O(1)1的推理復雜度,降低了內存占?和延遲分塊遞歸:即并?表?和遞歸表?的混合形式,將輸?序列劃分為塊,在塊內按照并?表?進?計算,在塊間遵循遞歸表?。分塊遞歸表征則能夠?效處理?序列數據RetNet的實驗結果表明,它在語?建模任務上達到了與Transformer相當的性能,同時在推理速度和內存占???顯著優于Transformer。液體神經?絡模型LFM,由MIT系初創公司LiquidAI團隊發布,是基于液體神經?絡(LiquidNeuralNetworks,LNN)架構的新型神經?絡設計。受?物神經系統啟發,LNN通過使?更少的神經元和創新的數學公式,實現了與傳統深度學習模型相?相同甚?更優的性能。????效內存使?:LFM的核?優勢在于其?效的內存使?和強?的推理能?,這使得它在處理?量順序數據時表現出?。與傳統的基于Transformer的模型相?,LFM在處理?輸?時內存使?量顯著減少,這是因為LFM能夠更有效地利?上下??度,KV緩存不隨序列?度增加?線性增?多模態能?:LFM模型能夠處理包括視頻、?頻、?本、時間序列和信號在內的多種類型的數據?適應能?:LFM還具有?適應能?,可以根據特定的硬件平臺或參數要求進??動優化08?結構化操作單元:這些單元是模型的基本組成部分,屬于?個全新的設計空間。LFM的設計允許模型在擴展、推理、對?和模型分析??進?優化。圖:LFM在MMLU-pro的測試集成這些加速涌現的創新架構多是在不同程度保留Transformer架構優勢基礎上,結合循環神經?絡(RNN)、狀態空間序列模型(SSM)、卷積模型(CNN)以及液體神經?絡(LNN)等思想所做出的創新發展,這使得不同架構之間的界限越來越模糊,呈現出?益明顯的混合(Hybrid)趨勢,更多性能領先的創新架構具備“博采眾家之?”的特點。同時,?前?多數創新架構雖然能夠在?些?規模性能測試中實現與傳統Tranformer架構同等甚?更優越的性能,但在實際應?層?,仍然有待?業界通過多個超?參數模型作進?步驗證。0902ScalingLaw泛化二、二、ScalingLaw泛化:推理能力成皇冠明珠,倒逼計算和數據變革2020年,伴隨著GPT-3問世,第?代ScalingLaw指引我們在參數量、數據集和計算量之間尋找模型性能的最優解;2024年,擁有強?推理能?的o1讓我們對?模型的要求從迅速?成與訓練結果,轉向在推理過程中進?更深度的思考。最初,我們對Scalinglaw的關注局限于對參數量的思考,甚?引發了對其失效的擔憂;但全新的scalinglaw從狹窄具體的指代衍?到寬泛的概念,并引發了我們對萬卡集群、合成數據和計算資源最優分配的多重關注。我們對ScalingLaw及其泛化在當前AI時代下的關注可被歸納為以下?點:???參數量與計算量膨脹下,帶動萬卡集群以及?性能?絡的建設和發展。數據耗盡危機中,合理善?合成數據成為較優選擇。新時代的ScalingLaw出現,?模型的發展將追求更?的推理能?,資源向Post-training和推理算?傾斜。技術原理我們將從影響兩個模型時代的兩條ScalingLaw出發來探討這個問題:關AI模型領域的ScalingLaw正式被提出要追溯到2020年,OpenAI在論?ScalingLawsforNeuralLanguageModels中總結到,他們發現損失函數(loss)隨著模型??、數據集??和訓練使?的計算量?呈冪律變化。?模型的性能在?定范圍內受其他超參數(如depth、width)的影響很少。在Transformer模型中,ScalingLaw的數學表?通常為:Performance:模型性能(誤差率、準確率等)N:模型規模(參數量、數據量等)α:標度指標(性能隨規模變化的表現)(1)Parameters&Compute:萬卡集群及?性能?絡建設的必要性2020年驚艷亮相的GPT-3是?個175B參數的?模型,?今天我們討論的模型參數量已經是萬億級別。EPOCHAI維護02ScalingLaw泛化著?個從20世紀50年代就開始監測AI和機器學習模型的數據庫,他們發現從2010年到2024年5?,?于訓練模型的計算量每年增?4-5倍,?過去10年間語?模型的性能提升中約有三分之?是由于模型規模的增加。橫軸:Publicationdata縱軸:Trainingcompute(FLOP)例如GPT-4需要使?2.5萬張英偉達A100GPU,并?訓練100天的左右時間,在此期間要處理13萬億個token,并且涉及?約1.76萬億個參數。可以預?的是為了追求更極致的性能和解決更多問題,在參數量的增加和計算需求的增?下,萬卡集群及?性能?絡的建設是必要的。??萬卡集群:由?萬張及以上的加速卡(如GPU、TPU或其他專?AI加速芯?)組成的?性能計算系統?性能?絡:?絡需要?持?帶寬、低延遲的數據傳輸,確保集群中的計算節點能夠?效地通信和協作中國聯通研究院夏璠表?,?性能?絡基礎設施對于?持?規模AI應??關重要。隨著數據量的增加和AI應?的擴展,對?絡帶寬和延遲的要求也越來越?。這種集群將充分整合?性能GPU計算、?性能RDMA?絡、?性能并??件存儲、智算平臺等關鍵技術,將底層基礎設施整合成為?臺超級計算機,以千億級甚?萬億級參數規模的?模型訓練。全球數據中??絡市場預計將在未來五年內以約10%的年復合增?率增?。——明勢創投運營商企業中國電信中國移動中國聯通騰訊字節跳動百度阿?巴巴商湯螞蟻集團天翼云上海臨港國產萬卡算?池呼和浩特萬卡智算中?上海臨港國際云數據中?算?集群HCC、?性能?絡星脈12288卡Ampere架構訓練集群萬卡AI集群阿?云10萬卡量級集群SenseCore商湯?裝置萬卡異構算?集群02ScalingLaw泛化華為科?訊?昇騰AI萬卡集群「?星?號」超萬卡集群算?平臺盡管萬卡集群必然會強調對加速卡的需求,我們在技術上關注的卻應該是集群的互聯。從千卡到萬卡,單卡性能下降8%左右,?前全球范圍內已經有企業開始追求「10萬卡」以上的集群規模,在萬卡到10萬卡的難關中,如何能保持集群的線性度、穩定性,同時保證調度的效率,是下?步所有AI玩家將持續關注的重點。同樣,在ScalingLaw中數據集的規模和表現也會改變模型的性能。現有的開源?模型在?法、架構層?開源的同時,?乎很少涉及到訓練數據集的公開。我們必須要意識到?個問題,也許有?天我們會耗盡現有的數據。有估計稱現有?類公開?本存量約為300萬億個token。按照預測,?語?模型有可能在2026年-2032年之間耗盡這?存量。如果過度訓練,這?時間點將會再度提前。還值得我們關注的?個問題是,數據的質量也許?數量更為重要。例如Apple在研發模型時采?了?常規的3階段預訓練?法,在核?預訓練后降低?絡爬取的低質量數據權重。國內在意識到?質量數據集的重要性后,多次發布對建設?有?質量數據集的指導意?。合成數據(Syntheticdata)則是我們從AI1.0時代就開始尋找的破解之道,在具?智能和?動駕駛等前沿領域得到過部分運?,如今已被?泛引??模型的訓練之中。合成數據是指通過算法或模型?成的?為數據,模擬真實數據的統計特性和分布,但不包含任何真實信息。實際訓練中,我們通常會選擇部分或全部地使?合成數據。明勢創投表?,合成數據的應?突破了傳統的數據獲取和使??式,為解決數據匱乏和隱私問題提供了創新思路,具有較?的創新性和顛覆性。圖:合成數據?成?法,Amazon02ScalingLaw泛化???統計分布:分析真實數據以確定其潛在的統計分布,例如正態分布、指數分布或卡?分布。然后從這些已識別分布中?成合成樣本,以創建在統計學上與原始數據集相似的數據集基于模型:訓練機器學習模型以理解和復制真實數據的特征深度學習:使?深度學習的?式?成?質量的合成數據集。這些?法通常?于更復雜的數據類型,例如圖像或時間序列數據但合成數據是否是應對數據危機的最佳解藥仍值得商榷。?先,真實數據永遠存在相當多的離群值和異常值,合成數據?成算法很少能重現它們。其次,合成數據的引?可能導致模型在訓練過程中出現過擬合,從?影響其在現實世界中的表現。2024年發表在Nature上的?篇研究AImodelscollapsewhentrainedonrecursivelygenerateddata提到他們所完成的?次實驗,使?合成數據9次迭代后就會讓模型原地「崩潰」。更吸引?眼球的結果來?Dohmatob,Elvis等的實驗結果StrongModelCollapse,他們發現即使合成數據僅僅占到總數據集的最?部分,甚?是1%的?例,仍然可能導致模型崩潰。?前?成和使?合成數據的?法在不同模型中都處在探索階段,我們將持續關注這?議題的最終結果。來到2024年,OpenAI有關o1模型的論?OnThePlanningAbilitiesofOpenAI'so1Models:Feasibility,Optimality,andGeneralizability提出了?條全新的ScalingLaw:你賦予模型的推理時間越多,模型的推理能?就越強。盡管沒有披露具體的訓練?法,但其原理是基于強化學習的內化思維鏈學習,通過思維鏈式的問題拆解,使得模型可以不斷驗證和糾錯。當AI擁有更強?的推理能?,不僅意味著在編碼、搜索等任務上能夠幫助??解決更多問題,也會在數學、?物、化學等基礎科學領域,幫助實現突破性的發現。——?榕創投圖:o1在新ScalingLaw下的推理表現,OpenAI這?年,我們確實觀測到規模的增加帶來了基本的推理能?,但這種推理的效果是相對有限的,?o1所完成的,是讓模型在作答前進?“停下來思考”,這?過程需要更多的計算資源,因此被稱為“推理時計算”。停下來思考這?狀態的實現,正是我們?直想教會模型的模式,即更直接地進?推理。02ScalingLaw泛化o1?幅度增強了?模型的邏輯推理能?,使?模型從系統1提升到系統2,?幅度加速AIAgent落地可能性。——王晟,英諾天使基?合伙?以o1為代表的Inferencescalinglaw使得模型推理能??幅提升,在GPQA這樣的?類專家benchmark上已經超過?類PhD?平。推理能??幅提升可以顯著減少幻覺,提?Agent類?物的能?。——戴?森,真格基?管理合伙??語?模型的推理能?通常涉及到?種不同的技術或概念,包括思維鏈(ChainofThought,CoT)、思維樹(TreeofThought,ToT)和思維圖(MapofThought,MoT)。???思維鏈(ChainofThought,CoT):模仿了?類解決問題時的思維過程,即先分析問題,然后逐步推理,最后得出結論思維樹(TreeofThought,ToT):更為結構化的推理?法,它將問題分解為多個分?,每個分?代表?個可能的推理路徑或假設思維圖(MapofThought,MoT):視覺化?具,?來表?不同概念、事實和推理步驟之間的聯系(2)后訓練(Post-training)的轉變從前的預訓練遵循?個已經被深刻理解的法則:你在預訓練模型上投?的計算資源和數據越多,它的表現就越好。但新的ScalingLaw—Post-trainingScalingLaw的出現已經引發?業對于算?分配、后訓練能?的重新思考。后訓練通常包括微調(Fine-tuning)和對?(Alignment)。新的模型想要提升能?,除了在預訓練階段,還可以在后訓練階段,通過提升強化學習(ReinforcementLearning)訓練的探索時間和增加模型推理的思考時間來實現性能的提升。o1激發了當前時代的?模型開發者對提升?模型數學和推理能?的興趣,這很?程度上就意味著擴?后訓練的規模。tPreprocessiPre-???本階段Long-contextstage??繼續預訓練Continuedpre-training?質量階段High-qualitystage???知識蒸餾Knowledgedistillation??????Post-Optimizati監督微調Supervisedfinetuning(SFT)withhumanfeedback(RLHF)直接偏好優化Directpreferenceoptimization(DPO)在線/離線(處理)Online/offline知識蒸餾Knowledgedistillation最近的研究使?了不同的?法把結果的獎勵信號傳遞到?模型的各個推理過程中:02ScalingLaw泛化AppleIntelligenceFoundationGemma2Llama3.1Qwen2Post-training:SFT+RLHFPost-training:SFT+RLHF其中,其中他們?于RLHF的模型??標模型??倍,使?WARP(WeightAveragingforRewardPrediction)對?標模型進?平均Post-training:SFT+拒絕采樣+DPOQwen2的Alignment也分為2部分:DPO(離線)+拒絕采樣(在線)拒絕采樣似乎已成為后訓練階段的常?做法,但現階段并沒有在選擇DPO或RLHF??達成共識。然?強化學習的思路貫穿始終,Meta仍為Llama的后訓練開發了獎勵模型。模仿學習+強化學習成為典型AI模型發展路徑范式。本質上是數據的稀缺與否及質量?低的問題,數據多就優先模仿學習,數據少就優先強化學習(可?我產?數據),最終是綜合兩種類型的算法技術以產?更強?的能?。——陳?,峰瑞資本合伙?如今,我們意識到RLHF起的作?遠超已經IFT(InstructionFine-Tuning),需要將更多的預算放在后訓練階段上。隨著我們對?模型推理能?的更?追求,和對后訓練階段的更多投?,未來有可能推理端的算?將會超過訓練端。盡管當前推理算?還沒有超過訓練算?,但推理成本已經超過了訓練成本。畢竟訓練成本是?次性成本,?推理需求將隨著模型復雜度、??數量和每??查詢次數的增加?繼續增?。明勢創投表?,在?規模部署AI服務的背景下,推理成本成為主要開?來源,市場對降低推理成本的需求強烈。值得?提的是,ScalingLaw并?是嚴格的?然法則,?是?類基于經驗觀察得出的趨勢性規律,它的價值往往在對未來提供?向性的指導。新舊ScalingLaw的應?和泛化將調整我們對資源配置和技術重?的看法,并創新出更為強?的新?代AI和模型。三、AGI探索:視頻生成點燃世界模型,空間智能統三、AGI探索:視頻生成點燃世界模型,空間智能統虛擬和現實Sora的?熱激發了國內外許多模型在視頻?成領域的應?,產出了在影視、營銷等?業具有可落地商業價值的AI應?; “?個視頻模型”之爭也引發了?動駕駛領域基于??優勢,對世界模型的研究和探索;?能夠帶來更好的?動駕駛體驗的世界模型,事實上也能夠作?于機器?領域;引發諸多討論的空間智能概念,與我們?直探索的空間計算、具?智能密不可分……在AI改變我們的?活、真正觸摸復雜世界的過程中,?類也從未停?對AGI的探索。技術原理擴散模型?前已經在圖像?成、圖像超分辨率和圖像編輯等任務中取得了顯著成果,并逐漸取代了基于?成對抗?絡(GAN)和變分?編碼器(VAE)的?法,在視頻合成任務中展現出巨?潛?,成為?前視頻?成的主流技術路徑。擴散模型(DiffussionModel)是?類概率?成模型,主要通過學習逆向過程來?成數據。圖:ASurveyonVideoDiffusionModels,上海市智能視覺計算協同創新中?本輪視頻?成熱潮中,最受矚?的是將Transformer架構引?到擴散模型中的DiT(DiffusionTransformer)模型,極強地提?了圖像?成的質量。DiT的核?思想是利?Transformer的強?建模能?,替換傳統擴散模型中常?的U-Net結構,從?在潛在空間上操作,?成?質量的圖像。其圖像?成流程是基于?種混合的?法,使?卷積VAEs和基于Transformer的DDPM(Denoising DiffusionProbabilisticModels),重點是訓練圖像的DDPM,特別是圖像的空間表?。圖:ScalableDiffusionModelswithTransformers,UCBerkeley、NewYorkUniversityDiT的技術原理基于以下?個關鍵點:擴散模型Transformer架構潛在補丁條件?成可擴展性訓練效率DiT建?在擴散模型的基礎上,這是?種?成模型,通過模擬?個逆向過程來?成數據。在DiT中,這個逆向過程由Transformer來實現Transformer以其?注意?機制?聞名,能夠捕捉序列數據中的?距離依賴關系。在DiT中,圖像被分割成多個patches,這些補丁被嵌?到?個序列中,然后通過Transformer塊進?處理DiT不是直接在像素空間上操作,?是在來實現的,這個表?被分割成多個補丁,每個補丁作為?個序列元素輸?到Transformer中DiT?持條件?成,這意味著它可以在?成過程中使?額外的信Transformer的輸?序列中,以引導?成過程DiT的設計允許其通過增加模型的深度、寬度或輸?補丁的數量來擴展。DiT在訓練過程中表現出了?效率。由于Transformer的并?化能?,DiT可以利?現代DiT的提出,不僅推動了?成模型技術的發展,也為未來的研究提供了新的?向。隨著研究的深?,DiT或其變體已經被應?于視頻?成,以及藝術創作、游戲開發和虛擬現實等領域。隨著模型規模的增加和訓練技術的改進,DiT有望在未來實現更加驚?的?成效果。在視頻?成領域,除了DiT之外,還有其他?種混合架構取得了顯著的進展。這些架構結合了不同的模型特性,以提?視頻?成的質量和效率。Transformer+3D卷積?絡?回歸模型+TransformerVAE+擴散模型GAN+擴散模型TimeSformer交叉注意?機制?些研究?作探索了將Transformer與3D卷積?絡結合的架構。3D卷積?絡擅?捕捉視頻的時?Transformer能夠處理?距離依賴關系。這種混合架構能夠同時利?兩者的優勢,提?視頻?成的連?回歸模型如PixelRNN或PixelCNN在像素級別上?成數據,?Transformer則能夠處理序列數據。將兩者結合可以?成?質量的視頻內容,同時保持對?在DiT的基礎上,學者們進?步探索了將變分TimeSformer是?種專?為視頻理解任務設計的Transformer架構,它通過將時間維度融?到標準的Transformer架構中,有效地處理視頻數據。這種架構可以?于視頻?成任務,?成具有時空?致性的在Transformer架構中引?交叉注意?機制,可以使模型在?成視頻時更好地利?額外的上下?信息,如?本描述或對象標簽,從??成與這些上下?這些混合架構的共同?標是在保持視頻?成質量的同時,提?模型的計算效率和靈活性。隨著研究的不斷深?,我們可以預?未來將會出現更多創新的混合架構。我們再次回到引爆「視頻?成」熱潮的模型Sora。OpenAI在介紹中稱Sora是“WorldSimulator”,?在Sora上線的第?時間埃隆·?斯克即表?,Tesla?約在?年前即能?成符合物理學的有關真實世界的模型(Real-worldvideogenerationwithaccuratephysics),這?討論?將世界模型(WorldModel)的概念引??眾視線。OpenAISora通過結合擴散模型與Transformer模型,能夠模擬真實世界中的?、動物和環境。這種能?使其在?本到視頻(T2V)領域中獨樹?幟,能夠根據?本提??成逼真的視頻內容。時間?度與時序?致性:Sora能夠?成?達60秒的視頻,且在維持視頻內容的時間連續性和邏輯?致性??表現出?,這在以往的??視頻模型中是難以實現的。真實世界物理狀態模擬:Sora展?了?系列引?注?的涌現能?,這些?為不是預設的規則,?是模型通過學習?量數據后?然涌現的能?。AI在現實世界的應?正在從虛擬世界逐漸擴散?物理世界。2024年談到世界模型更多是在智能駕駛領域,本年度國內領先的量產智能駕駛玩家蔚來、理想等都提出了有關世界模型的設想和布局。(1)世界模型(WorldModel)論?RecurrentWorldModelsFacilitatePolicyEvolution(DavidHa,JirgenSchmidhuber,2018)可以幫助我們理解什么是世界模型:圖中的VisionModel(V)將?維觀測轉為低維向量,MemoryRNN(M)是序列預測下?個時刻的表征,在這樣基本的序列預測中增加?個輸?action,讓數據分布?由變化。事實上,世界模型反映了?久以來許多AI研究?員對model-basedRL?作的?奈和期待:模型不夠準確,那么完全在模型?訓練的強化學習效果就不好;如果能獲得準確的世界模型,就能在世界模型中反復試錯,找到現實的最優決策。由此,我們可以從需求出發來定義世界模型:完全地理解這個世界就是世界模型要?的事。——任少卿,蔚來智能駕駛副總裁正如為何特斯拉會在?年前就開始布局有關真實世界模型的相關?作,「?對數據中沒有?過的決策,使?世界模型推理出決策成果」這?要點,和?動駕駛領域實現L5的?標息息相關。當前,世界模型?向上的?作正?泛地采??動駕駛領域的數據和場景進?實驗。RenderWorldDriveOccWorldBEVWorldOccLLaMADriveDreamer-2WorldDreamer僅?持視覺的端到端?動駕駛框架,它使?基于?監督?斯的Img2Occ模塊?成3D占?標簽,然后通過AM-VAE對標簽進?編碼,并使?世界模型進?預測和規劃使?LAtentWorldmodel,根據預測的???為和當前框架的潛在特征來預測未來的潛在特征它基于前作(DriveDreamer)的框架,結合了?個?型語?模型來?成??定義的駕駛視頻培養對?般世界物理和運動的全?理解,從?顯著增強視頻?成的能?;WorldDreamer從?型語?模型的成功中汲取靈感,將世界建模定義為?監督的早期的世界模型很多出現在機器?領域,任少卿提到“?動駕駛是泛機器?領域/世界模型的框架也能做機器?”。具?智能是指?種基于物理?體進?感知和?動的智能系統,其通過智能體與環境的交互獲取信息、理解問題、做出決策并實現?動,從?產?智能?為和適應性。Sim2Real(simulationtoreality)和在真實世界中采集具?交互的數據并學習是研究具?智能的兩條思路。清華智能產業研究院(AIR)表?:將真實環境數字化和仿真器模擬的?為學習結合起來,形成Real2Sim2Real(RSR)的閉環連接,能更有效地利?交互數據和真實環境的反饋,加速智能系統的實際部署與落地。與去年相?,許多具?智能玩家在2024年都推出了??的?款?形機器?,但更多玩家開始關注機器?在具體產業鏈20上能有什么樣的位置和發展空間。這不僅意味著與過去?年相?,?形機器?的概念變得?分可觸及,同時也表明具?智能這?領域,正在轉向對當前?類來說更有價值的落地和應?。?項明顯特征是,在完成了??、避障等基本功能后,具?智能玩家紛紛開始研發靈巧?,逐個攻克具?智能難題:騰訊RoboticsX實驗室星動紀元XHand靈巧?具有12個主動?由度,采?全驅動?案,能夠實現多?向的運動,從?模仿?類?部的靈?巧?LinkerHand銀河通?傲意科技帕西尼感知科技智元機器?1XTechnologies,2014年于挪威成?,專注于開發和?產能夠模仿?類?為的機器?,以增加全球的?類勞動?。NEO:專為家庭使??設計的雙??形機器?,1X基于視頻?成和?動駕駛世界模型領域的進展,訓練出了?個世界模型,作為其機器?的虛擬模擬器。模型可以理解接觸到的物理世界并?成?保真視頻,使機器?可以在??的神經空間中執?規劃、評估和模擬操作。EVE:輪式機器?,2020年即取得商業化進展,為美國商業場所提供安保服務。1X強調其機器?集群協作,展?了?個?通過簡單的語?命令指揮多個機器?執??系列動作的能?。21在經歷了?整年有關具?智能概念、投融資的熱潮后,與其相關?不完全相似的空間智能概念?被李??提起。空間智能是指機器在三維空間和時間中感知、推理和?動的能?,幫助它理解事物在三維空間中的位置及交互?式。—李??在徹底理解空間智能之前,我們可以回顧在2023年度報告中提及的重要科技趨勢空間計算:空間計算是?項將物理世界與數字內容融合的技術體系,根據其涉及的不同層次,可以分為基礎設施層、數據層和交互層:基建層:?持空間計算的硬件和?絡基礎??設備:蘋果的VisionPro提供了?性能的AR顯?、光學傳感器以及精準的跟蹤功能,配備先進攝像頭和處理器?絡:?速度、低延遲的5G和Wi-Fi6E?絡正加速實時交互的實現,尤其適?于移動設備和協作應?;?歌云等云服務商正在開發“邊緣AI”基礎設施,將AI模型更貼近??,從?減少延遲、提升空間計算應?的實時能?AppleVisionPro作為蘋果公司推出的?款空間計算設備,實現了數字內容?縫融?現實世界,通過其?命性的產品設計和技術創新,開啟了空間計算的新時代。?然輸??式:VisionPro采?了?種稱為“?然輸?”的交互模型,這種模型使?眼睛和?的組合進?輸?,??只需看著?標并點擊?指即可進?交互。空間操作系統visionOS:VisionPro搭載了蘋果?款為空間計算所打造的操作系統visionOS,它包括了全新的實時執?引擎、動態注視點渲染管線以及對原?空間體驗的?持。22數據層:負責空間數據的收集、處理和管理?空間映射和計算機視覺:實時映射和物理環境的解讀,使應?程序能夠將虛擬物體置于物理空間中?數字孿?:通過集成物理模型、傳感器更新、運?歷史等數據,在虛擬空間中完成映射交互層:??直觀地與虛擬和物理世界互動?沉浸技術(XR):主要包括增強現實(AR)、虛擬現實(VR)和混合現實(MR),他們?前仍是空間計算概念落地的核?技術,AR將數字元素疊加在現實世界中,VR創建完全虛擬的空間,MR則是兩者的混合;?前具體相關產品存在視頻透視(VST)和光學透視(OST)兩種技術路徑?觸覺反饋和感官界?:設備的觸覺反饋增加了沉浸感,混合現實頭戴設備和觸感?套能在虛擬環境中創造?度真實的互動??語?和?勢識別:得益于AI的?持,這些技術允許???需動?即可控制數字元素?Rokid2024年11?18?,Rokid聯名暴?眼鏡推出消費級AI+AR眼鏡RokidGlasses。AI+AR全新交互?式:RokidGlasses基于衍射光波導成像技術實現AR效果,同時深度整合阿?巴巴旗下通義千問?模型AI能?,融合AI+AR技術,可以通過語?和視覺交互實現物體識別、實時翻譯、定位導航、購物?付多種任務,?縫融合現實世界。硬件“減負滿配”:RokidGlasses將主板、電池等核?組件集成于框架之中,重量僅49g,提升舒適度及便攜性。同時配備?顆1200萬像素專業級攝像頭,搭載了第?代驍??AR1平臺,配合2GBRAM+32GBR蘋果發布的VisionPro就是?個典型的空間計算設備。李??認為,與其不同的是,空間智能將成為增強現實和虛擬現實的操作系統。通過?成完整可交互的三維世界,真正解鎖機器在三維世界中的智能能?。同時,具備三維感知、推理和?動能?的機器?能徹底改變我們與世界的交互?式。毫?疑問,空間智能的野?正在于將空間計算操控虛擬世界的本領和具?智能觸達現實世界的能?結合起來,這將涉及到?量的數據處理、模型訓練以及如何在現實場景有效地部署這些技術。最終,從視頻?成到世界模型、從具?智能到空間智能,我們始終都在追尋?個問題——AGI,極致的AI,極致的通?,虛擬與真實世界的合?為?。23AI205(?)20+細分賽道/25(?)五?使?場景/32AIAI(?)APP端數據分析/35(?)Web端數據分析/39(三)量?位智庫AI100/421.綜合AI100/432.原?AI100/44AIAI+X???????AI????(?)辦公軟件類AI+X產品/46?AI?????Agent???????????(?)?AI?????Agent???????????(?)多模態/50(?)Agent化/51(三)?度個性化/52國國AI趨勢一大博思?板boardmixNotionAIMonicaAI訊?智?WPSAI360AI瀏覽器簡單AI靈辦AI?悟空萬知?畫桌魔搭社區騰訊AI開放Dify?包Kimi智能助?百?應躍問創腦百度AI助?Sensechat360魔搭社區騰訊AI開放Dify開搭QAnything華為開搭QAnything華為CoLingo暢問AIAI?聚天書AI萬能?in??道Luca靈?助?曉象CoLingoAI新媒體?章光速寫作新華妙筆公?寫作5118SEO寫作copydone??果寫作??AI寫作夸克CueMe?字游俠媒幫派偽原創蛙蛙寫作訊?iMuse.aiMotiff妙多暗殼AI阿??班千圖設計室萬相營造千?設計助???包裝設計造物云AI奇LibLibAIFotorViduPixverse萬興喵影HiDream.aiBoolvideo模?視頻FusionX引擎度加創作?具閃剪AI??視頻快?可靈VegaAI智譜清影SkyReelsP??剪輯EtnaClipfly?幀妙創尋光藝映AI炫變換臉巨?祿騰訊智影AI應用格局:第輪洗牌結束,聚焦20賽道5大場景基于對全國現有AI產品(包含Web端和APP端)的梳理總結,我們在國內共統計到了千余款產品。為了更好地從數據維度觀察國內產品的現狀,我們結合產品具體功能、使?體驗、運營狀況和??數據等因素,從中選取了四百余款具有代表意義的產品進?進?步統計研究。這400款產品全?覆蓋了20余個細分賽道和五?場景,全?滲透個??產?、休閑娛樂和?常?活等多維度。(一)20+細分賽道具體包含AI智能助?、AI陪伴、AI相機、AI寫作、綜合類套件、AI修圖、AI視頻、AI教育、AI?樂/?效、AI設計、AI?圖、AI搜索、AI圖?、AI總結和AI翻譯共計20個賽道。根據產品數量可以分為三?梯隊。第?梯隊第?梯隊第三梯隊AI搜索(19款)、AI相機(19款)、AI?樂/?效(17AIAgent(12款)、AI教育(10款)國由于Web端和APP端適?于不同場景,在兩種使?形態下的產品賽道數量分布有所差異。在APP端的166款產品中,產品數量最多的賽道依次為AI智能助?、AI陪伴、AI相機、AI寫作和綜合類套件。?在Web端的230款產品中,產品數量最多的賽道則依次為AI智能助?、AI寫作、AI視頻和綜合類套件。國AI搜索4%AI?圖4%AI設計4%AI?樂/?效6%AI教育6%AI視頻6%AI修圖8%共23款AI陪伴12%共19款AI相機10%共16款AI寫作9%共14款綜合類套件9%共13款注:量?位智庫出品并保有最終解釋權。產品統25國國AI?樂/?效4%…AIAgent5%12款AI開發平臺AI陪伴AI翻譯共25款綜合類套件8%共19款AI設計10%共22款AI?圖13%共29款AI搜索7%16款AI寫作11%共25款AI視頻10%共23款注:量?位智庫出品并保有最終解釋權。產品統以下是對各代表賽道的詳細分析:AI智能助?是?前表現最突出的AI原?類產品,也是國內?模型?研?商技術實?最直觀的體現。?前各產品間的功能差異較?,普遍包含對話交互、AI搜索、AI寫作、數據分析等功能。?在收費??,尚未形成明確的收費模式和付費意愿。僅有????明確進?會員收費,?Kimi智能助?則是打賞式收費,智譜清?和天?AI分別針對視頻及?樂?成功能進?收費。從APP端來看,2024年5?成為關鍵分?嶺,各家?模型?商的AI智能助?登場完畢,產品間開始明顯分化,形成了 “1+1+6”的格局。第?名?包在規模、增?、活躍、留存等各項數據上均斷層式領先,?今仍保持著全?加速增?,也在9?成為國內?個總下載過億的原?AI產品。24年10?,?包累計下載量超1.4億,當?新增下載量超2000萬。Kimi智能助?雖然位居次席,但市場領導地位同樣明顯。第三梯隊的6則指:???、智譜清?、訊?星?、天?AI、阿?通義、騰訊元寶和海螺AI。?在Web端,頭部產品為Kimi智能助?和????,?訪問量均超過2000萬。?包和阿?通義?訪問量則超過1000萬。從2024年5-10?的??規模數據來看,AI智能助?在Web端已經出現了明顯的梯隊劃分:快速增?平穩增?基本持平Kimi智能助??包海螺AI躍問26圖:Kimi智能助?(左)和?包(右)的Web端界?總體來看,我國的AI智能助?與海外仍有相當距離,對標產品ChatGPT在Web端的?訪問量超36億,Gemini?訪問量超2億,Claude數據超8000萬,差距超過5倍。國內頭部產品為秘塔AI搜索和知乎直答,?總訪問量分別超過600萬和300萬,均推出了簡潔、深?、研究、專業等多種搜索模式,并?持??通過上傳?件構造個性化搜索引擎。此外,天?AI等AI智能助?也普遍提供AI搜索功能。國外典型對標產品Yandex?訪問量過億,Perplexity訪問量超9000萬。27從具體產品定位上可以分為AI加強搜索、原?類AI搜索和業務類AI搜索。AI加強搜索原?AI搜索業務AI搜索以AI搜索為產品核?的AI原?產品。代表包括:秘塔AI搜索、ThinkAny、GenSparMetaLaw、Devv.ai和C知道等針對特定領域的垂直AI搜索在內容平臺類原有業務上,疊加AI搜索功能的產品。代表包括:知乎直答、bilibliAI搜索助?、?紅書的達芬奇/搜搜薯等。這種結合不僅增強了平臺作為搜索引擎的功能性,也提升了??在特定內容平臺的使?體驗從功能來看,量?位智庫按照使?者和AI智能體的交互強度,將AI陪伴產品分為輕交互、中交互和強交互產品。所有產品基本均有??扮演的成分。輕交互產品中交互產品強交互產品對較少,AI智能體的回應不會出現過多“驚喜”AI陪伴也是眾多公司布局AI原?應?的重要選擇。包含?冰科技、?線球科技、Minimax、階躍星?、有零科技在內的20家AIGC公司共推出了21款產品。由于AI陪伴產品在功能上和??扮演游戲、?劇、??、社交,乃??理咨詢等業務深度重合,許多垂直賽道玩家,例如順?科技、曉悟智能、閱?集團、Soul、?紀源等也紛紛進?這?領域。28國內產品在新增速度和??活躍等數據上普遍下滑。?全球范圍內,CharacterAI、JanitorAI、Crushon、Talkie的熱度持續已超過?年。其中,CharacterAI??端MAU可上億,APP端MAU則超過兩千萬,國內MAU最?的星野在APP端數據僅約為其?分之?,這?數據表現在國外勉強進?前?。經過和海外產品的深?對?,量?位智庫認為關鍵在于國內產品缺乏對深度情感鏈接的探索。CharacterAI、Replika等海外產品更注重個性化和深度情感交流,追求具有獨??格和復雜情感反應的AI形象。?國內市場則更傾向于短期的趣味性互動或娛樂化的陪伴功能,產品滿?的需求過于淺層,同類產品間可替代性強,難以讓??深?探索。在功能上,AI寫作?多提供“?鍵式成?+深度AI編輯”的綜合?式。在?鍵成?時,使?者提供主題或關鍵信息后,AI可以根據模板直接產出整段?字。?深度AI編輯功能則更類似Copilot,能夠在成?過程中提供?本潤?、續寫擴寫、校閱勘誤、?格轉化、靈感激發、降重偽原創等輔助功能。?前,AI寫作已經成為?產?類?具的標配AI功能。百度?庫、WPSAI、博思Boardmix等綜合類?具均將AI寫作結合????作流。此外,AI助?類?具也均能滿?輕量級的常?寫作場景,例如撰寫周報、起草發?稿等。許多垂直賽道的產品,例如游戲+AI、營銷+AI,甚?特定賽道的綜合性?商,也會基于業務特?和數據中臺,提供相關的AI寫作服務。AI+圖像可以具體分為AI?圖、AI設計、AI相機、AI修圖四個細分領域,?前在B、C兩端普遍得到明確的需求驗證。在Web端,AI視覺設計成為最受歡迎的細分賽道,AI繪畫和AI修圖緊隨其后。?在APP端,AI相機的數據?壓AI陪伴,成為2CAIGC產品中的?熱?類。AI視覺設計類產品分為兩類,?類為平?設計相關,具體包含海報、設計概念圖等,代表產品包括稿定AI、美圖設計室和圖怪獸。另?類則是進?步功能細分的產品,包括主打圖?排版設計的135AI排版助?和主打UI設計的即時AI。Logo設計表現突出,?選產品包括標?智logo、標智客AILogo和U鈣?。29AI?圖產品?多結合了AI摳圖、清晰度提升等AI修圖功能,?站式提供可?素材,?前2D?平?圖/多視?圖和3D?成模型領域均有代表產品出現。代表產品包括LiblibAI、Meshy、即夢AI、?限畫、???格、神采PromeAI、WHEE和奇域AI等。AI修圖在Web端可分為素材處理和批量修圖兩類。利?AI進?摳圖、提?分辨率,進?快速預處理素材已經成為業內技巧,代表產品有佐糖、Fotor和AI改圖。?批量修圖在會議跟拍和?像攝影中基本成為?業標配。代表產品有像素蛋糕、百度?盤AI修圖、美圖云秀。?在APP端,畫質提升和智能摳圖成為主流功能。美圖秀秀、醒圖、Wink等頭部修圖產品均已?規模深度植?AI修圖功能。AI相機在Web端和APP端呈現出了明顯差異。Web端主要為電商2B的AI商拍,具體包括虛擬模特和虛擬商品圖。使?者可以將?底商品圖或?臺圖進?上傳,產品會根據所需的模特姿勢、背景氛圍等?成可直接使?的商品詳情圖。代表產品包括美間AI創意商拍、Weshop唯象妙境、繪蛙等。APP端以「妙鴨相機」類2C娛樂向的?像攝影產品為代
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 車輛過戶及車輛購置附加費合同
- 拆除工程拆除物鑒定及環保處理合同
- 餐飲業特色小吃車租賃合同范本(含移動攤位使用權)
- 綠色能源項目場地無償使用合同
- 挪威留學保險服務合同范本
- 車隊燃油安全供應及風險管理合同
- 別墅銅門定制安裝與后期保養保障合同
- 智能家居系統研發采購意向書
- 車輛保險理賠后產權轉讓合同范本
- 餐飲行業品牌授權與股權合作協議書
- 軍人優待金委托書
- 2024年廣東省廣州市中考英語試卷附答案
- 大學生英語四級真題模擬試卷5份
- 2024年江蘇省蘇州市中考生物試卷(含答案)
- 山東省淄博市臨淄區2023-2024學年七年級下學期期末地理試題
- 大學《醫學統計學》期末復習章節知識點、考點總結
- 2024年中考理化生實驗操作考試安全應急預案
- 鼻淵護理常規課件
- MOOC 電工電子學-浙江大學 中國大學慕課答案
- MOOC 財務報表分析-華中科技大學 中國大學慕課答案
- 師帶徒培養方案范文
評論
0/150
提交評論