




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
01
了解大語言模型.................................................................................................
02?
1.1
LLM,大在何處.......................................................................................................................................................................
02?
1.2
LLM
的發(fā)展歷程.....................................................................................................................................................................02?
1.3
LLM
的核心應(yīng)用場景.............................................................................................................................................................
04?
1.4多模態(tài)LLM.................................................................................................................................................................................................0502
訓(xùn)練大語言模型.................................................................................................
07?2.1Transformer網(wǎng)絡(luò)架構(gòu)...........................................................................................................................................................
07?2.2預(yù)訓(xùn)練和微調(diào)...........................................................................................................................................................................08?2.3籌備訓(xùn)練環(huán)境..........................................................................................................................................................................0803
了解
GPT..........................................................................................................................?3.1GPT
的優(yōu)化..............................................................................................................................................................................10?3.2GPT
的主要應(yīng)用場景.............................................................................................................................................................
1204
簡單易上手的Copilot...........................................................................................?4.1生產(chǎn)力輔助...............................................................................................................................................................................14?4.2創(chuàng)意工具...................................................................................................................................................................................
15?4.3開發(fā)輔助...................................................................................................................................................................................1605
總結(jié)
............................................................................................................................目
錄TABLEOFCONTENTS1018141
LLM的發(fā)展歷程雖然近些年才逐漸興起,但LLM并非新技術(shù)。早在20世紀(jì)90年代,就已經(jīng)出現(xiàn)了以信息論和概率論為基礎(chǔ)的統(tǒng)計(jì)語言模型。隨著深度學(xué)習(xí)技術(shù)的誕生和崛起,以及計(jì)算機(jī)硬件算力飛速提升,這種模型變得愈加復(fù)雜,進(jìn)一步催生出基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長短期記憶網(wǎng)絡(luò)(LSTM)的自然語言處理技術(shù)。2018年,基于Transformer的雙向編碼器表示技術(shù)(BERT)誕生,這標(biāo)志著預(yù)訓(xùn)練語言模型時(shí)代正式到來。通過用大量文本進(jìn)行預(yù)訓(xùn)練,然后圍繞特定任務(wù)進(jìn)行微調(diào),
BERT顯著提高了多種自然語言處理(NLP)任務(wù)的性能。隨后,OpenAI發(fā)布的GPT(Generative
Pre-trained
Transformer,生成式預(yù)訓(xùn)練Transformer)系列模型及廣為人知的ChatGPT,進(jìn)一步將生成式AI技術(shù)帶到了每個(gè)人面前。擅長處理和生成自然語言類內(nèi)容的大語言模型(Large
Language
Model
,LLM)已成為人工智能(AI)技術(shù)領(lǐng)域的一個(gè)重要發(fā)展方向。LLM
是一種基于深度學(xué)習(xí)技術(shù)的
AI模型,可通過分析大量文本數(shù)據(jù)來學(xué)習(xí)語言的結(jié)構(gòu)與規(guī)律,從而執(zhí)行多種任務(wù),如文本生成、語言翻譯、情感分析等,目前已經(jīng)在越來越多的領(lǐng)域?qū)崿F(xiàn)了極為廣泛的應(yīng)用。
LLM,大在何處大語言模型的“大”通常主要體現(xiàn)在三方面: 參數(shù)數(shù)量:參數(shù)是指模型內(nèi)部的變量,決定了模型的復(fù)雜度和表示能力。參數(shù)多通常意味著模型能捕捉更復(fù)雜的
模式和關(guān)系。。
訓(xùn)練數(shù)據(jù):LLM通常需要通過大規(guī)模文本數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)包含豐富的語言信息,可幫助模型學(xué)習(xí)更準(zhǔn)確的語
言表示。
計(jì)算資源:訓(xùn)練LLM通常需要大量算力,包括高性能GPU或TPU,以及分布式環(huán)境。了解大語言模型201生成式AI
技術(shù)是深度學(xué)習(xí)的直子集,可通過學(xué)習(xí)大量訓(xùn)練數(shù)據(jù),理解其內(nèi)在模式和規(guī)律,然后根據(jù)這些模式和規(guī)律生成新的內(nèi)容。生成式
AI
技術(shù)的應(yīng)用范圍非常廣泛,
包括圖像生成、音樂創(chuàng)作、文本生成等。02
總的來說,可以認(rèn)為
NLP是一個(gè)廣泛的研究領(lǐng)域,生成式AI技術(shù)是一類技術(shù),而GPT則是生成式AI技術(shù)在
NLP領(lǐng)域的一種具體應(yīng)用。摘自《大語言模型原理、訓(xùn)練及應(yīng)用(基于GPT)》,機(jī)械工業(yè)出版社出版NLP
是AI
領(lǐng)域的一門學(xué)科,主要目標(biāo)是讓計(jì)算機(jī)理解和生成人類語言。NLP涵蓋了從語法解析和詞義理解,到情感分析和文本生成等一系列復(fù)雜任務(wù)。NLP
的研究和應(yīng)用催生了機(jī)器翻譯、語音識別、情感分析等各種實(shí)用的系統(tǒng)和應(yīng)用。G0PT則3是生成式AI技術(shù)的一種,它是目前處理
NLP問題最先進(jìn)的技術(shù)之一。盡管GPT最初是為處理NLP問題開發(fā)的,但其實(shí)也可用于生成圖像、視頻等內(nèi)容。
生成式
AI技術(shù)、NLP、GPT,這三者有何關(guān)系?304
語義搜索通過用海量文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,讓LLM
模型學(xué)習(xí)語言的復(fù)雜結(jié)構(gòu)和豐富的語義信息,從而捕捉到詞匯的多種
含義、上下文的細(xì)微差別以及語言的隱含關(guān)系。因?yàn)榭?/p>
以理解用戶查詢的深層含義,因此相比傳統(tǒng)的基于關(guān)鍵
詞的搜索,LLM
的語義搜索能提供更精準(zhǔn),相關(guān)性更高
的搜索結(jié)果。03
代碼生成基于對語言結(jié)構(gòu)和編程語言的理解能力,通過訓(xùn)練學(xué)習(xí)大量自然語言文本和源代碼數(shù)據(jù),可以讓LLM
掌握編程
語法規(guī)則、代碼模式以及實(shí)現(xiàn)不同功能的典型方法,從
而生成代碼片段,甚至幫助軟件開發(fā)人員完成更復(fù)雜的
編程任務(wù)。01
內(nèi)容創(chuàng)作在這些任務(wù)中,LLM通常要根據(jù)輸入(如關(guān)鍵詞、摘要、提示等)生成一段符合要求的文本。這個(gè)過程需要處理
很多復(fù)雜問題,如信息組織、語句表達(dá)、邏輯推理等。
通過訓(xùn)練,LLM
模型可以學(xué)習(xí)這些問題的規(guī)則和模式,
從而生成高質(zhì)量文本。
LLM的核心應(yīng)用場景作為AI
技術(shù)的重要分支,LLM
的應(yīng)用極為廣泛,可覆蓋幾乎所有語言處理任務(wù),目前該技術(shù)已經(jīng)在多個(gè)應(yīng)用場景發(fā)揮著至關(guān)重要的作用。一般來說,LLM在下列四大核心能力方面的表現(xiàn)尤為突出:02
摘要生成使用
LLM
從較長的文本中提取關(guān)鍵信息并生成簡潔摘要,主要目的是壓縮信息,幫助用戶快速了解文本主旨,節(jié)約閱讀和理解原始文本所需的時(shí)間。Q%4<
>@?
多模態(tài)LLM隨著LLM
不斷發(fā)展,它的能力已經(jīng)遠(yuǎn)遠(yuǎn)超越了傳統(tǒng)NLP
領(lǐng)域,拓展到多模態(tài)場景的應(yīng)用方面。多模態(tài)是指結(jié)合了文本、圖像、
聲音等多種數(shù)據(jù)類型的處理能力,這種跨越使得LLM不僅能理解和生成文本,還能與圖像、視頻等非文本數(shù)據(jù)進(jìn)行交互。不同感官形式的技術(shù)進(jìn)步為人機(jī)交互和信息理解開辟了新的維度。以CPT-4o為代表的LLM
模型則在圖像和視頻內(nèi)容的理解方面實(shí)現(xiàn)了巨大飛躍。GPT-4o的核心能力在于跨模態(tài)理解:即不僅能處理文本數(shù)據(jù),還能解讀視覺內(nèi)容。這意味著GPT-4o可以接收圖像或視頻作為輸入,并生成詳細(xì)的描述,識別場景中的對象、動(dòng)作、情感以及它們之間的相互作用。例如,對于街頭監(jiān)控視頻,CPT-4o能描述人物行為,識別可能的安全事件,甚至預(yù)測接下來可能發(fā)生的情況。以DALL·E為代表的文生圖是一種創(chuàng)新的應(yīng)用。在這種技術(shù)幫助下,用戶只需提
供一段描述性文本,就能讓LLM
結(jié)合視
覺生成模型創(chuàng)造出與描述文本相匹配的
圖像。這種能力在藝術(shù)創(chuàng)作、產(chǎn)品設(shè)計(jì)、
教育等領(lǐng)域具有巨大潛力。此類技術(shù)的
出現(xiàn),不僅證明了
LLM
在文本處理之外
的潛力,也為AI
技術(shù)創(chuàng)意工作提供了一
個(gè)令人興奮的范例。
圖片與視頻理解
文生圖5語音轉(zhuǎn)文字是LLM的一個(gè)重要分支,它使得機(jī)器能將人類語音信息轉(zhuǎn)換成書面文本。例如Whisper
就是一個(gè)典型的例子,它可以利用深度學(xué)習(xí)和LLM模型實(shí)現(xiàn)高效準(zhǔn)確的語音識別,并能充分考慮不同口音、方言以及語言之間的差異,從而在多
樣化的語音環(huán)境中保持高水平的識別準(zhǔn)確性。這樣的技術(shù)可應(yīng)用于多種場景,如會議記錄、實(shí)時(shí)字幕生成、語音指令識別等,這些應(yīng)用不僅有助于大幅提高工作效率,也能為聽障人士提供便利。以Sora為代表的視頻生成模型能根據(jù)文本指令創(chuàng)造出真實(shí)且富有想象力的場景視頻,此類模型還能生成復(fù)雜的場景,例如多角色、特定類型的運(yùn)動(dòng),以及與主題和背景相關(guān)的精確細(xì)節(jié)等。這就意味著,此類模型不但需要能理解用戶在提示中要求的內(nèi)容,還要能理解這些內(nèi)容在物理世界中的存在方式。
語音轉(zhuǎn)文字
視頻生成6簡單來說,Transformer
主要分為以下幾Probabilities個(gè)模塊(左圖中由下往上看):SoftmaxEmbedding:嵌入層,負(fù)責(zé)輸入語(Token)的向量化和位置編碼,其實(shí)不屬于Transformer網(wǎng)絡(luò)的范疇。FeedMulti-Head-Attention:多頭注意力層,負(fù)責(zé)完成Token之間注意力關(guān)系的建立。Add
&
NormAdd
&
NormMulti-HeadAdd&
Norm:殘差網(wǎng)絡(luò)鏈接和歸一化,負(fù)責(zé)傳遞殘差鏈接,傳遞的上一層原始數(shù)據(jù)到下一層參與計(jì)算和負(fù)責(zé)歸一化。MaskedFeed
Forward:前饋層,又叫
MLP多層線性Attention層,負(fù)責(zé)隱空間的計(jì)算處理。Liner
(
線
性
轉(zhuǎn)
換
層
)
和
Softmax
層:與
Embedding
層
一
樣,
這
兩
層
不
屬
于OutputTransformer的范圍,但也會作為節(jié)點(diǎn)一起參與數(shù)據(jù)處理。Output這些模塊以類似搭積木的方式組合形成了多層Transformer
網(wǎng)絡(luò)。來源:Attention
IsAllYou
Need,https://a/html/1706.03762v7早期的NLP任務(wù)大多采用RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))來處理,尤其是翻譯和分類任務(wù)。RNN在這些應(yīng)用中實(shí)現(xiàn)了較好的效果,但其弊端在于無法把模型做得很大,這導(dǎo)致模型的知識累積和推理能力都受到限制。為解決這些問題,Transformer網(wǎng)絡(luò)應(yīng)運(yùn)而生,它天生支持大參數(shù)量,因此可以學(xué)到更多知識,同時(shí)也能很好地解決RNN訓(xùn)練效率低下的問題。本節(jié)內(nèi)容部分摘自《大語言模型原理、訓(xùn)練及應(yīng)用(基于GPT)》,機(jī)械工業(yè)出版社出版
Transformer網(wǎng)絡(luò)架構(gòu)最基礎(chǔ)的Transformer架構(gòu)如下圖所示。整個(gè)架構(gòu)分為兩大塊:左半部分的
Encoder(編碼器)和右半部分的Decoder(解
碼器)。訓(xùn)練大語言模型
Add
&
NormMulti-Head
AttentionTransformer模型架構(gòu)InputEmbeddingPositional
EncodingPositional
EncodingFeedForward(shifted
right)EmbeddingAdd
&
NormAdd
&
NormMulti-HeadAttentionOutputForwardInputsLinearNxNx7而是應(yīng)該從預(yù)訓(xùn)練開始對模型進(jìn)行訓(xùn)練。
籌備訓(xùn)練環(huán)境
硬件驗(yàn)證在構(gòu)建LLM
模型的基礎(chǔ)架構(gòu)環(huán)境時(shí),務(wù)必要確保所有硬件組件(如網(wǎng)卡和GPU)能夠正常工作。這些組件的性能會直接影響模型訓(xùn)練和推理效率。對于網(wǎng)絡(luò)通信性能的驗(yàn)證,可以使用
perftest。這是一套網(wǎng)絡(luò)性能測試工具,可以對網(wǎng)絡(luò)設(shè)備進(jìn)行一系列測試,以確保網(wǎng)絡(luò)傳輸?shù)乃俣群头€(wěn)定性。如果測試結(jié)果顯示網(wǎng)卡性能達(dá)到預(yù)期標(biāo)準(zhǔn),即可確認(rèn)網(wǎng)絡(luò)環(huán)境能支持大規(guī)模數(shù)據(jù)傳輸需求。對于GPU驗(yàn)證,可利用
NVIDIA
Collective
Communications
Library(NCCL)進(jìn)行。
NCCL提供了一系列通信原語,專為多GPU
和多節(jié)點(diǎn)環(huán)境下的并行計(jì)算設(shè)計(jì)。NCCL
測試可模擬訓(xùn)練過程中GPU
之間的通信,以此檢測GPU
的并行處理能力和通信效率。當(dāng)這兩個(gè)工具的測試結(jié)果均顯示硬件性能達(dá)到預(yù)期,才能確信基礎(chǔ)架構(gòu)環(huán)境已完全準(zhǔn)備就緒。這樣,就可以放心訓(xùn)練和測試模型,而無需擔(dān)心由于硬件問題導(dǎo)致的性能瓶頸或訓(xùn)練中斷。
預(yù)訓(xùn)練和微調(diào)通常來說,預(yù)訓(xùn)練一個(gè)LLM往往需要投入極大的算力資源以及海量的高質(zhì)量文本數(shù)據(jù),訓(xùn)練過程通常需要數(shù)周甚至數(shù)月。相比之下,微調(diào)一個(gè)已經(jīng)預(yù)訓(xùn)練好的模型所需的資源和時(shí)間顯著減少,通常只需幾小時(shí)到幾天即可完成。因此很多情況下普遍的做法就是在成熟的預(yù)訓(xùn)練模型基礎(chǔ)上進(jìn)行有針對性的微調(diào),這樣通常都可以取得不錯(cuò)的效果。那么我們還有必要進(jìn)行預(yù)訓(xùn)練嗎?其實(shí)絕大多數(shù)下游任務(wù)是無法通過微調(diào)來解決的。微調(diào)成功的前提的是:被微調(diào)模型的訓(xùn)練語料所包括訓(xùn)練任務(wù)的種類,其本身和要微調(diào)的任務(wù)差距不大,最重要的是訓(xùn)練語料,要求預(yù)訓(xùn)練模型里面包含了微調(diào)訓(xùn)練所需要的知識。然而生產(chǎn)環(huán)境中實(shí)際遇到的大多數(shù)問題可能都可歸結(jié)于這幾種情況:語言不匹配(例如預(yù)訓(xùn)練模型是英文,微調(diào)任務(wù)是中文;遇到特定領(lǐng)域的專業(yè)詞匯,如醫(yī)療、生物、金融領(lǐng)域)。當(dāng)一個(gè)訓(xùn)練任務(wù)無法解決上述的問題時(shí),就不能只依賴微調(diào),8N系列針對特定工作負(fù)荷提供三種特定產(chǎn)品
/服務(wù):oNC系列專用于高性能計(jì)算和機(jī)器學(xué)習(xí)工作負(fù)荷。全新版本NCsv3配備NVIDIA
TeslaV100
GPU。oNDS系列專用于進(jìn)行深度學(xué)習(xí)的訓(xùn)練和推理方案。該系列使用NVIDIA
Tesla
P40
GPU。全新版本
NDV2配備NVIDIATeslaV100GPU。oNV系列采用NVIDIATesla
M60
GPU,支持功能強(qiáng)大的遠(yuǎn)程可視化工作負(fù)荷和其他圖形密集型應(yīng)用程序。NCsv3、NCsv2、NC
和
NDs
VM
提供可選的
InfiniBand
互連,可實(shí)現(xiàn)向上擴(kuò)展。示例工作負(fù)載包括模擬、深度學(xué)習(xí)、圖形呈現(xiàn)、視頻編、游戲和遠(yuǎn)程可視化。配備GPU的N系列Azure虛擬機(jī)可通過不同配置滿足用戶的AI模型訓(xùn)練等多樣化需求如果選擇在Azure平臺上搭建訓(xùn)練環(huán)境:對于大規(guī)模分布式訓(xùn)練,建議使用
ND系列Azure虛擬機(jī);對于小規(guī)模微調(diào)或推理,可考慮使用NC系列
Azure虛擬機(jī)。在考慮分布式訓(xùn)練環(huán)境時(shí),主要會面臨兩個(gè)選項(xiàng):本地服務(wù)器和云環(huán)境。本地服務(wù)器(如NVIDIA
DGX或HGX)提供了強(qiáng)大算力,特別適合需要高性能計(jì)算資源的大規(guī)模訓(xùn)練任務(wù)。這些服務(wù)器通常配備頂級GPU,能提供極高處理速度和大量并行計(jì)算能力,從而顯著縮短訓(xùn)練時(shí)間。然而這種選擇的缺點(diǎn)也很明顯。首先是成本問題,高性能服務(wù)器設(shè)備本身價(jià)格不菲;
此外還需要考慮供電、機(jī)房托管以及持續(xù)運(yùn)維成本。相較而言,公有云環(huán)境則提供了一種更靈活且成本效益更高的解決方案。借助云服務(wù)提供商(如Azure)搭建的平臺,用戶可以按需輕松租用
GPU
強(qiáng)化的虛擬機(jī),而無須擔(dān)心硬件采購、維護(hù)和升級。這種按需服務(wù)模式不僅可大幅降低初始投資,還能根據(jù)項(xiàng)目需求的變化靈活調(diào)整計(jì)算資源,從而優(yōu)化成本效率。N系列啟用GPU
的虛擬機(jī)N系列是具有GPU
功能的
Azure虛擬機(jī)家族。GPU非常適合計(jì)算和圖形密集的工作負(fù)荷,幫助客戶通過高端遠(yuǎn)程可視化、深度學(xué)習(xí)和預(yù)測分析等方案來加速創(chuàng)新。
環(huán)境的選擇請參閱:/zh-cn/solutions/ai/9微調(diào)需要在特定數(shù)據(jù)集上繼續(xù)訓(xùn)練模型,使其更好地適應(yīng)特定任務(wù)或領(lǐng)域。該手段涉及模型權(quán)重的更新,通常可顯著提高模型在特定任務(wù)上的性能,但不可避免需要較大的算力和時(shí)間投入。因此很多情況下,也可以借助諸如國際版MicrosoftAzure這樣的公有云所提供的強(qiáng)大、靈活的算力來處理此類任務(wù)。目前,AzureOpenAl開放了微調(diào)功能的模型包括:gpt-35-turbo-0613、babbage-002、davinci-002。這種方式不僅可以有效降低基礎(chǔ)設(shè)施成本,并通過按需付費(fèi)的模式提供成本效益,而且可以獲得相比其他方式更高程度的便利性和可訪問性。Azure
提供了現(xiàn)成的工具和服務(wù),使得模型微調(diào)過程更簡便,用戶可以快速啟動(dòng)并配置所需資源。并
且在日常使用過程中,還能根據(jù)需求動(dòng)態(tài)調(diào)整資源,實(shí)現(xiàn)更靈活的擴(kuò)展。請參閱:/zh-cn/products/ai-services/早期的NLP任務(wù)大多采用RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))來處理,尤其是翻譯和分類任務(wù)。RNN
在這些應(yīng)用中實(shí)現(xiàn)了較好的效果,但其弊端在于無法把模型做得很大,這導(dǎo)致模型的知識累積和推理能力都受到限制。為解決這些問題,Transformer網(wǎng)絡(luò)應(yīng)運(yùn)而生,它天生支持大參數(shù)量,因此可以學(xué)到更多知識,同時(shí)也能很好地解決RNN訓(xùn)練效率低下的問題。
GPT的優(yōu)化大部分情況下,我們可以通過提示工程(Prompt
Engineering)、微調(diào)
(Fine-tuning)以及檢索增強(qiáng)生成(RetrievalAugmented
Generation
,RAG)這三種手段來優(yōu)化GPT模型,以適應(yīng)特定應(yīng)用需求并提高模型在特定領(lǐng)域的表現(xiàn)。這三種
手段可以獨(dú)立使用,亦可結(jié)合使用,以達(dá)到最佳優(yōu)化效果。提示工程旨在通過設(shè)計(jì)精巧的提示來操縱模型的輸出,而無須改變模型結(jié)構(gòu)或重新訓(xùn)練模型。這種方法依賴于對模型響應(yīng)方式的理解,可通過不同的輸入格式和內(nèi)容來引導(dǎo)模型生成所需答案。隨著ChatGPT等相關(guān)工具的進(jìn)步,市場上涌現(xiàn)出多種輔助工具,可幫助用戶創(chuàng)造有效的提示內(nèi)容。但這一過程中還需要用到Meta-prompt(可以理解為一種更為底層的Prompt)。Meta-prompt聚焦于四個(gè)關(guān)鍵要素:回應(yīng)依據(jù)(Response
Grounding)、語氣(Tone)、內(nèi)容安全性(Safety)以及如何避免違規(guī)行為(Jailbreaks)。在此類技術(shù)的幫助下,我們就可以構(gòu)建更有效的
Prompt,進(jìn)而在與ChatGPT等對話型AI系統(tǒng)互動(dòng)時(shí)
獲得更準(zhǔn)確、更有價(jià)值的反饋。了解GPT
提示工程
微調(diào)10RAG架構(gòu)AzureAl
SearchData
Sources(files,databases,
etc.)App
Server,
OrchestratorQuery
KnowledgePrompt
+
Knowledge
ResponseAzureOpenAl(GPT/ChatGPT)App
uxRAG
則會將私有或?qū)I(yè)領(lǐng)域的數(shù)據(jù)集整合到模型工作過程中,以擴(kuò)展模型的知識庫。借此可以幫助模型學(xué)習(xí)最新的行業(yè)知識或公司內(nèi)部的專有信息,從而提高模型在特定領(lǐng)域的準(zhǔn)確性和相關(guān)性。下圖展示了一個(gè)基于國際版Azure
OpenAl
的系統(tǒng)架構(gòu)。在這個(gè)架構(gòu)中,用戶通過API
接口層發(fā)送請求,該請求被轉(zhuǎn)發(fā)到AzureOpenAl
服務(wù)。AzureOpenAl
服務(wù)在處理請求時(shí),可能會通過知識檢索引擎訪問知識庫中的數(shù)據(jù),以增強(qiáng)回復(fù)的準(zhǔn)確性。同時(shí)也可能利用Prompt模板管理中的模板來優(yōu)化問題的表述。最終,Azure
OpenAl服務(wù)生成的回復(fù)通過API接口層返回給用戶。這樣的設(shè)計(jì)使得系統(tǒng)不僅能夠提供智能化的回答,還能確保處理過程的靈活性和擴(kuò)展性。在RAG
架構(gòu)中,除了
GPT自身的基礎(chǔ)能力外,檢索的準(zhǔn)確性顯得尤為關(guān)鍵,因?yàn)樗P(guān)乎能否找到有用的信息來輔助生成過程。OpenAI
自帶的檢索實(shí)現(xiàn)主要是向量,這涉及將查詢轉(zhuǎn)化為向量表示,然后在數(shù)據(jù)庫中尋找語義上相似的內(nèi)容段落。Azure認(rèn)知服務(wù)不僅支持這種搜素模式,還在其基礎(chǔ)上增加了更多功能,以顯著提高檢索的相關(guān)性。請參閱:/zh-cn/products/ai-services/ai-search/
RAG11RAG
包含一個(gè)初始檢索步驟,GPT
可以借此查詢外部數(shù)據(jù)源以獲取相關(guān)信息,然后回答問題或生成文本。這種檢索和生成能力可以從大規(guī)模的文本語料庫中檢索相關(guān)信息,然后生成回答。這使得RAG模型能夠處理更廣泛、更復(fù)雜的問題,包括
需要實(shí)時(shí)更新或特定領(lǐng)域知識的問題。一般來說,由RAG增強(qiáng)的GPT往往具備如下優(yōu)勢:靈活性和可擴(kuò)展性RAG模式的設(shè)計(jì)使得它可以很容易地與其他模型整合,或在不同任務(wù)和領(lǐng)域中使用。提高生成的質(zhì)量RAG模式在生成回答時(shí),會考慮檢索到的內(nèi)容,這使它能生成更準(zhǔn)確、更詳細(xì)的回答。特定領(lǐng)域的知識RAG模式可從特定領(lǐng)域的文本語料庫中檢索信,這使得它能夠處理需要特定領(lǐng)域知識的問題。通過檢索機(jī)制,RAG
模式可處理一些長尾問題,即那些出現(xiàn)頻率低但需要特定知識才能回答處理長尾問題的問題。RAG
模式可從最新文本語料庫中檢索信息,這使得它能獲取訓(xùn)練后的新知識,處理需要實(shí)時(shí)實(shí)時(shí)更新的知識更新的問題。
GPT的主要應(yīng)用場景GPT強(qiáng)大的語言處理能力使其快速融入到各行各業(yè),催生出廣泛的應(yīng)用場景。
基于RAG的知識庫12對于開展電商業(yè)務(wù)的商家來說,要想在激烈的競爭中推動(dòng)銷量增長,商品詳情頁的優(yōu)化已成為一項(xiàng)必不可少的措施。然而隨著商品數(shù)量激增,這個(gè)任務(wù)會變得越來越復(fù)雜和耗時(shí)。好在GPT的文本總結(jié)、內(nèi)容生成和語言理解能力相結(jié)合,可以自動(dòng)完成這項(xiàng)任務(wù),降低對人工操作的依賴,最終幫助商家提高產(chǎn)品吸引力和可見性,吸引更多潛在客戶。典型的電商平臺產(chǎn)品詳情頁往往包括商品標(biāo)題、要點(diǎn)、描述等要素,這些都是潛在買家在搜索和考慮購買商品時(shí)的重要參考信息。借助GPT強(qiáng)大的文本總結(jié)和生成能力,可以根據(jù)用戶提供的商品要點(diǎn)、搜索詞、標(biāo)題等信息,有效優(yōu)化這些內(nèi)容,提高商品的吸引力和搜索引擎排名。此外,用戶評價(jià)也是優(yōu)化商品詳情頁的一項(xiàng)重要數(shù)據(jù)。這些反饋可以幫助商家了解產(chǎn)品優(yōu)劣勢,以便在詳情頁突出顯示這些信息。通過API或網(wǎng)頁抓取工具從電商平臺獲取用戶評價(jià),然后通過GPT將大量評價(jià)總結(jié)為簡潔、明了的觀點(diǎn),即可快
速了解用戶對產(chǎn)品的看法,從而做出相應(yīng)優(yōu)化。在此基礎(chǔ)上還誕生了多智能體(Multi-Agent)的概念。這是一種軟件范式,會將軟件系統(tǒng)視為由一組自主、互動(dòng)的實(shí)體(即“智能體”)所組成的集合。按照設(shè)計(jì),每個(gè)智能體都執(zhí)行各自的特定任務(wù),并具有與其他智能體交互的能力,這樣即可實(shí)現(xiàn)復(fù)雜目標(biāo)。這種方法在任務(wù)分布并需要各種軟件組件之間協(xié)作的環(huán)境中特別有效。多智能體系統(tǒng)在處理復(fù)雜任務(wù)時(shí),無論是在記憶需求、穩(wěn)定性、可擴(kuò)展性,還是在并行處理和決策能力上都表現(xiàn)出了明顯優(yōu)勢。這些優(yōu)勢使得多智能體系統(tǒng)在處理現(xiàn)實(shí)世界的復(fù)雜問題時(shí),具有更大潛力和可能性。在軟件開發(fā)過程中,隨著業(yè)務(wù)邏輯日趨復(fù)雜,軟件架構(gòu)也逐漸從單文件程序發(fā)展到模塊、對象包,再到復(fù)雜的微服務(wù)調(diào)用等模式。生成式AI
應(yīng)用的發(fā)展歷程中也經(jīng)歷著類似的模式,那就是智能體(Agent),這已經(jīng)成為構(gòu)建通用人工智能(AGI)
系統(tǒng)最初的基礎(chǔ)模塊。一個(gè)簡單的智能體通常有三個(gè)核心屬性,而智能體就是在這三個(gè)屬性的幫助下實(shí)現(xiàn)了自我包含和專業(yè)化:技能和工具根據(jù)提供給它的自定義指令以及它可以使用的工具,執(zhí)
行專門的任務(wù)。實(shí)現(xiàn)某個(gè)目
標(biāo)的能力。效應(yīng)器和感受器使用自然語言和API
與其他服務(wù)和智能體交談,以實(shí)現(xiàn)
某個(gè)目標(biāo)的能力。自定應(yīng)自定義的知識庫和記憶。
智能體和多智能體
優(yōu)化電商詳情頁13智能
Microsoft
Copilot
副駕駛?
是微軟推出的一系列AI助手,目前已包含在
Microsoft
365、Dynamics
365以及GitHub
等諸多微軟旗下軟件和服務(wù)中。它不僅集成了大型語言模型的智能,還結(jié)合了MicrosoftGraph的數(shù)據(jù)資源,如用戶的日歷、電子郵件、聊天記錄、文檔和會議信息,以及Microsoft365的應(yīng)用功能。智能
Microsoft
Copilot
副駕駛?
可將用戶指令轉(zhuǎn)化為具體的生產(chǎn)力行動(dòng),并在多種任務(wù)和場合提供定制化的幫助。例如智能GitHubCopilot副駕駛?
是一個(gè)智能編程伙伴,可利用OpenAI的GPT模型幫助用戶自動(dòng)編寫代碼注釋并提供代碼建議,
從而提高編程效率。智能
MicrosoftCopilot副駕駛?
已經(jīng)發(fā)展成為一個(gè)全面的輔助工具,涵蓋了從網(wǎng)絡(luò)瀏覽到商務(wù)分析等不同方面的廣泛應(yīng)用。。
與Microsoft
365應(yīng)用程序集成:包括Word、Excel、PowerPoint、Outlook、Teams
等,均可在應(yīng)用中與智能MicrosoftCopilot副駕駛?
for
Microsoft365直接交互,幫助用戶釋放創(chuàng)造力、提高生產(chǎn)力和技能水平。
基于聊天的界面:能在LLM、Microsoft
365
應(yīng)用程序和用戶數(shù)據(jù)(日歷、電子郵件、聊天記錄、文檔、會議和聯(lián)系人
)
之間建立橋梁,幫助用戶完成以前無法完成的事情。注意:智能
Microsoft
Copilot副駕駛?
的可用情況因用戶所處地理區(qū)域、所用軟件
/服務(wù)
/訂閱的版本而異。部分功
能可能需要單獨(dú)訂閱。
生產(chǎn)力輔助智能
MicrosoftCopilot副駕駛?
能以兩種方式集成到Microsoft365,進(jìn)而融入用戶的日常工作流程中:簡單易上手的Copilot集成在Word
中的智能Microsoft
Copilot
副駕駛?
,可幫助用戶創(chuàng)建各類內(nèi)容14Microsoft365包含的網(wǎng)頁端智能Microsoft
Copilot
副駕駛?
,可通過聊天解答用戶問題或提供信息智能MicrosoftCopilot副駕駛?
for
Microsoft365入口:https:///chat
創(chuàng)意工具Designer是微軟提供的,由AI技術(shù)驅(qū)動(dòng)的設(shè)計(jì)工具,可以自動(dòng)執(zhí)行很多設(shè)計(jì)任務(wù),例如通過用戶指定的文字生成圖片、選擇不同配色方案或布局,甚至對文檔進(jìn)行自定義排版。網(wǎng)頁版的Microsoft
Designer15在Designer的幫助下進(jìn)行“文生圖”,并進(jìn)一步調(diào)整所生成的圖片Microsoft
Designer官網(wǎng):https:///
開發(fā)輔助Microsoft
Copilot
Stud
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 視聽設(shè)備零售業(yè)服務(wù)質(zhì)量評價(jià)體系的實(shí)證研究-洞察闡釋
- 跨境知識產(chǎn)權(quán)保護(hù)-第1篇-洞察闡釋
- 資源型城市轉(zhuǎn)型路徑探討-洞察闡釋
- 環(huán)保材料在家居裝飾中的應(yīng)用研究-洞察闡釋
- 經(jīng)濟(jì)史中的技術(shù)革命與社會結(jié)構(gòu)-洞察闡釋
- 飲水站人員管理制度
- 駐境外公司管理制度
- 駕校訓(xùn)練廠管理制度
- 高校工程處管理制度
- 麻醉科培訓(xùn)管理制度
- 護(hù)理病歷質(zhì)控
- 2023-2024學(xué)年河南省鄭州市金水區(qū)八年級(下)期末數(shù)學(xué)試卷(含詳解)
- 寄生蟲病防治技能競賽試題及答案
- 創(chuàng)意攝影智慧樹知到期末考試答案章節(jié)答案2024年哈爾濱師范大學(xué)
- 《人體損傷致殘程度分級》
- 北師大版四年級下冊數(shù)學(xué)期末考試試卷及答案
- 2023~2024學(xué)年二年級下冊語文期末模考試卷·創(chuàng)意情境 統(tǒng)編版
- QCT1067.5-2023汽車電線束和電器設(shè)備用連接器第5部分:設(shè)備連接器(插座)的型式和尺寸
- 期末專題復(fù)習(xí)專題04 修改病句(專項(xiàng)訓(xùn)練)-2023-2024學(xué)年四年級下冊語文(統(tǒng)編版)
- TAIAC 003-2023零碳工廠評價(jià)標(biāo)準(zhǔn)-中國投資協(xié)會
- 小學(xué)生一周新聞播報(bào)(小小播報(bào)員)
評論
0/150
提交評論