2025大語言模型(LLM)上手指南_第1頁
2025大語言模型(LLM)上手指南_第2頁
2025大語言模型(LLM)上手指南_第3頁
2025大語言模型(LLM)上手指南_第4頁
2025大語言模型(LLM)上手指南_第5頁
已閱讀5頁,還剩17頁未讀 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

01

了解大語言模型.................................................................................................

02?

1.1

LLM,大在何處.......................................................................................................................................................................

02?

1.2

LLM

的發(fā)展歷程.....................................................................................................................................................................02?

1.3

LLM

的核心應(yīng)用場景.............................................................................................................................................................

04?

1.4多模態(tài)LLM.................................................................................................................................................................................................0502

訓(xùn)練大語言模型.................................................................................................

07?2.1Transformer網(wǎng)絡(luò)架構(gòu)...........................................................................................................................................................

07?2.2預(yù)訓(xùn)練和微調(diào)...........................................................................................................................................................................08?2.3籌備訓(xùn)練環(huán)境..........................................................................................................................................................................0803

了解

GPT..........................................................................................................................?3.1GPT

的優(yōu)化..............................................................................................................................................................................10?3.2GPT

的主要應(yīng)用場景.............................................................................................................................................................

1204

簡單易上手的Copilot...........................................................................................?4.1生產(chǎn)力輔助...............................................................................................................................................................................14?4.2創(chuàng)意工具...................................................................................................................................................................................

15?4.3開發(fā)輔助...................................................................................................................................................................................1605

總結(jié)

............................................................................................................................目

錄TABLEOFCONTENTS1018141

LLM的發(fā)展歷程雖然近些年才逐漸興起,但LLM并非新技術(shù)。早在20世紀(jì)90年代,就已經(jīng)出現(xiàn)了以信息論和概率論為基礎(chǔ)的統(tǒng)計(jì)語言模型。隨著深度學(xué)習(xí)技術(shù)的誕生和崛起,以及計(jì)算機(jī)硬件算力飛速提升,這種模型變得愈加復(fù)雜,進(jìn)一步催生出基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長短期記憶網(wǎng)絡(luò)(LSTM)的自然語言處理技術(shù)。2018年,基于Transformer的雙向編碼器表示技術(shù)(BERT)誕生,這標(biāo)志著預(yù)訓(xùn)練語言模型時(shí)代正式到來。通過用大量文本進(jìn)行預(yù)訓(xùn)練,然后圍繞特定任務(wù)進(jìn)行微調(diào),

BERT顯著提高了多種自然語言處理(NLP)任務(wù)的性能。隨后,OpenAI發(fā)布的GPT(Generative

Pre-trained

Transformer,生成式預(yù)訓(xùn)練Transformer)系列模型及廣為人知的ChatGPT,進(jìn)一步將生成式AI技術(shù)帶到了每個(gè)人面前。擅長處理和生成自然語言類內(nèi)容的大語言模型(Large

Language

Model

,LLM)已成為人工智能(AI)技術(shù)領(lǐng)域的一個(gè)重要發(fā)展方向。LLM

是一種基于深度學(xué)習(xí)技術(shù)的

AI模型,可通過分析大量文本數(shù)據(jù)來學(xué)習(xí)語言的結(jié)構(gòu)與規(guī)律,從而執(zhí)行多種任務(wù),如文本生成、語言翻譯、情感分析等,目前已經(jīng)在越來越多的領(lǐng)域?qū)崿F(xiàn)了極為廣泛的應(yīng)用。

LLM,大在何處大語言模型的“大”通常主要體現(xiàn)在三方面: 參數(shù)數(shù)量:參數(shù)是指模型內(nèi)部的變量,決定了模型的復(fù)雜度和表示能力。參數(shù)多通常意味著模型能捕捉更復(fù)雜的

模式和關(guān)系。。

訓(xùn)練數(shù)據(jù):LLM通常需要通過大規(guī)模文本數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)包含豐富的語言信息,可幫助模型學(xué)習(xí)更準(zhǔn)確的語

言表示。

計(jì)算資源:訓(xùn)練LLM通常需要大量算力,包括高性能GPU或TPU,以及分布式環(huán)境。了解大語言模型201生成式AI

技術(shù)是深度學(xué)習(xí)的直子集,可通過學(xué)習(xí)大量訓(xùn)練數(shù)據(jù),理解其內(nèi)在模式和規(guī)律,然后根據(jù)這些模式和規(guī)律生成新的內(nèi)容。生成式

AI

技術(shù)的應(yīng)用范圍非常廣泛,

包括圖像生成、音樂創(chuàng)作、文本生成等。02

總的來說,可以認(rèn)為

NLP是一個(gè)廣泛的研究領(lǐng)域,生成式AI技術(shù)是一類技術(shù),而GPT則是生成式AI技術(shù)在

NLP領(lǐng)域的一種具體應(yīng)用。摘自《大語言模型原理、訓(xùn)練及應(yīng)用(基于GPT)》,機(jī)械工業(yè)出版社出版NLP

是AI

領(lǐng)域的一門學(xué)科,主要目標(biāo)是讓計(jì)算機(jī)理解和生成人類語言。NLP涵蓋了從語法解析和詞義理解,到情感分析和文本生成等一系列復(fù)雜任務(wù)。NLP

的研究和應(yīng)用催生了機(jī)器翻譯、語音識別、情感分析等各種實(shí)用的系統(tǒng)和應(yīng)用。G0PT則3是生成式AI技術(shù)的一種,它是目前處理

NLP問題最先進(jìn)的技術(shù)之一。盡管GPT最初是為處理NLP問題開發(fā)的,但其實(shí)也可用于生成圖像、視頻等內(nèi)容。

生成式

AI技術(shù)、NLP、GPT,這三者有何關(guān)系?304

語義搜索通過用海量文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,讓LLM

模型學(xué)習(xí)語言的復(fù)雜結(jié)構(gòu)和豐富的語義信息,從而捕捉到詞匯的多種

含義、上下文的細(xì)微差別以及語言的隱含關(guān)系。因?yàn)榭?/p>

以理解用戶查詢的深層含義,因此相比傳統(tǒng)的基于關(guān)鍵

詞的搜索,LLM

的語義搜索能提供更精準(zhǔn),相關(guān)性更高

的搜索結(jié)果。03

代碼生成基于對語言結(jié)構(gòu)和編程語言的理解能力,通過訓(xùn)練學(xué)習(xí)大量自然語言文本和源代碼數(shù)據(jù),可以讓LLM

掌握編程

語法規(guī)則、代碼模式以及實(shí)現(xiàn)不同功能的典型方法,從

而生成代碼片段,甚至幫助軟件開發(fā)人員完成更復(fù)雜的

編程任務(wù)。01

內(nèi)容創(chuàng)作在這些任務(wù)中,LLM通常要根據(jù)輸入(如關(guān)鍵詞、摘要、提示等)生成一段符合要求的文本。這個(gè)過程需要處理

很多復(fù)雜問題,如信息組織、語句表達(dá)、邏輯推理等。

通過訓(xùn)練,LLM

模型可以學(xué)習(xí)這些問題的規(guī)則和模式,

從而生成高質(zhì)量文本。

LLM的核心應(yīng)用場景作為AI

技術(shù)的重要分支,LLM

的應(yīng)用極為廣泛,可覆蓋幾乎所有語言處理任務(wù),目前該技術(shù)已經(jīng)在多個(gè)應(yīng)用場景發(fā)揮著至關(guān)重要的作用。一般來說,LLM在下列四大核心能力方面的表現(xiàn)尤為突出:02

摘要生成使用

LLM

從較長的文本中提取關(guān)鍵信息并生成簡潔摘要,主要目的是壓縮信息,幫助用戶快速了解文本主旨,節(jié)約閱讀和理解原始文本所需的時(shí)間。Q%4<

>@?

多模態(tài)LLM隨著LLM

不斷發(fā)展,它的能力已經(jīng)遠(yuǎn)遠(yuǎn)超越了傳統(tǒng)NLP

領(lǐng)域,拓展到多模態(tài)場景的應(yīng)用方面。多模態(tài)是指結(jié)合了文本、圖像、

聲音等多種數(shù)據(jù)類型的處理能力,這種跨越使得LLM不僅能理解和生成文本,還能與圖像、視頻等非文本數(shù)據(jù)進(jìn)行交互。不同感官形式的技術(shù)進(jìn)步為人機(jī)交互和信息理解開辟了新的維度。以CPT-4o為代表的LLM

模型則在圖像和視頻內(nèi)容的理解方面實(shí)現(xiàn)了巨大飛躍。GPT-4o的核心能力在于跨模態(tài)理解:即不僅能處理文本數(shù)據(jù),還能解讀視覺內(nèi)容。這意味著GPT-4o可以接收圖像或視頻作為輸入,并生成詳細(xì)的描述,識別場景中的對象、動(dòng)作、情感以及它們之間的相互作用。例如,對于街頭監(jiān)控視頻,CPT-4o能描述人物行為,識別可能的安全事件,甚至預(yù)測接下來可能發(fā)生的情況。以DALL·E為代表的文生圖是一種創(chuàng)新的應(yīng)用。在這種技術(shù)幫助下,用戶只需提

供一段描述性文本,就能讓LLM

結(jié)合視

覺生成模型創(chuàng)造出與描述文本相匹配的

圖像。這種能力在藝術(shù)創(chuàng)作、產(chǎn)品設(shè)計(jì)、

教育等領(lǐng)域具有巨大潛力。此類技術(shù)的

出現(xiàn),不僅證明了

LLM

在文本處理之外

的潛力,也為AI

技術(shù)創(chuàng)意工作提供了一

個(gè)令人興奮的范例。

圖片與視頻理解

文生圖5語音轉(zhuǎn)文字是LLM的一個(gè)重要分支,它使得機(jī)器能將人類語音信息轉(zhuǎn)換成書面文本。例如Whisper

就是一個(gè)典型的例子,它可以利用深度學(xué)習(xí)和LLM模型實(shí)現(xiàn)高效準(zhǔn)確的語音識別,并能充分考慮不同口音、方言以及語言之間的差異,從而在多

樣化的語音環(huán)境中保持高水平的識別準(zhǔn)確性。這樣的技術(shù)可應(yīng)用于多種場景,如會議記錄、實(shí)時(shí)字幕生成、語音指令識別等,這些應(yīng)用不僅有助于大幅提高工作效率,也能為聽障人士提供便利。以Sora為代表的視頻生成模型能根據(jù)文本指令創(chuàng)造出真實(shí)且富有想象力的場景視頻,此類模型還能生成復(fù)雜的場景,例如多角色、特定類型的運(yùn)動(dòng),以及與主題和背景相關(guān)的精確細(xì)節(jié)等。這就意味著,此類模型不但需要能理解用戶在提示中要求的內(nèi)容,還要能理解這些內(nèi)容在物理世界中的存在方式。

語音轉(zhuǎn)文字

視頻生成6簡單來說,Transformer

主要分為以下幾Probabilities個(gè)模塊(左圖中由下往上看):SoftmaxEmbedding:嵌入層,負(fù)責(zé)輸入語(Token)的向量化和位置編碼,其實(shí)不屬于Transformer網(wǎng)絡(luò)的范疇。FeedMulti-Head-Attention:多頭注意力層,負(fù)責(zé)完成Token之間注意力關(guān)系的建立。Add

&

NormAdd

&

NormMulti-HeadAdd&

Norm:殘差網(wǎng)絡(luò)鏈接和歸一化,負(fù)責(zé)傳遞殘差鏈接,傳遞的上一層原始數(shù)據(jù)到下一層參與計(jì)算和負(fù)責(zé)歸一化。MaskedFeed

Forward:前饋層,又叫

MLP多層線性Attention層,負(fù)責(zé)隱空間的計(jì)算處理。Liner

(

轉(zhuǎn)

)

Softmax

層:與

Embedding

樣,

于OutputTransformer的范圍,但也會作為節(jié)點(diǎn)一起參與數(shù)據(jù)處理。Output這些模塊以類似搭積木的方式組合形成了多層Transformer

網(wǎng)絡(luò)。來源:Attention

IsAllYou

Need,https://a/html/1706.03762v7早期的NLP任務(wù)大多采用RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))來處理,尤其是翻譯和分類任務(wù)。RNN在這些應(yīng)用中實(shí)現(xiàn)了較好的效果,但其弊端在于無法把模型做得很大,這導(dǎo)致模型的知識累積和推理能力都受到限制。為解決這些問題,Transformer網(wǎng)絡(luò)應(yīng)運(yùn)而生,它天生支持大參數(shù)量,因此可以學(xué)到更多知識,同時(shí)也能很好地解決RNN訓(xùn)練效率低下的問題。本節(jié)內(nèi)容部分摘自《大語言模型原理、訓(xùn)練及應(yīng)用(基于GPT)》,機(jī)械工業(yè)出版社出版

Transformer網(wǎng)絡(luò)架構(gòu)最基礎(chǔ)的Transformer架構(gòu)如下圖所示。整個(gè)架構(gòu)分為兩大塊:左半部分的

Encoder(編碼器)和右半部分的Decoder(解

碼器)。訓(xùn)練大語言模型

Add

&

NormMulti-Head

AttentionTransformer模型架構(gòu)InputEmbeddingPositional

EncodingPositional

EncodingFeedForward(shifted

right)EmbeddingAdd

&

NormAdd

&

NormMulti-HeadAttentionOutputForwardInputsLinearNxNx7而是應(yīng)該從預(yù)訓(xùn)練開始對模型進(jìn)行訓(xùn)練。

籌備訓(xùn)練環(huán)境

硬件驗(yàn)證在構(gòu)建LLM

模型的基礎(chǔ)架構(gòu)環(huán)境時(shí),務(wù)必要確保所有硬件組件(如網(wǎng)卡和GPU)能夠正常工作。這些組件的性能會直接影響模型訓(xùn)練和推理效率。對于網(wǎng)絡(luò)通信性能的驗(yàn)證,可以使用

perftest。這是一套網(wǎng)絡(luò)性能測試工具,可以對網(wǎng)絡(luò)設(shè)備進(jìn)行一系列測試,以確保網(wǎng)絡(luò)傳輸?shù)乃俣群头€(wěn)定性。如果測試結(jié)果顯示網(wǎng)卡性能達(dá)到預(yù)期標(biāo)準(zhǔn),即可確認(rèn)網(wǎng)絡(luò)環(huán)境能支持大規(guī)模數(shù)據(jù)傳輸需求。對于GPU驗(yàn)證,可利用

NVIDIA

Collective

Communications

Library(NCCL)進(jìn)行。

NCCL提供了一系列通信原語,專為多GPU

和多節(jié)點(diǎn)環(huán)境下的并行計(jì)算設(shè)計(jì)。NCCL

測試可模擬訓(xùn)練過程中GPU

之間的通信,以此檢測GPU

的并行處理能力和通信效率。當(dāng)這兩個(gè)工具的測試結(jié)果均顯示硬件性能達(dá)到預(yù)期,才能確信基礎(chǔ)架構(gòu)環(huán)境已完全準(zhǔn)備就緒。這樣,就可以放心訓(xùn)練和測試模型,而無需擔(dān)心由于硬件問題導(dǎo)致的性能瓶頸或訓(xùn)練中斷。

預(yù)訓(xùn)練和微調(diào)通常來說,預(yù)訓(xùn)練一個(gè)LLM往往需要投入極大的算力資源以及海量的高質(zhì)量文本數(shù)據(jù),訓(xùn)練過程通常需要數(shù)周甚至數(shù)月。相比之下,微調(diào)一個(gè)已經(jīng)預(yù)訓(xùn)練好的模型所需的資源和時(shí)間顯著減少,通常只需幾小時(shí)到幾天即可完成。因此很多情況下普遍的做法就是在成熟的預(yù)訓(xùn)練模型基礎(chǔ)上進(jìn)行有針對性的微調(diào),這樣通常都可以取得不錯(cuò)的效果。那么我們還有必要進(jìn)行預(yù)訓(xùn)練嗎?其實(shí)絕大多數(shù)下游任務(wù)是無法通過微調(diào)來解決的。微調(diào)成功的前提的是:被微調(diào)模型的訓(xùn)練語料所包括訓(xùn)練任務(wù)的種類,其本身和要微調(diào)的任務(wù)差距不大,最重要的是訓(xùn)練語料,要求預(yù)訓(xùn)練模型里面包含了微調(diào)訓(xùn)練所需要的知識。然而生產(chǎn)環(huán)境中實(shí)際遇到的大多數(shù)問題可能都可歸結(jié)于這幾種情況:語言不匹配(例如預(yù)訓(xùn)練模型是英文,微調(diào)任務(wù)是中文;遇到特定領(lǐng)域的專業(yè)詞匯,如醫(yī)療、生物、金融領(lǐng)域)。當(dāng)一個(gè)訓(xùn)練任務(wù)無法解決上述的問題時(shí),就不能只依賴微調(diào),8N系列針對特定工作負(fù)荷提供三種特定產(chǎn)品

/服務(wù):oNC系列專用于高性能計(jì)算和機(jī)器學(xué)習(xí)工作負(fù)荷。全新版本NCsv3配備NVIDIA

TeslaV100

GPU。oNDS系列專用于進(jìn)行深度學(xué)習(xí)的訓(xùn)練和推理方案。該系列使用NVIDIA

Tesla

P40

GPU。全新版本

NDV2配備NVIDIATeslaV100GPU。oNV系列采用NVIDIATesla

M60

GPU,支持功能強(qiáng)大的遠(yuǎn)程可視化工作負(fù)荷和其他圖形密集型應(yīng)用程序。NCsv3、NCsv2、NC

NDs

VM

提供可選的

InfiniBand

互連,可實(shí)現(xiàn)向上擴(kuò)展。示例工作負(fù)載包括模擬、深度學(xué)習(xí)、圖形呈現(xiàn)、視頻編、游戲和遠(yuǎn)程可視化。配備GPU的N系列Azure虛擬機(jī)可通過不同配置滿足用戶的AI模型訓(xùn)練等多樣化需求如果選擇在Azure平臺上搭建訓(xùn)練環(huán)境:對于大規(guī)模分布式訓(xùn)練,建議使用

ND系列Azure虛擬機(jī);對于小規(guī)模微調(diào)或推理,可考慮使用NC系列

Azure虛擬機(jī)。在考慮分布式訓(xùn)練環(huán)境時(shí),主要會面臨兩個(gè)選項(xiàng):本地服務(wù)器和云環(huán)境。本地服務(wù)器(如NVIDIA

DGX或HGX)提供了強(qiáng)大算力,特別適合需要高性能計(jì)算資源的大規(guī)模訓(xùn)練任務(wù)。這些服務(wù)器通常配備頂級GPU,能提供極高處理速度和大量并行計(jì)算能力,從而顯著縮短訓(xùn)練時(shí)間。然而這種選擇的缺點(diǎn)也很明顯。首先是成本問題,高性能服務(wù)器設(shè)備本身價(jià)格不菲;

此外還需要考慮供電、機(jī)房托管以及持續(xù)運(yùn)維成本。相較而言,公有云環(huán)境則提供了一種更靈活且成本效益更高的解決方案。借助云服務(wù)提供商(如Azure)搭建的平臺,用戶可以按需輕松租用

GPU

強(qiáng)化的虛擬機(jī),而無須擔(dān)心硬件采購、維護(hù)和升級。這種按需服務(wù)模式不僅可大幅降低初始投資,還能根據(jù)項(xiàng)目需求的變化靈活調(diào)整計(jì)算資源,從而優(yōu)化成本效率。N系列啟用GPU

的虛擬機(jī)N系列是具有GPU

功能的

Azure虛擬機(jī)家族。GPU非常適合計(jì)算和圖形密集的工作負(fù)荷,幫助客戶通過高端遠(yuǎn)程可視化、深度學(xué)習(xí)和預(yù)測分析等方案來加速創(chuàng)新。

環(huán)境的選擇請參閱:/zh-cn/solutions/ai/9微調(diào)需要在特定數(shù)據(jù)集上繼續(xù)訓(xùn)練模型,使其更好地適應(yīng)特定任務(wù)或領(lǐng)域。該手段涉及模型權(quán)重的更新,通常可顯著提高模型在特定任務(wù)上的性能,但不可避免需要較大的算力和時(shí)間投入。因此很多情況下,也可以借助諸如國際版MicrosoftAzure這樣的公有云所提供的強(qiáng)大、靈活的算力來處理此類任務(wù)。目前,AzureOpenAl開放了微調(diào)功能的模型包括:gpt-35-turbo-0613、babbage-002、davinci-002。這種方式不僅可以有效降低基礎(chǔ)設(shè)施成本,并通過按需付費(fèi)的模式提供成本效益,而且可以獲得相比其他方式更高程度的便利性和可訪問性。Azure

提供了現(xiàn)成的工具和服務(wù),使得模型微調(diào)過程更簡便,用戶可以快速啟動(dòng)并配置所需資源。并

且在日常使用過程中,還能根據(jù)需求動(dòng)態(tài)調(diào)整資源,實(shí)現(xiàn)更靈活的擴(kuò)展。請參閱:/zh-cn/products/ai-services/早期的NLP任務(wù)大多采用RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))來處理,尤其是翻譯和分類任務(wù)。RNN

在這些應(yīng)用中實(shí)現(xiàn)了較好的效果,但其弊端在于無法把模型做得很大,這導(dǎo)致模型的知識累積和推理能力都受到限制。為解決這些問題,Transformer網(wǎng)絡(luò)應(yīng)運(yùn)而生,它天生支持大參數(shù)量,因此可以學(xué)到更多知識,同時(shí)也能很好地解決RNN訓(xùn)練效率低下的問題。

GPT的優(yōu)化大部分情況下,我們可以通過提示工程(Prompt

Engineering)、微調(diào)

(Fine-tuning)以及檢索增強(qiáng)生成(RetrievalAugmented

Generation

,RAG)這三種手段來優(yōu)化GPT模型,以適應(yīng)特定應(yīng)用需求并提高模型在特定領(lǐng)域的表現(xiàn)。這三種

手段可以獨(dú)立使用,亦可結(jié)合使用,以達(dá)到最佳優(yōu)化效果。提示工程旨在通過設(shè)計(jì)精巧的提示來操縱模型的輸出,而無須改變模型結(jié)構(gòu)或重新訓(xùn)練模型。這種方法依賴于對模型響應(yīng)方式的理解,可通過不同的輸入格式和內(nèi)容來引導(dǎo)模型生成所需答案。隨著ChatGPT等相關(guān)工具的進(jìn)步,市場上涌現(xiàn)出多種輔助工具,可幫助用戶創(chuàng)造有效的提示內(nèi)容。但這一過程中還需要用到Meta-prompt(可以理解為一種更為底層的Prompt)。Meta-prompt聚焦于四個(gè)關(guān)鍵要素:回應(yīng)依據(jù)(Response

Grounding)、語氣(Tone)、內(nèi)容安全性(Safety)以及如何避免違規(guī)行為(Jailbreaks)。在此類技術(shù)的幫助下,我們就可以構(gòu)建更有效的

Prompt,進(jìn)而在與ChatGPT等對話型AI系統(tǒng)互動(dòng)時(shí)

獲得更準(zhǔn)確、更有價(jià)值的反饋。了解GPT

提示工程

微調(diào)10RAG架構(gòu)AzureAl

SearchData

Sources(files,databases,

etc.)App

Server,

OrchestratorQuery

KnowledgePrompt

+

Knowledge

ResponseAzureOpenAl(GPT/ChatGPT)App

uxRAG

則會將私有或?qū)I(yè)領(lǐng)域的數(shù)據(jù)集整合到模型工作過程中,以擴(kuò)展模型的知識庫。借此可以幫助模型學(xué)習(xí)最新的行業(yè)知識或公司內(nèi)部的專有信息,從而提高模型在特定領(lǐng)域的準(zhǔn)確性和相關(guān)性。下圖展示了一個(gè)基于國際版Azure

OpenAl

的系統(tǒng)架構(gòu)。在這個(gè)架構(gòu)中,用戶通過API

接口層發(fā)送請求,該請求被轉(zhuǎn)發(fā)到AzureOpenAl

服務(wù)。AzureOpenAl

服務(wù)在處理請求時(shí),可能會通過知識檢索引擎訪問知識庫中的數(shù)據(jù),以增強(qiáng)回復(fù)的準(zhǔn)確性。同時(shí)也可能利用Prompt模板管理中的模板來優(yōu)化問題的表述。最終,Azure

OpenAl服務(wù)生成的回復(fù)通過API接口層返回給用戶。這樣的設(shè)計(jì)使得系統(tǒng)不僅能夠提供智能化的回答,還能確保處理過程的靈活性和擴(kuò)展性。在RAG

架構(gòu)中,除了

GPT自身的基礎(chǔ)能力外,檢索的準(zhǔn)確性顯得尤為關(guān)鍵,因?yàn)樗P(guān)乎能否找到有用的信息來輔助生成過程。OpenAI

自帶的檢索實(shí)現(xiàn)主要是向量,這涉及將查詢轉(zhuǎn)化為向量表示,然后在數(shù)據(jù)庫中尋找語義上相似的內(nèi)容段落。Azure認(rèn)知服務(wù)不僅支持這種搜素模式,還在其基礎(chǔ)上增加了更多功能,以顯著提高檢索的相關(guān)性。請參閱:/zh-cn/products/ai-services/ai-search/

RAG11RAG

包含一個(gè)初始檢索步驟,GPT

可以借此查詢外部數(shù)據(jù)源以獲取相關(guān)信息,然后回答問題或生成文本。這種檢索和生成能力可以從大規(guī)模的文本語料庫中檢索相關(guān)信息,然后生成回答。這使得RAG模型能夠處理更廣泛、更復(fù)雜的問題,包括

需要實(shí)時(shí)更新或特定領(lǐng)域知識的問題。一般來說,由RAG增強(qiáng)的GPT往往具備如下優(yōu)勢:靈活性和可擴(kuò)展性RAG模式的設(shè)計(jì)使得它可以很容易地與其他模型整合,或在不同任務(wù)和領(lǐng)域中使用。提高生成的質(zhì)量RAG模式在生成回答時(shí),會考慮檢索到的內(nèi)容,這使它能生成更準(zhǔn)確、更詳細(xì)的回答。特定領(lǐng)域的知識RAG模式可從特定領(lǐng)域的文本語料庫中檢索信,這使得它能夠處理需要特定領(lǐng)域知識的問題。通過檢索機(jī)制,RAG

模式可處理一些長尾問題,即那些出現(xiàn)頻率低但需要特定知識才能回答處理長尾問題的問題。RAG

模式可從最新文本語料庫中檢索信息,這使得它能獲取訓(xùn)練后的新知識,處理需要實(shí)時(shí)實(shí)時(shí)更新的知識更新的問題。

GPT的主要應(yīng)用場景GPT強(qiáng)大的語言處理能力使其快速融入到各行各業(yè),催生出廣泛的應(yīng)用場景。

基于RAG的知識庫12對于開展電商業(yè)務(wù)的商家來說,要想在激烈的競爭中推動(dòng)銷量增長,商品詳情頁的優(yōu)化已成為一項(xiàng)必不可少的措施。然而隨著商品數(shù)量激增,這個(gè)任務(wù)會變得越來越復(fù)雜和耗時(shí)。好在GPT的文本總結(jié)、內(nèi)容生成和語言理解能力相結(jié)合,可以自動(dòng)完成這項(xiàng)任務(wù),降低對人工操作的依賴,最終幫助商家提高產(chǎn)品吸引力和可見性,吸引更多潛在客戶。典型的電商平臺產(chǎn)品詳情頁往往包括商品標(biāo)題、要點(diǎn)、描述等要素,這些都是潛在買家在搜索和考慮購買商品時(shí)的重要參考信息。借助GPT強(qiáng)大的文本總結(jié)和生成能力,可以根據(jù)用戶提供的商品要點(diǎn)、搜索詞、標(biāo)題等信息,有效優(yōu)化這些內(nèi)容,提高商品的吸引力和搜索引擎排名。此外,用戶評價(jià)也是優(yōu)化商品詳情頁的一項(xiàng)重要數(shù)據(jù)。這些反饋可以幫助商家了解產(chǎn)品優(yōu)劣勢,以便在詳情頁突出顯示這些信息。通過API或網(wǎng)頁抓取工具從電商平臺獲取用戶評價(jià),然后通過GPT將大量評價(jià)總結(jié)為簡潔、明了的觀點(diǎn),即可快

速了解用戶對產(chǎn)品的看法,從而做出相應(yīng)優(yōu)化。在此基礎(chǔ)上還誕生了多智能體(Multi-Agent)的概念。這是一種軟件范式,會將軟件系統(tǒng)視為由一組自主、互動(dòng)的實(shí)體(即“智能體”)所組成的集合。按照設(shè)計(jì),每個(gè)智能體都執(zhí)行各自的特定任務(wù),并具有與其他智能體交互的能力,這樣即可實(shí)現(xiàn)復(fù)雜目標(biāo)。這種方法在任務(wù)分布并需要各種軟件組件之間協(xié)作的環(huán)境中特別有效。多智能體系統(tǒng)在處理復(fù)雜任務(wù)時(shí),無論是在記憶需求、穩(wěn)定性、可擴(kuò)展性,還是在并行處理和決策能力上都表現(xiàn)出了明顯優(yōu)勢。這些優(yōu)勢使得多智能體系統(tǒng)在處理現(xiàn)實(shí)世界的復(fù)雜問題時(shí),具有更大潛力和可能性。在軟件開發(fā)過程中,隨著業(yè)務(wù)邏輯日趨復(fù)雜,軟件架構(gòu)也逐漸從單文件程序發(fā)展到模塊、對象包,再到復(fù)雜的微服務(wù)調(diào)用等模式。生成式AI

應(yīng)用的發(fā)展歷程中也經(jīng)歷著類似的模式,那就是智能體(Agent),這已經(jīng)成為構(gòu)建通用人工智能(AGI)

系統(tǒng)最初的基礎(chǔ)模塊。一個(gè)簡單的智能體通常有三個(gè)核心屬性,而智能體就是在這三個(gè)屬性的幫助下實(shí)現(xiàn)了自我包含和專業(yè)化:技能和工具根據(jù)提供給它的自定義指令以及它可以使用的工具,執(zhí)

行專門的任務(wù)。實(shí)現(xiàn)某個(gè)目

標(biāo)的能力。效應(yīng)器和感受器使用自然語言和API

與其他服務(wù)和智能體交談,以實(shí)現(xiàn)

某個(gè)目標(biāo)的能力。自定應(yīng)自定義的知識庫和記憶。

智能體和多智能體

優(yōu)化電商詳情頁13智能

Microsoft

Copilot

副駕駛?

是微軟推出的一系列AI助手,目前已包含在

Microsoft

365、Dynamics

365以及GitHub

等諸多微軟旗下軟件和服務(wù)中。它不僅集成了大型語言模型的智能,還結(jié)合了MicrosoftGraph的數(shù)據(jù)資源,如用戶的日歷、電子郵件、聊天記錄、文檔和會議信息,以及Microsoft365的應(yīng)用功能。智能

Microsoft

Copilot

副駕駛?

可將用戶指令轉(zhuǎn)化為具體的生產(chǎn)力行動(dòng),并在多種任務(wù)和場合提供定制化的幫助。例如智能GitHubCopilot副駕駛?

是一個(gè)智能編程伙伴,可利用OpenAI的GPT模型幫助用戶自動(dòng)編寫代碼注釋并提供代碼建議,

從而提高編程效率。智能

MicrosoftCopilot副駕駛?

已經(jīng)發(fā)展成為一個(gè)全面的輔助工具,涵蓋了從網(wǎng)絡(luò)瀏覽到商務(wù)分析等不同方面的廣泛應(yīng)用。。

與Microsoft

365應(yīng)用程序集成:包括Word、Excel、PowerPoint、Outlook、Teams

等,均可在應(yīng)用中與智能MicrosoftCopilot副駕駛?

for

Microsoft365直接交互,幫助用戶釋放創(chuàng)造力、提高生產(chǎn)力和技能水平。

基于聊天的界面:能在LLM、Microsoft

365

應(yīng)用程序和用戶數(shù)據(jù)(日歷、電子郵件、聊天記錄、文檔、會議和聯(lián)系人

)

之間建立橋梁,幫助用戶完成以前無法完成的事情。注意:智能

Microsoft

Copilot副駕駛?

的可用情況因用戶所處地理區(qū)域、所用軟件

/服務(wù)

/訂閱的版本而異。部分功

能可能需要單獨(dú)訂閱。

生產(chǎn)力輔助智能

MicrosoftCopilot副駕駛?

能以兩種方式集成到Microsoft365,進(jìn)而融入用戶的日常工作流程中:簡單易上手的Copilot集成在Word

中的智能Microsoft

Copilot

副駕駛?

,可幫助用戶創(chuàng)建各類內(nèi)容14Microsoft365包含的網(wǎng)頁端智能Microsoft

Copilot

副駕駛?

,可通過聊天解答用戶問題或提供信息智能MicrosoftCopilot副駕駛?

for

Microsoft365入口:https:///chat

創(chuàng)意工具Designer是微軟提供的,由AI技術(shù)驅(qū)動(dòng)的設(shè)計(jì)工具,可以自動(dòng)執(zhí)行很多設(shè)計(jì)任務(wù),例如通過用戶指定的文字生成圖片、選擇不同配色方案或布局,甚至對文檔進(jìn)行自定義排版。網(wǎng)頁版的Microsoft

Designer15在Designer的幫助下進(jìn)行“文生圖”,并進(jìn)一步調(diào)整所生成的圖片Microsoft

Designer官網(wǎng):https:///

開發(fā)輔助Microsoft

Copilot

Stud

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論