時(shí)間:2023-05-05|瀏覽:251
作者:@於方仁 @Caroline Sun
編排:@黑羽小斗
LLM
大型語(yǔ)言模型(LLM, Large Language Model)是利用海量的文本數(shù)據(jù)進(jìn)行訓(xùn)練海量的模型參數(shù)。大語(yǔ)言模型的使用,大體可以分為兩個(gè)方向:
A. 僅使用
B. 微調(diào)后使用
僅使用又稱(chēng) Zero-shot,因?yàn)榇笳Z(yǔ)言模型具備大量通用的語(yǔ)料信息,量變可以產(chǎn)生質(zhì)變。即使 Zero-shot 也許沒(méi)得到用戶(hù)想要的結(jié)果,但加上合適的 prompt 則可以進(jìn)一步獲取想要的知識(shí)。該基礎(chǔ)目前被總結(jié)為 prompt learning。
大語(yǔ)言模型,比較流行的就是 BERT 和 GPT。從生態(tài)上講 BERT 與 GPT 最大的區(qū)別就是前者模型開(kāi)源,后者只開(kāi)源了調(diào)用 API ,也就是目前的 ChatGPT。
兩個(gè)模型均是由若干層的 Transformer 組成,參數(shù)數(shù)量等信息如下表所示。
目前生態(tài)上講,BERT 多用于微調(diào)場(chǎng)景。因?yàn)槲⒄{(diào)必須在開(kāi)源模型的基礎(chǔ)上,GPT 僅開(kāi)源到 GPT2 的系列。且相同模型參數(shù)量下 BERT 在特定場(chǎng)景的效果往往高于 GPT,微調(diào)需要調(diào)整全部的模型參數(shù),所以從性?xún)r(jià)比而言,BERT 比 GPT 更適合微調(diào)。
而 GPT 目前擁有 ChatGPT 這種面向廣大人民群眾的應(yīng)用,使用簡(jiǎn)單。API 的調(diào)用也尤其方便。所以若是僅使用 LLM,則 ChatGPT 顯然更有優(yōu)勢(shì)。
ChatGPT Prompt
下圖是 OpenAI 官方提出對(duì)于 ChatGPT 的 prompt 用法大類(lèi)。
Figure 1. Prompt Categories by OpenAI?
每種類(lèi)別有很多具體的范例。如下圖所示:
Figure 2. Prompt Categories Examples by OpenAI
除此以外,我們?cè)诖颂岢鲆恍┞晕⒏呒?jí)的用法。
高級(jí)分類(lèi)
這是一個(gè)意圖識(shí)別的例子,本質(zhì)上也是分類(lèi)任務(wù),我們指定了類(lèi)別,讓 ChatGPT 判斷用戶(hù)的意圖在這
Figure 3. Prompt Examples
實(shí)體識(shí)別與關(guān)系抽取
利用 ChatGPT 做實(shí)體識(shí)別與關(guān)系抽取輕而易舉,例如給定一篇文本后,這么像它提問(wèn)。
Figure 4. Example Text Given to ChatGPT
這是部分結(jié)果截圖:
Figure 5. Partial Output from given Text on ChatGPT
之后可以追問(wèn)給他們的關(guān)系,例如:
Figure 6.Asking relationship on ChatGPT
這樣,一個(gè)大型的知識(shí)圖譜便可輕松建立。
分析任務(wù)
如下圖所示,我對(duì) ChatGPT 提出了分析我目前需求的問(wèn)題。
Figure 7. Result for needs request on ChatGPT
甚至還能讓它給定分?jǐn)?shù)。
Figure 8. Scoring to evaluate the identified needs
除此以外還有數(shù)不勝數(shù)的方式,在此不一一列舉。
組合Agent
另外,我們?cè)谑褂?ChatGPT 的 API 時(shí),可以將不同的 prompt 模板產(chǎn)生多次調(diào)用產(chǎn)生組合使用的效果。我愿稱(chēng)這種使用方式叫做,組合 Agent。例如 Figure 1 展示的是一個(gè)大概的思路。
Figure 9.? The Paradigm of the Combination Agent
具體說(shuō)來(lái),例如是一個(gè)輔助創(chuàng)作文章的產(chǎn)品。則可以這么設(shè)計(jì),如 Figure 10 所示。
Figure 10. Agent combination for assisting in creation
假設(shè)用戶(hù)輸入一個(gè)請(qǐng)求,說(shuō)“幫我寫(xiě)一篇倫敦游記”, 那么 Intent Recognition Agent 首先做一個(gè)意圖識(shí)別,意圖識(shí)別也就是利用 ChatGPT 做一次分類(lèi)任務(wù)。假設(shè)識(shí)別出用戶(hù)的意圖是文章生成,則接著調(diào)用 Article Generate Agent。
另一方面,用戶(hù)當(dāng)前的輸入與歷史的輸入可以組成一個(gè)上下文,輸入給 Chat Context Analyze Agent。當(dāng)前例子中,這個(gè) agent 分析出的結(jié)果傳入后面的 AI Reply Agent 和 Phase Control Agent的。
AI Reply Agent 就是用來(lái)生成 AI 回復(fù)用戶(hù)的語(yǔ)句,假設(shè)我們的產(chǎn)品前端并不只有一個(gè)文章,另一個(gè)敵方還有一個(gè)框用來(lái)顯示 AI 引導(dǎo)用戶(hù)創(chuàng)作文章的語(yǔ)句,則這個(gè) AI Reply Agent 就是用來(lái)干這個(gè)事情。將上下文的分析與文章一同提交給 ChatGPT,讓其根據(jù)分析結(jié)果結(jié)合文章生成一個(gè)合適的回復(fù)。例如通過(guò)分析發(fā)現(xiàn)用戶(hù)只是在通過(guò)聊天調(diào)整文章內(nèi)容,而不知道 AI 還能控制文章的藝術(shù)意境,則可以回復(fù)用戶(hù)你可以嘗試著對(duì)我說(shuō)“調(diào)整文章的藝術(shù)意境為非現(xiàn)實(shí)主義風(fēng)格”。
Phase Control Agent 則是用來(lái)管理用戶(hù)的階段,對(duì)于 ChatGPT 而言也可以是一個(gè)分類(lèi)任務(wù),例如階段分為[文章主旨,文章風(fēng)格,文章模板,文章意境]等等。例如 AI 判斷可以進(jìn)行文章模板的制作了,前端可以產(chǎn)生幾個(gè)模板選擇的按鈕。
使用不同的 Agent 來(lái)處理用戶(hù)輸入的不同任務(wù),包括意圖識(shí)別、Chat Context 分析、AI 回復(fù)生成和階段控制,從而協(xié)同工作,為用戶(hù)生成一篇倫敦游記的文章,提供不同方面的幫助和引導(dǎo),例如調(diào)整文章的藝術(shù)意境、選擇文章模板等。這樣可以通過(guò)多個(gè) Agent 的協(xié)作,使用戶(hù)獲得更加個(gè)性化和滿(mǎn)意的文章生成體驗(yàn)。?
Prompt 微調(diào)
LLM 雖然很厲害,但離統(tǒng)治人類(lèi)的 AI 還相差甚遠(yuǎn)。眼下有個(gè)最直觀的痛點(diǎn)就是 LLM 的模型參數(shù)太多,基于 LLM 的模型微調(diào)變得成本巨大。例如 GPT-3 模型的參數(shù)量級(jí)達(dá)到了 175 Billion ,只有行業(yè)大頭才有這種財(cái)力可以微調(diào) LLM 模型,對(duì)于小而精的公司而言該怎么辦呢。無(wú)需擔(dān)心,算法科學(xué)家們?yōu)槲覀儎?chuàng)新了一個(gè)叫做 prompt tuning 的概念。
Prompt tuning 簡(jiǎn)單理解就是針對(duì)prompt進(jìn)行微調(diào)操作,區(qū)別于傳統(tǒng)的 fine-tuning,優(yōu)勢(shì)在于更快捷, prompt tuning 僅需微調(diào) prompt 相關(guān)的參數(shù)從而去逼近 fine-tuning 的效果。
Figure 11. Prompt learning
什么是 prompt 相關(guān)的參數(shù),如圖所示,prompt tuning 是將 prompt 從一些的自然語(yǔ)言文本設(shè)定成了由數(shù)字組成的序列向量。本身 AI 也會(huì)將文本從預(yù)訓(xùn)練模型中提取向量從而進(jìn)行后續(xù)的計(jì)算,只是在模型迭代過(guò)程中,這些向量并不會(huì)跟著迭代,因?yàn)檫@些向量于文本綁定住了。但是后來(lái)發(fā)現(xiàn)這些向量即便跟著迭代也無(wú)妨,雖然對(duì)于人類(lèi)而言這些向量迭代更新后在物理世界已經(jīng)找不到對(duì)應(yīng)的自然語(yǔ)言文本可以表述出意思。但對(duì)于 AI 來(lái)講,文本反而無(wú)意義,prompt 向量隨著訓(xùn)練會(huì)將 prompt 變得越來(lái)越符合業(yè)務(wù)場(chǎng)景。
假設(shè)一句 prompt 由 20 個(gè)單詞組成,按照 GPT3 的設(shè)定每個(gè)單詞映射的向量維度是12288,20個(gè)單詞便是245760,理論上需要訓(xùn)練的參數(shù)只有245760個(gè),相比175 billion 的量級(jí),245760這個(gè)數(shù)字可以忽略不計(jì),當(dāng)然也會(huì)增加一些額外的輔助參數(shù),但同樣其數(shù)量也可忽略不計(jì)。
問(wèn)題來(lái)了,這么少的參數(shù)真的能逼近?fine tuning 的效果嗎,當(dāng)然還是有一定的局限性。如下圖所示,藍(lán)色部分代表初版的 prompt tuning, 可以發(fā)現(xiàn) prompt tuning 僅有在模型參數(shù)量級(jí)達(dá)到一定程度是才有效果。雖然這可以解決大多數(shù)的場(chǎng)景,但在某些具體垂直領(lǐng)域的應(yīng)用場(chǎng)景下則未必有用。因?yàn)榇怪鳖I(lǐng)域的微調(diào)往往不需要綜合的 LLM 預(yù)訓(xùn)練模型,僅需垂直領(lǐng)域的 LLM 模型即可,但是相對(duì)的,模型參數(shù)不會(huì)那么大。所以隨著發(fā)展,改版后的 prompt tuning 效果可以完全取代 fine-tuning。下圖中的黃色部分展示的就是 prompt tuning v2 也就是第二版本的 prompt tuning 的效果。
Figure 12. Prompt learning parameters
V2 的改進(jìn)是將原本僅在最初層輸入的連續(xù) prompt 向量,改為在模型傳遞時(shí)每一個(gè)神經(jīng)網(wǎng)絡(luò)層前均輸入連續(xù) prompt 向量,如下圖所示。
Figure 13. Prompt learning v2
還是以 GPT3 模型為例,GPT3 總從有96層網(wǎng)絡(luò),假設(shè) prompt 由20個(gè)單詞組成,每個(gè)單詞映射的向量維度是12288,則所需要訓(xùn)練的參數(shù)量 = 96 * 20 * 12288 =23592960。是175 billion 的萬(wàn)分之1.35。這個(gè)數(shù)字雖不足以忽略不計(jì),但相對(duì)而言也非常小。
未來(lái)可能會(huì)有 prompt tuning v3, v4 等問(wèn)世,甚至我們可以自己加一些創(chuàng)新改進(jìn) prompt tuning,例如加入長(zhǎng)短期記憶網(wǎng)絡(luò)的設(shè)定。(因?yàn)樵娴?prompt tuning v2 就像是一個(gè)大型的 RNN, 我們可以像改進(jìn)RNN 一般去改進(jìn)prompt tuning v2)。總之就目前而言,prompt tuning 使得微調(diào) LLM 變得可行,未來(lái)一定會(huì)有很多垂直領(lǐng)域的優(yōu)秀模型誕生。
總結(jié)
Large Language Models (LLMs) 和 Web3 技術(shù)的整合為去中心化金融(DeFi)領(lǐng)域帶來(lái)了巨大的創(chuàng)新和發(fā)展機(jī)遇。通過(guò)利用 LLMs 的能力,應(yīng)用程序可以對(duì)大量不同數(shù)據(jù)源進(jìn)行全面分析,生成實(shí)時(shí)的投資機(jī)會(huì)警報(bào),并根據(jù)用戶(hù)輸入和先前的交互提供定制建議。LLMs 與區(qū)塊鏈技術(shù)的結(jié)合還使得智能合約的創(chuàng)建成為可能,這些合約可以自主地執(zhí)行交易并理解自然語(yǔ)言輸入,從而促進(jìn)無(wú)縫和高效的用戶(hù)體驗(yàn)。
這種先進(jìn)技術(shù)的融合有能力徹底改變 DeFi 領(lǐng)域,并開(kāi)辟出一條為投資者、交易者和參與去中心化生態(tài)系統(tǒng)的個(gè)體提供新型解決方案的道路。隨著 Web3 技術(shù)的日益普及,LLMs 創(chuàng)造復(fù)雜且可靠解決方案的潛力也在擴(kuò)大,這些解決方案提高了去中心化應(yīng)用程序的功能和可用性??傊琇LMs 與 Web3 技術(shù)的整合為 DeFi 領(lǐng)域提供了強(qiáng)大的工具集,提供了有深度的分析、個(gè)性化的建議和自動(dòng)化的交易執(zhí)行,為該領(lǐng)域的創(chuàng)新和改革提供了廣泛的可能性。
參考文獻(xiàn)
熱點(diǎn):cnn幣 幣圈經(jīng)驗(yàn) busd幣 bu虛擬幣 GO語(yǔ)言